L’environnement du capitalisme et l’intelligence artificielle de l’impérialisme

L’intelligence artificielle suivant Transformer exige d’immenses moyens matériels. Cependant, cette expression impérialiste ne gomme pas le capitalisme ; on est dans une superstructure.

Le capitalisme peut profiter des avancées de l’intelligence artificielle même à bas niveau. On peut profiter d’intelligences artificielles déjà existantes, comme proposer ses propres modèles : rien n’empêche de mettre en place sa propre intelligence artificielle.

Donnons quelques exemples concrets. On a Rasa, qui permet à n’importe quelle entreprise de mettre en place des bots pour un chat, ainsi que des assistants IA pour des interactions automatisées.

On peut demander des informations, des calculs, à peu près n’importe quoi à OpenAI ChatGPT.

On a Guru, une plate-forme où une entreprise peut voir ses membres communiquer en interne, en profitant d’une intelligence artificielle pour épauler les choix. Dataiku permet de visualiser et de gérer des données.

On a IBM Watson pour déployer son propre modèle d’intelligence artificielle. Amazon SageMaker permet de mettre en place des modèles d’apprentissage automatique pour une intelligence artificielle.

VertexAI est utilisé afin de construire des assistants virtuels. Microsoft Azure permet de construire des assistants virtuels. H2O.ai fournit une interface pour analyser les données.

Dans ce cadre, il faut mentionner les « frameworks », c’est-à-dire les infrastructures de logiciels qui permettent d’entraîner les intelligences artificielles. C’est ce qu’on appelle le « deep learning ».

L’un des plus connus est TensorFlow, développé par Google Brain, utilisé notamment pour les projets industriels à grande échelle mais il faut également absolument mentionner PyTorch, développé par Facebook AI Research (FAIR) et apprécié pour sa flexibilité.

Il y a également Jax, développé par Google, qui lui est tourné vers les calculs numériques de haute performance.

Il est également possible d’utiliser des interfaces pour utiliser au mieux des intelligences artificielles préexistantes, comme OpenAI API pour GPT-4, DALL·E, Whisper, afin de générer du texte, des images et de faire de la transcription vocale, ou bien Google Vertex AI pour utiliser l’ensemble d’outils IA de Google (NLP, Vision, Speech-to-Text, etc.).

TextCortex permet une génération de contenu améliorée grâce à ChatGPT, avec des outils d’édition avancés ; Poe (by Quora) est une plateforme permettant d’accéder à des intelligences artificielles comme GPT-4, Claude, Llama et d’autres via une seule interface.

Perplexity AI est un moteur de recherche boosté à ChatGPT, avec citations et intégration Web ; Merlin AI est une extension de navigateur intégrant ChatGPT dans tous les sites Web ; Chatbase produit un chatbot basé sur ChatGPT, entraîné avec ses propres données.

Pour les sites internet, AI Engine, Bertha AI et GetGenie AI permettent la rédaction d’article, AI ChatBot, WPBot AI et QuantumCloud ChatBot de disposer d’un chatbot interactif, WooCommerce AI ChatBot et Bertha AI permettent de générer la descriptions de produits pour la vente en ligne, etc.

Il y a ainsi une véritable activité à la base du capitalisme, qui peut se répercuter dans la superstructure impérialiste par ailleurs, puisqu’on est dans une compétition.

Il y a ainsi toujours la bataille pour l’amélioration du fonctionnement du modèle Transformer, qu’on appelle « vanilla » pour désigner le modèle décrit en 2017 par l’article Autonomy is all you need, par opposition aux versions améliorées (on a le même usage dans les jeux vidéos d’appeler « vanilla » le mode originel, en allusion à l’absence relative de goût de la vanille).

On a ainsi GPT (Generative Pre-trained Transformer) qui utilise uniquement la partie décodeur pour la génération de texte ; BERT (Bidirectional Encoder Representations from Transformers) utilise uniquement la partie encodeur pour comprendre le texte en contexte bidirectionnel.

T5, BART et UL2 améliorent le modèle vanilla en optimisant l’apprentissage et la génération de texte ; Mistral, Llama et DeepSeek optimisent la vitesse et la gestion mémoire des Transformers d’origine.

DeepSeek, une entreprise chinoise, est ici un très bon exemple. Donald Trump a annoncé le 21 janvier 2024, soit pratiquement dès son entrée en fonction pour sa seconde mandature, la mise en place du projet Stargate, consacré à l’intelligence artificielle avec des investissements de 500 milliards de dollars sur quatre ans, avec des entreprises comme Oracle, SoftBank et OpenAI.

Une telle perspective ne pouvait que rassurer la société Nvidia, qui propose des cartes graphiques vitales pour le modèle Transformer.

Cela avait amené sa capitalisation boursière à dépasser les 1 000 milliards de dollars en mai 2023, les 2 000 milliards en février 2024, les 3 000 milliards en juin 2024.

Nvidia revenait de loin, alors qu’après avoir grandement profité du confinement pour se développer, la fin de celui-ci avait amené la perte de la moitié de sa valeur boursière entre novembre 2021 et septembre 2022.

Toutefois, le 27 janvier 2024, son cours à la bourse chuta de 17 %, à l’annonce que la société chinoise DeepSeek proposait une intelligence artificielle avec des puces d’ancienne génération et pour un coût global bien plus faible que la moyenne.

C’est là le paradoxe et c’est cette situation qui fait espérer au capitalisme l’émergence d’un âge d’or.

Il y a l’idée, surtout de la part de la superpuissance impérialiste américaine, de combiner les intelligences artificielles de très grand format – qui seraient forcément américains – avec la généralisation à bas bruit de l’intelligence artificielle, et par des entreprises pas forcément américaines.

Cela donnerait la même situation qu’avec internet, où tout est principalement américain, mais laissant un large espace « à la base » pour une agitation capitaliste.

L’intelligence artificielle de type Transformer rentre ainsi dans un cadre historique bien précis.

-> Retour au dossier sur
L’intelligence artificielle, prolongement de la cybernétique