Auteur/autrice : IoULeeM0n

  • L’univers est l’unité de l’infini et de la finitude

    Revue Dialectique de la Nature (numéro 1)

    République populaire de Chine, juin 1973

    En se basant sur le développement des connaissances humaines sur l’univers, cet article expose les points de vue suivants :

    (1) En termes d’espace, l’univers est infini.

    L’infini ne peut néanmoins pas exister par lui-même indépendamment des choses finies. L’infini et la finitude forment une unité d’opposés. Le fini se transforme en infini, et l’infini se transforme en fini.

    Aucune des théories de l’infini et de la finitude de l’univers qui ont existé dans l’histoire, du modèle classique de l’univers de Newton à la cosmologie moderne, ne peut conduire à une connaissance correcte de la dialectique de l’infini et de la finitude ; en conséquence, elles dégénèrent toutes en métaphysique et en idéalisme.

    (2) En termes de temps, l’univers est également infini.

    La matière dans l’univers est en développement incessant. La totalité de l’univers n’a ni début ni fin.

    La théorie d’un univers immobile n’est pas fondée.

    Le développement de la connaissance humaine de l’univers révèle profondément que l’univers est une unité d’opposés tels que l’infinité absolue et la finitude relative.

    L’« Univers » est le monde matériel universel et éternel. En termes d’espace, du point de vue macroscopique de l’univers, il existe des dizaines de milliards de soleils en dehors de notre système solaire, des dizaines de milliards de galaxies en dehors de notre galaxie, la Voie Lactée.

    Il est sans limites et sans frontières. Du point de vue microscopique de l’univers, il existe des atomes dans les molécules, des particules « élémentaires » dans les atomes et les particules « élémentaires » ont également une structure complexe.

    Il est inépuisable et sans fin. En termes de temps, peu importe jusqu’où on fait remonter l’univers, il a toujours un passé infini ; peu importe jusqu’où on regarde en avant, il a toujours un futur infini.

    Il n’a ni commencement ni fin. Quelle que soit la forme de la matière, quel que soit le type de mouvement, tout être objectif est inclus dans l’univers.

    Il n’y a aucun moyen d’exister en dehors de l’univers.

    Y a-t-il quelque chose en dehors de l’univers ? Rien.

    L’univers est tout ; l’univers englobe tout ; l’univers est la totalité.

    Certains savants occidentaux ont proposé qu’en dehors de notre univers, il existe probablement aussi un « anti-univers » composé d’« antimatière ». En fait, ce qu’ils appellent « antimatière » n’est rien d’autre qu’une forme structurelle particulière de la matière.

    Il existe en effet une telle forme matérielle dans l’univers. Cela démontre une fois de plus la divisibilité infinie de la matière. Il s’agit toujours de matière, d’une sorte de forme matérielle que nous n’avons pas vraiment comprise aujourd’hui.

    Par conséquent, même s’il existe des corps célestes composés d’antimatière, ils font toujours partie de l’univers, pas du tout d’un « anti-univers » extérieur à l’univers.

    L’univers est la totalité de toutes choses, sa caractéristique fondamentale est donc son universalité et son éternité.

    Cela signifie que dans l’espace, l’univers s’étend à l’infini et dans le temps, l’univers se développe à l’infini.

    Dans notre propre pays, dès la période des Royaumes combattants quelqu’un a proposé que « les quatre directions et le haut et le bas s’appellent yu, du passé au présent s’appelle zhou ».

    « Yu » signifie espace infini. « Zhou » signifie temps infini.

    L’univers est l’unité de l’espace infini et du temps infini du monde matériel.

    C’est une conception très profonde de l’univers.

    L’univers dans son essence est infini, mais l’univers tel qu’il se manifeste, c’est-à-dire l’univers que les êtres humains comprennent, est toujours fini.

    « L’humanité se trouve donc confrontée à une contradiction : d’une part, elle doit acquérir une connaissance exhaustive du système du monde dans toutes ses interconnexions, et d’autre part, cette tâche ne peut jamais être complètement accomplie en raison de la nature de l’homme et le système du monde. » (Engels, Anti-Dühring)

    L’histoire de la compréhension de l’univers par l’être humain est un processus d’expansion inépuisable depuis le fini vers l’infini.

    Les êtres humains ont toujours essayé de comprendre l’univers entier, mais à tout moment donné, la compréhension de l’univers par l’homme ne peut être que finie et ne peut atteindre qu’une partie finie de l’univers.

    Chaque fois, lorsque la compréhension des hommes s’est étendue à une certaine échelle et a atteint un certain stade, il y a toujours eu des gens qui se sont arrêtés à mi-chemin et se sont précipités pour peindre une « image du monde » de « l’univers entier » et pour proclamer que la connaissance de l’univers avait atteint sa limite, tirant ainsi la conclusion métaphysique que l’univers est fini.

    Mais, à mesure que la connaissance des hommes s’est développée, les unes après les autres de telles « images de l’univers » ont été successivement détruites.

    Au tout début, la vision de « l’univers » par les hommes était celle d’une grande tente avec un ciel rond et un sol carré. Ce n’était en fait que la charpente finie de la surface de la Terre.

    Plus tard, la vision des hommes s’est élargie. Ils ont progressivement découvert que la Terre n’était pas une surface plane, mais plutôt une sphère, et la théorie selon laquelle la Terre se trouve au centre de l’univers est apparue (géocentrisme).

    À cette époque, l’univers était la Terre, et le Soleil, la Lune et les étoiles n’étaient que des ornements autour d’elle.

    Au 16e siècle, Copernic résuma les connaissances accumulées sur l’univers et proposa la théorie de l’héliocentrisme, élargissant ainsi l’univers à l’ensemble du système solaire avec le soleil en son centre.

    Au 17e siècle, grâce au télescope optique, les hommes ont pu étendre leur vision au-delà du système solaire, élargir leur vue à la galaxie de la Voie Lactée. La galaxie, selon les mots d’Herschel de l’époque, était la « structure de l’univers ».

    À l’époque moderne, en raison du développement des pratiques de production et de l’emploi des radiotélescopes, la vision de « l’univers » a de nouveau dépassé la limite de la galaxie et s’est étendue aux amas de galaxies, aux super-amas et à un amas global constitué de milliards et de milliards de galaxies.

    Certains pensent que le rayon de l’amas global pourrait atteindre plusieurs milliards, voire des dizaines de milliards d’années-lumière.

    Si cette estimation est correcte, alors c’est à peu près l’étendue de l’espace que nous pouvons observer aujourd’hui.

    Mais quelle que soit l’immensité de cet amas global, il ne peut être qu’une expression concrète de l’univers. Bien qu’il puisse également être appelé un univers concret, il ne peut jamais être l’univers entier.

    La Terre, le système solaire, la galaxie, l’amas de galaxies, l’amas global… sont tous les différents niveaux du monde matériel, l’univers concret connu par l’homme à un moment donné.

    C’est aussi l’univers tel qu’il est reflété dans les sciences naturelles.

    Si hier l’univers a trouvé sa limite dans le système solaire ou la Voie Lactée, et aujourd’hui il trouve sa limite dans l’amas de galaxies ou l’amas global, alors demain il trouvera nécessairement une nouvelle limite dans un certain niveau de structures des corps célestes jusqu’à ce que cette « limite » soit atteinte.

    « Le matérialisme dialectique insiste sur le caractère temporaire, relatif, approximatif de tous ces jalons dans la connaissance de la nature acquise par la science progressiste de l’homme. » (Lénine, Matérialisme et empiriocriticisme)

    Cette conception de l’univers dans les sciences naturelles, c’est-à-dire la connaissance d’une certaine structure-univers, d’une caractéristique de l’univers, est relative, finie.

    Mais les niveaux du monde matériel sont également inépuisables, ils ne connaîtront jamais de fin.

    Dans cet « Univers-monde » qui est plus élevé que le macro-monde ordinaire, les gens n’atteindront jamais la « fin de l’univers », n’épuiseront jamais la connaissance de l’univers entier, tout comme dans le micro-monde, les gens ne pourront jamais trouver « l’origine de la matière », ne pourront jamais épuiser la connaissance d’une particule « élémentaire » même minuscule.

    Par conséquent, dans la théorie de la connaissance, l’univers signifie la catégorie philosophique de la Nature universelle, éternelle, objective, qui se reflète dans la conscience humaine à travers le développement continu des capacités de connaissance de l’être humain, du plus petit au plus grand, s’accroissant à la fois en profondeur et en intégralité.

    Les concepts de l’univers en science naturelle et en philosophie sont à la fois distincts et interdépendants.

    La conception globale de l’univers en philosophie est toujours une certaine somme de la connaissance des sciences naturelles de l’univers ; à son tour, le concept d’univers de la science naturelle est toujours régi par certaines visions philosophiques du monde.

    La vision matérialiste dialectique du monde se forme en faisant la somme des développements et réalisations de la science naturelle comme ensemble.

    Elle affirme que l’univers est infini, que l’expression concrète de l’univers est fini.

    L’infinité de l’univers est l’absolu, la finitude de l’univers est relative ; l’univers est l’unité de l’infini absolu et de la finitude relative.

    La théorie de l’univers fini est née des limites de la connaissance humaine. Dans une société de classe, cette théorie conduit souvent au théisme et à l’idéalisme de différents types.

    Si l’univers était une grande tente, alors qu’y aurait-il à l’extérieur de cette tente ? Si quelqu’un sortait la tête de la tente, que verrait-il ?

    Tant que l’univers a une frontière, alors il y a « un monde de l’autre côté » à l’extérieur de l’univers.

    Là, il existe une résidence pour Dieu.

    La classe dirigeante réactionnaire peut ainsi utiliser un tel « monde parallèle » pour défendre l’existence de Dieu et affirmer que leur domination est « de droit divin » et ne saurait être changé.

    Chaque pas en avant de la connaissance humaine de l’univers se heurte à la résistance désespérée de la réaction.

    Au début, la théorie selon laquelle la Terre est ronde était considérée comme une hérésie. Plus tard, la théorie héliocentrique a également souffert de persécutions frénétiques et persistantes.

    Aux 17e et au 18e siècles, lorsque la bourgeoisie nouvellement montante utilisait directement la théorie d’un univers infini pour s’opposer à la religion, elle couvrait encore cela sous le manteau du théisme.

    Même des matérialistes comme Spinoza ne pouvait qu’appeler honteusement Dieu « l’infini », utilisant Dieu comme nom de code pour l’univers infini afin de s’opposer au Dieu tangible.

    L’univers est infini, mais à tout moment concret, les gens ne peuvent connaître que des choses finies.

    L’infini existe dans le cadre du fini.

    Par conséquent, les gens sont toujours en train de « chercher et d’établir l’infini dans le fini, l’éternel dans le transitoire » (Engels, Dialectique de la nature).

    Dans l’histoire de la philosophie, certains n’ont pas compris la dialectique et ont absolument séparé l’infini du fini.

    Alors qu’ils reconnaissaient l’infini de l’univers, ils ont quitté l’expression concrète de l’univers pour se tourner vers un infini purement abstrait.

    En conséquence, ils ne pouvaient pas faire autrement que s’écarter de l’univers réel et sauter dans le monde spirituel, sauter dans le monde de Dieu ou dans la pensée subjective de l’homme pour chercher l’infini.

    Ainsi, à leurs yeux, l’univers infini est devenu « l’esprit absolu » ou est devenu l’esprit subjectif de l’homme : « L’univers est mon esprit, et mon esprit est l’univers ». Telle est la vision de l’univers de l’apriorisme idéaliste.

    Dans le domaine des sciences naturelles, certains ont remplacé l’univers infini par l’univers fini déjà connu.

    Aujourd’hui, le radiotélescope étend notre vision à 10 milliards d’années-lumière dans l’espace.

    Mais, quelle que soit l’étendue de la vision humaine, il existe toujours un territoire inconnu infini au-delà de notre vue, et la théorie de l’univers fini peut exploiter les limites de la connaissance humaine à chaque étape du développement historique et refaire surface sous différentes formes.

    Elle peut toujours opposer la conception de l’univers des sciences naturelles à la vision de l’univers de la philosophie en utilisant l’univers concret connu des sciences naturelles à la place de la Nature universelle, éternelle et objective de la philosophie.

    Il s’agit d’un positivisme et d’un empirisme idéaliste prenant directement les sensations subjectives de l’homme pour l’essence de la matière.

    La « cosmologie » fondée au XXe siècle est née sous l’influence de ce courant de pensée.

    La définition de la cosmologie est donnée comme « le système de toutes sortes de concepts et de relations construits par l’homme dans le but de faire une description ordonnée du monde dans son ensemble, l’homme lui-même étant une partie de ce tout ». (Encyclopédie Britannica, vol. 6, p. 582, édition de 1964).

    C’est un souhait inaccessible et extravagant. Comme l’a bien dit Engels : « Si, à une époque quelconque du développement de l’humanité, un tel système définitif et défini des interconnexions avec le monde… était construit, cela signifierait que le domaine de la connaissance humaine aurait atteint sa limite. »

    « Ce serait une absurdité, un pur non-sens. » (Engels, Anti-Dühring.)

    Au cours du dernier demi-siècle, de nombreux savants ont proposé une « structure-univers » après l’autre, construit un « modèle de l’univers » après l’autre, et si certains d’entre eux ont aussi reflété sous certains aspects la connaissance humaine de certains univers concrets, et ont joué ou jouent encore un certain rôle dans le développement de la science, en ce qui concerne la connaissance de l’univers entier, ces diverses « structures » et « modèles » « encerclent » artificiellement l’univers infini et imposent artificiellement à l’univers entier les lois d’une région locale.

    Selon les mots de leur propre « ancêtre », le grand philosophe et scientifique bourgeois Bacon, ils « utilisent tous leur propre impuissance scientifique pour calomnier l’univers ».

    Le prolétariat doit aussi étudier les questions cosmiques, il doit faire le point sur les connaissances des hommes sur l’univers, sur la base du développement de la pratique de production et de l’expérimentation scientifique, et afin de servir les besoins de la pratique sociale.

    Nous comprenons humblement que cette connaissance ne peut être que locale, relative. La connaissance humaine de l’univers est un processus infini, elle n’épuisera jamais son sujet ni n’atteindra son « sommet ».

    La soi-disant « cosmologie », sous l’influence des conceptions du monde idéalistes et métaphysiques, ne peut être, fondamentalement parlant, qu’une fleur qui ne porte pas de fruits sur une branche du grand arbre des sciences naturelles.

    La lutte entre la théorie de l’univers infini et la théorie de l’univers fini se manifeste d’abord dans la question du yu, c’est-à-dire de la question de l’infinité et de la finitude de l’espace.

    Cette lutte est très compliquée. Les métaphysiciens ne rejettent pas nécessairement tous l’infinité.

    Au contraire, ils reconnaissent parfois aussi que l’univers est infini.

    Ils utilisent la conception métaphysique de l’infini pour s’opposer à la théorie de la finitude de l’univers.

    Bien qu’elle ait joué un certain rôle historique, une telle conception de l’infini est au fond également erronée et rejoint en fin de compte le camp de l’idéalisme.

    C’est pourquoi la lutte entre la théorie de l’univers infini et la théorie de l’univers fini s’est parfois exprimée comme une lutte entre la conception dialectique de l’infini et la conception métaphysique de l’infini.

    Dans les temps modernes, en traitant de la question dite de la « structure-l’univers », cette lutte s’est exprimée concrètement comme la lutte entre les théories de la structure de l’univers « de type plan » et de la structure de l’univers « de type homogène ».

    La vision métaphysique de l’infini considère l’infini à partir de la possibilité que le fini se transforme en infini.

    Elle voit que le fini constitue l’infini ; l’infini contient le fini. C’est exact.

    La vision métaphysique de l’infini voit en effet un aspect de la relation mutuelle de l’infini avec le fini.

    La conjecture de l’infinité de l’univers par les matérialistes primitifs de l’Antiquité s’appuyait précisément sur une telle vision de l’infini.

    Certains Grecs de l’Antiquité soutenaient que l’univers n’avait pas de frontière, car si l’univers avait une frontière, quiconque se tenait sur la frontière en tenant sa canne à main à l’extérieur de la frontière pourrait étendre cette frontière.

    On pourrait alors se tenir sur la nouvelle frontière et l’étendre encore davantage, sans fin.

    Au 17e siècle, pour la première fois, Newton, sur la base des sciences naturelles, a peint une image de l’univers infini.

    Il a postulé que l’univers est une grande boîte sans limite, où tous les corps célestes sont distribués de manière homogène dans le vide infini de l’espace.

    C’est le modèle de type homogène de la structure de l’univers. Les corps célestes sont engagés dans un mouvement mécanique régi par une « force cosmique », à savoir la force gravitationnelle.

    La « force cosmique » peut se projeter le long d’une ligne droite jusqu’à une distance infiniment grande et les corps célestes peuvent s’engager dans un mouvement en ligne droite sans fin simplement par l’action de cette force.

    Tout comme la série infinie des nombres entiers 1, 2, 3, 4… peut se poursuivre infiniment, sans se terminer.

    Cette « image de l’univers » est essentiellement toujours la même image que celle des Grecs, sauf qu’elle remplace la canne par les lois de la mécanique.

    Une telle infinité est le concept de « potentiel infini » développé en mathématiques au cours du 17e siècle.

    Cette structure de l’univers est matérialiste.

    Elle a vu la possibilité d’une expansion du fini vers l’infini et a démontré, sous un certain aspect, que le caractère infini de l’univers existe objectivement.

    Par conséquent, une telle vision de l’infini a une signification active dans les luttes contre les théories d’un univers fini, et les religions.

    C’est précisément ce concept d’infini potentiel qui a introduit l’idée de changements infinis dans les mathématiques et a fait entrer la dialectique dans les mathématiques.

    Mais une telle vision de l’univers infini est également unilatérale. Elle considère l’infini comme une simple expansion de la finitude, une simple continuation en quantité de la finitude, sans aucune discrétion [=non continuité], sans changement qualitatif.

    En conséquence, elle conduit inévitablement à une série de contradictions qui ne peuvent être surmontées.

    Si l’univers était vraiment une si grande boîte remplie d’un nombre infini d’étoiles qui rayonnent de la lumière et exercent une force gravitationnelle, alors, comme le disait le « paradoxe » avancé au 19e siècle, tout point de l’univers doit recevoir une quantité infiniment grande de lumière et une somme totale infiniment grande de force gravitationnelle.

    Si tel était le cas, alors tous les corps stellaires seraient instantanément réduits en cendres et l’univers entier se contracterait instantanément en un seul morceau !

    C’est bien sûr absurde. Cette vision métaphysique de l’infini s’est heurtée à une difficulté fatale.

    Kant à ce moment-là avait déjà perçu cette contradiction avec acuité.

    Il disait que lorsque la pensée humaine essayait « d’élargir les liens de l’univers à l’infini – des liens avec des étoiles en dehors des étoiles, des mondes en dehors du monde, des systèmes de corps célestes en dehors des systèmes de corps célestes… les imaginations s’épuisent dans une marche en avant si lointaine, les pensées s’épuisent aussi dans des imaginations si incommensurables ; tout comme dans un rêve, l’homme avance sans cesse sans jamais voir jusqu’où il doit aller plus loin » (Hegel, Science de la logique).

    En effet, si l’univers s’étend de manière homogène, uniforme de cette façon, alors où est la fin ?

    L’univers est infini, non seulement en quantité, mais aussi en qualité.

    Comment pourrait-il s’agir d’un simple élargissement en quantité sans provoquer de changements qualitatifs ?

    Comment l’univers pourrait-il être une si grande boîte remplie d’étoiles de toutes les mêmes sortes ?

    En outre, même si cette théorie de l’infini souligne la possibilité que le fini se transforme en infini, cette possibilité ne se réalisera jamais. Ce n’est qu’une possibilité abstraite et factice.

    Elle suppose d’abord que l’univers s’étend jusqu’à une certaine limite, puis lève cette limite, puis en adopte une nouvelle, et la lève à nouveau… et à tout moment, on ne peut l’étendre que jusqu’à une limite finie.

    Peu importe la taille de l’univers, il ne peut toujours pas se débarrasser de cette limite apparemment tenue par les fantômes de la finitude.

    La série infinie 1, 2, 3, 4… peu importe combien elle augmente, est toujours finie, et l’infini se trouve toujours loin devant, concevable mais inaccessible.

    Ainsi, cette vision de l’infini, tout en reflétant dans une certaine mesure la dialectique de la finitude se transformant en infini, est unilatérale.

    Si vous la rendez absolue, alors vous séparez en fait absolument l’infini de la finitude, et l’infini est devenu quelque chose d’intangible, de vague et de vide.

    Hegel appelait cette infinité « mauvaise infinité ».

    Comme le disait Lénine, cette « infinité qualitativement opposée à la finitude, sans lien avec elle, séparée d’elle… comme si l’infini se trouvait au-dessus du fini, en dehors de lui » (Lénine, Manuscrit sur la Science de la logique).

    C’est une fausse infinité, pas une infinité réelle.

    Pour saisir de manière compréhensible l’infinité de l’univers en termes d’espace, il ne suffit pas de voir la possibilité de la transformation du fini en infini, à la manière de la structure-univers de type homogène ; il faut aussi voir l’autre aspect de la relation dialectique entre l’infini et le fini, c’est-à-dire l’aspect de la transformation de l’infini en fini.

    La structure de l’univers de type homogène s’est heurtée à un mur de pierre dans la science. Cela a forcé certains scientifiques et philosophes bourgeois à proposer un autre modèle, de type nivelé.

    Kant pensait qu’à côté de cet « univers insulaire » (qui signifie en fait la Voie Lactée) où se trouve notre système solaire, il existe dans l’univers d’innombrables autres « univers insulaires » et que le « grand univers » se compose de tous ces « grands univers ».

    De très nombreux « grands univers » de ce type composent des univers plus grands de niveaux encore plus élevés.

    De telles étapes montent sans cesse.

    Plus tard, d’autres personnes ont clairement divisé la structure de l’univers en niveaux suivants : système solaire, premier niveau ; amas d’étoiles, deuxième niveau ; galaxies, troisième niveau ; amas de galaxies, quatrième niveau ; amas global, cinquième niveau…

    Au début du 20e siècle, quelqu’un a utilisé cette structure-univers pour résoudre le paradoxe auquel le modèle de type homogène de l’univers a donné naissance : comme l’univers monte niveau par niveau, la quantité de lumière et de force gravitationnelle qu’une étoile reçoit d’autres systèmes de corps célestes diminuerait niveau par niveau, s’approchant de zéro.

    Ainsi, la lumière et la force gravitationnelle reçues en tout point de l’univers, même si elles sont le résultat d’un nombre infini d’autres corps célestes, sont néanmoins dans leur somme totale, convergentes et finies.

    Ceci montre que non seulement le fini peut se transformer en infini, mais que l’infini peut aussi se transformer en fini.

    « Prenez un bâton d’un pied de long. Si vous coupez la moitié de sa longueur chaque jour, vous pouvez continuer ainsi pendant des millions de générations. »

    En mathématiques, cela correspond à la série infinie l/2, 1/4, 1/8… Ce processus est infini et il montre qu’un « bâton d’un pied de long » contient un nombre infini de parties.

    Mais la somme totale de 1/2 + 1/4 + 1/8 +… s’approche de 1.

    Ainsi, la totalité de ces parties infinies constitue un « bâton d’un pied de long » fini.

    M. Dühring a répandu ce que Kant avait dit : « Un agrégat infini de choses réelles ne peut donc pas être considéré comme un tout donné » (cité dans Anti-Dühring), mais en réalité, non seulement la Voie Lactée et le système solaire sont infinis, mais une maison, une tasse, etc. sont également infinies, même jusqu’à une molécule, un atome ou une particule « élémentaire » – tous se manifestent également comme des mondes complexes et inépuisables.

    Contrairement aux stupidités de Dühring, chaque fini donné est exactement l’agrégat infini de choses réelles.

    Hegel a appelé cet infini qui peut se transformer en finitude « l’infini réel ».

    L’infinité réelle est l’infini accessible, saisissable.

    Elle pose que l’infini puisse se transformer en fini, que le fini contienne l’infini.

    Il est donc possible que la matière se compose de masses données et que l’univers possède une structure de type nivelé.

    Les compositions matérielles infinies forment des particules « élémentaires » finies, des atomes, des molécules, des macro-objets, la vie, des systèmes planétaires, des galaxies, des amas…

    À l’intérieur de ces compositions, chaque niveau est un état d’agrégation différent de la matière, chacun est à la fois un « univers » inépuisable et un tout fini donné.

    De cette façon, l’infini n’est plus quelque chose de vide au-delà du fini actuel, mais existe réellement dans les choses concrètes.

    Engels a dit : « les états d’agrégation – points nodaux où le changement quantitatif se transforme en qualitatif » (Engels, Dialectique de la nature).

    Le processus du fini se transformant en infini n’est plus une simple expansion en quantité, mais plutôt ici apparaît une discrétion [= non continuité], des changements qualitatifs.

    D’un « petit univers » telle une particule « élémentaire » à un atome, à une molécule… jusqu’à un « grand univers » comme amas global, tous ces éléments ont été les uns après les autres des points décisifs dans la transition du fini vers l’infini.

    La structure de type nivelé de l’univers basée sur les concepts d’infinité réelle contient de la dialectique.

    Elle s’oppose aux vues qui traitent l’univers comme un bloc de désordre sans structure, absolument homogène, et montre que la matière a une structure définie et est divisible.

    Mais, à l’intérieur de l’infinité réelle, une autre déviation est couverte.

    L’infinité réelle est l’infinité achevée et rend l’infini fini.

    Ce n’est en fait qu’un maillon dans le processus de transformation du fini en infini, une approximation dans la méthode de traitement.

    Si vous le rendez absolu et que vous le considérez comme l’infini final, alors vous liquidez l’infini. Hegel est ainsi.

    Il vénère réellement l’infini réel, il le traite comme quelque chose au-delà de l’infini.

    « Au-delà » de l’infini, ne revient-il pas au fini ?

    Par conséquent, chez Hegel, si le mauvais infini est comme une ligne droite sans fin, alors pour l’infini réel « l’image est un cercle, c’est une ligne qui se touche elle-même, fermée et complètement présente, sans point de début ni de fin » (Hegel, Science de la logique).

    Les lignes circulaires ne touchent évidemment pas aux frontières, mais le domaine de l’espace est infini.

    Ainsi, pour résoudre les contradictions suscitées par le mauvais infini, Hegel finit par abandonner tout simplement l’infini et retourne au fini. Son univers est en fait le cercle de son « esprit absolu ».

    Au cours du 20e siècle, parce que le mauvais infini se heurtait à tant de difficultés en cosmologie, les naturalistes se sont tournés les uns après les autres vers l’infini réel hégélien, abandonnant en même temps la structure de la structure-univers de type nivelé, et revenant à la structure de type homogène, fermant ainsi l’univers infini.

    Ainsi, avec le passage de la bourgeoisie de sa période ascendante à sa période descendante, son point de vue sur l’univers a également changé, de la théorie matérialiste mais métaphysique de l’univers infini, à la théorie anti-métaphysique mais idéaliste de l’univers fini.

    Le « modèle de l’univers » d’Einstein en est un exemple typique.

    Contrairement à Newton, il abandonne l’infini mauvais et évite de se poser la question des frontières : « Si nous pouvons considérer l’univers comme un continuum fini et fermé, alors nous n’avons besoin d’aucune conditionsde frontières » (L’observation de la cosmologie basée sur la théorie de la relativité générale, Principles of Relativity, 1923, édition américaine).

    En même temps, il abandonne également la structure de l’univers en niveaux et finit par encercler l’univers dans ce qu’on appelle un « continuum à 4 dimensions ».

    Ce continuum est continu partout, nulle part discret [non-continu], et est donc un espace sphérique à 4 dimensions sans limites mais fermé, identique au cercle de Hegel.

    En partant de ce modèle d’univers « fini et sans frontières », Einstein a même « calculé » le « rayon » de l’univers à 3,5 milliards d’années-lumière.

    C’est le résultat inévitable de la poussée à l’extrême de l’infini réel.

    Les scientifiques dirigés par Einstein ont nié l’infini métaphysique mauvais et se sont opposés à la séparation absolue de l’infini et du fini.

    C’était une avancée. Mais ils ne comprenaient pas la dialectique.

    En poursuivant l’aspect de l’infini pouvant se transformer en fini, ils ont abouti à l’autre aspect unilatéral et ont absolument assimilé l’infini au fini, abolissant ainsi l’infini et retournant au fini.

    Ils ont commencé par s’opposer à la métaphysique, mais n’osant pas reconnaître la dialectique, ils sont finalement retournés vers la métaphysique.

    C’est la punition que la dialectique leur a infligée.

    Engels a dit : « L’infini est une contradiction, il est plein de contradictions. »

    « La suppression de la contradiction serait la fin de l’infini. » (Engels, Anti-Dühring).

    Nous disons que l’univers est la totalité de tout. En fait, cette phrase elle-même contient diverses contradictions.

    Puisqu’il est « de tout », l’univers lui-même est-il également inclus en lui ?

    S’il n’est pas inclus, alors il n’est pas « de tout ». S’il est inclus, alors il existe un univers encore plus élevé qui englobe cet univers, et l’univers est devenu une série inépuisable d’« univers ».

    Du point de vue du matérialisme dialectique, une telle contradiction n’a rien d’étrange. Elle reflète précisément la contradiction de l’infini et de la finitude.

    L’infini ne peut pas exister seul, il existe toujours dans une unité dialectique avec la finitude.

    Bien que l’univers soit infini, l’univers que l’on peut connaître est toujours fini, et la série infinie de tels univers compose les niveaux inépuisables de l’univers, et compose l’univers.

    Si l’on découpe cette unité, en imposant artificiellement des concepts tels que « système fermé », applicables seulement aux choses finies, à l’univers infini, on n’arrivera qu’à des conclusions absurdes.

    Le modèle de type homogène de la structure-univers imagine que l’univers est un grand entrepôt rempli de tous les biens du même type, un espace unifié, infini.

    Ce n’est pas correct. L’espace est toujours concret. L’espace matériel concret est toujours fini.

    L’espace atomique est fini, l’espace moléculaire est fini.

    De même, les espaces d’une galaxie, d’un amas et d’un amas global sont également finis.

    En dehors de ces différentes tailles et bandes d’espace concret, il n’existe pas d’espace abstrait d’un « univers entier » indépendant des choses finies.

    La recherche d’un tel espace unifié vous conduirait certainement dans une mauvaise infinité.

    L’infinité dans l’espace de l’univers ne peut être réalisée que dans d’innombrables espaces concrets finis, et ne peut être séparée de ceux-ci.

    Par conséquent, l’univers est toujours à la fois fini et infini, avec et sans frontières.

    Chaque univers concret a sa frontière et sa limite, cela est également vrai depuis l’atome jusqu’à l’amas global.

    Au-delà de la frontière de cet « univers », cet « univers » a atteint son apogée ; un changement qualitatif se produira, ainsi il entrera dans un « univers » de niveau encore plus élevé avec ses propres nouvelles frontières.

    Par conséquent, en ce qui concerne l’univers dans son ensemble, l’univers est sans frontières, sans limites et est infini dans l’espace.

    Le facteur rationnel dans la structure de l’univers de type nivelé s’exprime ici comme suit : avec les niveaux, il est possible d’avoir la diversité des formes matérielles.

    Cette structure illustre non seulement l’infinité de l’univers en quantité, mais elle permet aussi d’illustrer l’infinité de l’univers en qualité.

    L’infini potentiel et l’infini réel, cherchant chacun à résoudre la contradiction entre l’infini et le fini sous deux aspects différents, saisissent chacun individuellement une vérité unilatérale.

    Le potentiel dans le fini saisit l’aspect que le fini peut transformer en infini, mais poussant cela à l’extrême, sépare l’infini du fini.

    Ainsi l’infini est devenu un vide concevable mais inaccessible, un fantôme intangible.

    L’infini réel saisit l’aspect que l’infini peut transformer en fini, mais en poussant cela à l’extrême, il assimile l’infini au fini.

    Ainsi l’infini est devenu lui aussi fini.

    Finalement, tout comme une grenouille dans un puits, levant les yeux et insistant sur le fait que le ciel n’est pas plus grand que l’ouverture du puits, à la suite d’une telle absolutisation, le mauvais infini est alors devenu un faux infini, l’infini réel est devenu une finitude réelle.

    Tous deux ont liquidé l’infini et sont retournés au fini.

    S’ils ne reconnaissent pas la dialectique matérialiste du marxisme, les scientifiques et les philosophes, en raison des limites de leur vision du monde, tomberont souvent dans telle ou telle unilatéralité.

    Peu importe jusqu’où ils iront, ils ne pourront jamais échapper au domaine de la théorie d’un univers fini.

    [Allusion dans l’expression au grand classique chinois du 16e siècle La Pérégrination vers l’Ouest, où le Roi singe capable de faire des bonds de 54 000 km se réfugie au bout de l’univers, mais est tout de même rattrapé par main de Bouddha lui-même.]

    Alors, est-ce que cela le ferait d’éviter la contradiction en employant la méthode consistant à éliminer simplement le concept d’infini ?

    Non. « Toute tentative d’éliminer ces contradictions conduit, comme nous l’avons vu, à de nouvelles et pires contradictions. » (Engels, Anti-Dühring)

    Par exemple, un érudit révisionniste soviétique a déclaré : « Parler de l’espace infini et de la durée infinie de l’univers… est tout aussi dénué de sens que les discussions provoquées par la tentative de comprendre la question de savoir si l’univers est bleu ou jaune ou si l’univers dans son ensemble a des couleurs. »

    Un tel concept d’infini a été « obtenu par la religion » ([Ernst] Kolman, Sur les concepts d’espace, de temps, de matière et de mouvement en cosmologie).

    En déclarant cela, cette question fondamentale de savoir si l’univers est infini ou fini, qui a été ardemment débattue pendant plusieurs milliers d’années de civilisation humaine, est devenue un simple argument pour le plaisir d’argumenter, une question de croyance religieuse.

    Il veut éliminer la contradiction entre l’infini et la finitude, mais finit par trahir complètement les positions basiques du matérialisme dialectique, du marxisme.

    Toute la représentation de la bourgeoisie durant la période ascendante, Bacon, Spinoza, Newton, Kant, etc., avait reconnu, sous différentes formes, la théorie de l’univers infini.

    La grande régression du révisionnisme moderne ne peut que démontrer qu’il est le rejeton apocalyptique de la bourgeoisie décadente et réactionnaire.

    La lutte entre la théorie de l’univers infini et la théorie de l’univers fini se manifeste aussi sur la question du « zhou », c’est-à-dire la question de l’infini et de la finitude du temps, dans la théorie de l’univers en développement et dans la théorie de l’univers statique.

    L’univers est infini dans l’espace, il comprend nécessairement des formes de développement infiniment diversifiées et possède le potentiel d’un développement infini.

    Par conséquent, dans le temps, il est aussi nécessairement infini.

    Engels a dit : « La succession éternellement répétée des mondes dans un temps infini n’est que le complément logique de la coexistence d’innombrables mondes dans un espace infini. » (Engels, Dialectique de la nature).

    La théorie matérialiste dialectique de l’univers infini soutient fermement que l’univers est un processus en développement infini et incessant, à la fois discret et continu.

    Tout dans l’univers change, tout est un processus. Toutes les choses dans l’univers, aussi minuscules qu’une particule « élémentaire » ou aussi grandes que tous les corps célestes, se développent en tant que processus, toutes connaissent le processus de naissance, de développement et de mort.

    Toutes les choses concrètes dans l’univers sont finies dans le temps.

    Leur durée d’existence varie, leur espérance de vie varie, mais peu importe qu’elle soit longue ou courte, au fond, chacune est un processus fini.

    Les particules « élémentaires » peuvent être qualifiées de « changeantes sans certitude » !

    À l’exception des électrons et des protons, qui sont relativement plus stables et dont nous ne savons toujours pas aujourd’hui combien de temps ils vivent, les particules « élémentaires » ont toutes une durée de vie courte.

    Les neutrons peuvent être considérés comme ayant une longue durée de vie, mais ne peuvent vivre qu’environ 17 minutes.

    Tous les mésons et hypérons ne peuvent généralement vivre qu’un centième de millionième de seconde, jusqu’à un dixième, un centième ou un millième de milliardième de seconde.

    Mais même s’ils ont une durée de vie si courte, ils connaissent néanmoins toute la vie de la naissance, de la « désintégration » ou du « déclin », pour finalement se transformer en une autre matière.

    Par conséquent, les particules « élémentaires » sont à la fois « sans ordre » et « avec ordre », à la fois changeantes et stables.

    Sans cette stabilité relative, les particules « élémentaires » ne seraient pas des particules « élémentaires » et n’existeraient pas.

    La « durée de vie » des corps célestes est étonnamment longue. Si on les compte en « années » sur Terre, les « âges » de la Voie Lactée, du Soleil et de la Terre ne sont pas de plusieurs décennies, ou de plusieurs siècles, mais plutôt de plusieurs milliards, ou de plusieurs dizaines de milliards d’années.

    Prenons l’exemple du Soleil. On estime qu’il a une histoire d’environ 5 milliards d’années. La Terre est peut-être légèrement plus jeune, mais a quand même plus de 4 milliards d’années.

    Mais quelle que soit la durée de leur vie, elles sont toujours comme une vie humaine et ne peuvent échapper au processus de naissance, de vieillissement, de maladie et de mort.

    Les étoiles ont commencé comme des nébuleuses géantes et fines, se contractant et se condensant en certaines formes en vertu de la force gravitationnelle. Plus tard, leurs températures ont augmenté et elles ont connu leur jeunesse.

    Après qu’une réaction thermonucléaire a commencé, elles sont entrées dans l’âge mûr. Lorsque l’hydrogène du noyau est entièrement transformé en hélium, certaines étoiles deviennent des géantes rouges. Elles se dégradent progressivement et vieillissent.

    Plus tard, leur enveloppe extérieure disparaîtra et elles deviendront des naines blanches, jusqu’à ce que toute l’énergie se tarisse et qu’il ne reste qu’un tas d’« os ».

    Elles se seront transformées en d’autres formes matérielles.

    Par conséquent, même si les changements dans les corps célestes sont lents, même si leur durée de vie est longue, ils ne peuvent pas durer éternellement.

    Les durées de temps sont relatives.

    [Le personnage de La Pérégrination vers l’Ouest] « Erlang » a 48 000 ans. Cela peut être considéré comme une longue durée de vie, mais comparé aux milliards d’années de vie des corps célestes, c’est seulement une fraction de seconde.

    Une fraction de seconde peut être considérée comme courte, mais comparé à un meson π qui est seulement capable de mener une vie de quelques centièmes de quadrillionièmes de seconde, c’est quasiment comme infiniment long.

    La durée du temps n’existe qu’en des termes relatifs.

    Quelle que soit sa durée, le temps de l’existence de toute chose concrète est toujours finie. Il n’existe pas du tout de choses éternellement immuables et permanentes dans l’univers.

    Bien sûr, comparée à la vie d’un humain, la vie des corps célestes est après tout très longue.

    De manière écrasante, la majeure partie du développement et des changements des corps célestes est non seulement très difficile à observer de visu, mais même l’histoire humaine toute entière est rarement témoin de tels changements.

    Les gens voient que le Soleil se lève toujours à l’est et se couche à l’ouest, la Lune est toujours pleine au milieu du mois [lunaire] et un mince croissant au début du mois [lunaire].

    Les 7 étoiles de la Petite Ourse tournent toujours autour de l’étoile polaire.

    En raison de cette limitation des connaissances, les gens exagèrent très facilement l’aspect de l’ordre dans les corps célestes et en concluent que l’univers ou les cieux sont immuables.

    Toutes les classes réactionnaires exploitent cette compréhension erronée des gens et promeuvent la théorie d’un univers immuable, selon laquelle « le ciel ne changera pas et l’ordre sur la terre ne changera pas non plus ».

    Évidemment, si elles admettent que le ciel change et que la société se développe, cela ne signifierait rien de moins que la condamnation à mort de leur propre classe.

    Par conséquent, les luttes entre la théorie de l’évolution de l’univers et la théorie de l’immuabilité de l’univers ont historiquement reflété la lutte de classe entre les forces avancées et les forces réactionnaires.

    Le porte-parole de la classe des propriétaires d’esclaves de l’Antiquité, Aristote, a déclaré que les corps célestes étaient parfaits sans aucun défaut et éternels sans aucune dégradation, ce qui reflétait les rêves de la classe des propriétaires d’esclaves de « régner génération après génération ».

    Newton, au 17e et 18e siècles, pensait que les étoiles resteraient toujours à leur position d’origine, que la Terre suivrait toujours une orbite fixe donnée, ce qui reflétait les souhaits de classe de la bourgeoisie après sa prise du pouvoir et son désir de maintenir ses propres intérêts établis.

    Toutes les choses concrètes de l’univers ont leur naissance et leur mort, leur début et leur fin, toujours du changement quantitatif au changement qualitatif, se transformant continuellement en leurs opposés.

    Ce sont toutes des « systèmes fermés » : dans l’espace, fermés dans un domaine fini, dans le temps, fermés dans une période finie.

    Toutes les choses produites sont vouées à disparaître. Les particules « élémentaires » sont vouées à se transformer, les humains sont voués à mourir, la Voie Lactée, le Soleil et la Terre sont vouées à se décomposer et à être détruites.

    Même quelque chose qui dure aussi longtemps que « le Ciel et la Terre » [issu dans le taoïsme de l’oeuf cosmique se brisant] finira par disparaître.

    Même l’espèce humaine elle-même va changer et s’éteindre.

    Mais la fin du Soleil, de la Terre et de l’espèce humaine n’est pas un « jour du jugement dernier de l’univers ».

    Lorsque la Terre s’éteindra, il y aura des niveaux encore plus élevés de corps célestes pour la remplacer.

    À ce moment-là, les gens célébreront la victoire de la dialectique, accueillant la naissance de nouvelles étoiles.

    Lorsque l’espèce humaine disparaîtra, des espèces encore plus élevées apparaîtront.

    De ce point de vue, les activités humaines créent les conditions pour l’apparition d’espèces encore plus élevées.

    Si l’ancien ne disparaissait pas, le nouveau ne viendrait pas. La mort de l’ancien est précisément la condition nécessaire à la naissance du nouveau.

    « Il en est toujours ainsi dans le monde, le nouveau remplaçant l’ancien, l’ancien étant remplacé par le nouveau, l’ancien étant éliminé pour faire place au nouveau, et le nouveau émergeant de l’ancien. » [Mao Zedong, De la contradiction]

    Le fini se transforme en infini.

    C’est précisément parce que toutes les choses de l’univers changent et se développent continuellement qu’elles constituent le développement sans fin de l’univers tout entier.

    C’est précisément parce que tout a sa naissance et sa mort, son commencement et sa fin que l’univers dans son ensemble peut être sans naissance ni mort, sans commencement ni fin.

    Toutes les choses sont comme des milliers et des millions de ruisseaux qui se rejoignent et forment un long fleuve inépuisable de l’univers.

    En ce qui concerne les choses concrètes, leur développement est fini, le temps est fini.

    Mais infinies sont les transitions d’une espèce de chose à une autre, d’une forme de matière à une autre, c’est-à-dire d’un temps concret à un autre temps concret.

    C’est précisément à cause de la finitude des choses concrètes dans le temps qu’elles constituent l’infinité de l’univers dans son ensemble dans le temps, et le développement de l’univers ne s’achèvera jamais, n’atteindra jamais son apogée.

    De même que dans l’espace, l’univers dans le temps est à la fois fini et infini, et l’infini est composé uniquement de ce qui est fini et transformé à partir de ce qui est fini.

    Quand nous disons que l’univers se développe aussi, ne veut-on pas dire que l’univers dans son ensemble change et se développe tout comme les choses concrètes de l’univers ?

    Cette question est formulée de manière incorrecte. Le développement de l’univers s’exprime dans le développement de toutes les choses de l’univers.

    Isolé du développement des choses concrètes, le développement de l’univers lui-même n’a pas de sens.

    Au cours des dernières décennies, au sein de la cosmologie bourgeoise, s’est développée une tendance, la « cosmologie évolutionniste », qui prône l’« évolution » de l’univers lui-même.

    Ces cosmologistes pensent que l’univers a une origine.

    En Occident, depuis les années 30, certains ont défendu la théorie selon laquelle l’univers est né du Big Bang d’un « atome primitif » ou d’une « boule de feu primitive ». À la suite de l’explosion, les débris de cette matière primitive se sont dispersés dans toutes les directions et se sont ensuite continuellement dilatés comme un ballon.

    Au milieu des années 60, le « fond cosmique de micro-ondes » a été découvert et la « cosmologie du Big Bang » a de nouveau affirmé qu’il s’agissait de la chaleur résiduelle du rayonnement après le Big Bang de la boule de feu primitive.

    Puisque l’univers lui-même est en « expansion », quelle que soit sa taille, quelle que soit son expansion potentiellement infinie à un moment donné, l’univers est toujours fini.

    Même si nous pouvons parler de l’expansion d’une chose finie, comment un univers infini peut-il s’étendre ? Jusqu’où s’étendrait-il ?

    Par conséquent, l’« évolution » ici est une imposture, toute idée de l’évolution de l’univers dans son ensemble implique déjà un univers fini.

    Un tel univers a non seulement un début, mais aussi nécessairement une fin, un jour du jugement dernier.

    Depuis la fin du 19e siècle, il y a toujours eu des gens qui ont essayé de plaider en faveur de la fin du monde.

    En utilisant la deuxième loi de la thermodynamique, ils ont proposé la soi-disant « théorie de la mort thermique de l’univers ».

    En d’autres termes, comme la chaleur ne peut se transférer que spontanément des objets les plus chauds vers les objets les plus froids, c’est-à-dire qu’un système fermé ne peut que se rapprocher de plus en plus de l’équilibre thermodynamique (l’entropie devenant de plus en plus grande), tôt ou tard, l’univers atteindra également un état d’équilibre thermodynamique et deviendra une mare stagnante, perdant tout potentiel de mouvement ou de changement.

    C’est le jour du Jugement dernier de l’univers.

    L’univers dans son ensemble ne peut pas avoir d’origine ni de fin du monde, car l’univers dans son ensemble n’est pas une chose concrète, pas un système fermé.

    Les choses concrètes ont leurs débuts et leurs fins, ont leur propre temps. Une particule « élémentaire » a le temps des particules « élémentaires », l’Homme a le temps de l’Homme, le système solaire a le temps des systèmes solaires.

    Tous ces temps sont finis. La somme de ces temps concrets constitue le temps de l’univers ; le temps de l’univers existe donc à l’intérieur de ces temps concrets.

    Existe-t-il un temps général indépendant de ces temps concrets ?

    Non. Le temps qui est séparé des formes concrètes, à savoir le « temps en tant que tel » (Engels, Anti-Dühring) n’est qu’une abstraction dans notre pensée, tout comme le concept de maison, de table, etc. sont tous des abstractions dans notre pensée.

    Les métaphysiciens postulent toujours un seul flux de temps unifié de l’univers entier, comme s’il existait réellement un long fleuve inépuisable de l’univers, qui n’existerait pas dans les processus matériels concrets, mais existerait plutôt de manière indépendante, en dehors des processus matériels, et que tout dans ce fleuve apparaît, se développe et meurt dans cette ligne de temps unique de l’univers entier.

    C’est complètement faux.

    S’il existait vraiment un tel fleuve de temps unique et englobant tout, alors il est à coup sûr au-delà du monde matériel, et doit devenir l’être absolu au-dessus et au-dessus de la matière, ce qui ne peut être qu’un synonyme de Dieu.

    Par conséquent, si l’on imagine le temps par analogie comme un fleuve, alors le temps existe dans l’univers non pas comme un fleuve unique, mais plutôt avec des milliers d’origines et de flux dans des millions de vallées en compétition.

    Le fleuve du temps de l’univers ne peut exister qu’à l’intérieur de tout cela et non en dehors de lui.

    Le président Mao nous a enseigné que toutes les choses absolues ne peuvent exister que dans des choses relatives.

    Le temps est infini, mais il est aussi fini.

    L’infinité du temps existe dans un temps fini, et la somme totale d’innombrables temps finis exprime l’infinité du temps.

    C’est l’unité dialectique de l’infinité et de la finitude dans le temps.

    Les érudits bourgeois ne comprennent pas cela, et tombent donc dans des contradictions insolubles.

    Kant en est un exemple typique. Il pense qu’il est à la fois correct de dire que le temps est fini, le temps a un commencement, et de dire que le temps est infini, le temps n’a pas de commencement.

    C’est une contradiction en soi. Si vous dites que le monde a un commencement dans le

    temps, alors qu’en était-il avant cela ? Il a dû y avoir un « temps vide » qui ne peut

    pas arriver, c’est-à-dire le temps en tant que non-temps ; cela dépasse l’imagination.

    Inversement, si vous dites que le temps n’a pas de commencement, alors « pour atteindre un point connu dans le temps, il doit avoir traversé un temps éternel.

    Par conséquent, dans le monde, une série infinie de choses doit déjà s’être écoulée dans un continuum mutuellement lié. L’infinité d’une série consiste dans le fait qu’elle ne peut jamais être achevée par des synthèses successives » (cité par Hegel dans Science de la Logique).

    C’est-à-dire que l’univers a traversé un temps infini avant d’atteindre un moment donné.

    Mais l’infini est nommé ainsi, précisément parce qu’il ne peut jamais être atteint.

    Puisqu’un flux de temps infini serait nécessaire pour faire que l’univers se développe à un niveau infiniment haut, pourquoi n’a-t-il atteint que le niveau fini contemporain de développement ?

    Les contradictions de Kant proviennent de son ignorance de la dialectique de l’infini et de la finitude.

    Le fini se transforme en infini, l’infini se transforme aussi en fini.

    La série temporelle infinie est précisément ce qui rend possible et nécessaire l’atteinte du niveau contemporain donné de développement.

    Par exemple, un homme a 40 ans, il a vécu 40 ans de séries temporelles finies et a atteint un niveau de développement défini comme 40 ans.

    Qu’y avait-il avant cet homme ? Il est aussi le résultat de plus d’un million d’années de développement de l’histoire humaine, et a donc lui aussi traversé une série temporelle finie de plus d’un million d’années.

    Qu’en est-il avant l’humanité ? Il y a eu aussi plusieurs milliards d’années de développement historique de l’ensemble des êtres vivants, et il y a aussi l’histoire du développement du système solaire et de la galaxie de la Voie Lactée…

    La somme totale de ces séries temporelles finies constitue la série temporelle infinie.

    Il n’existe pas du tout de temps universel unifié.

    Y a-t-il un début et une fin de l’univers ? Ou en d’autres termes, le temps a-t-il un début et une fin ?

    Nous disons qu’il y a à la fois un début et pas de début ; il y a à la fois une fin et pas de fin.

    Le temps est toujours le temps d’une chose concrète, c’est du temps concret.

    Un tel temps a un début et une fin.

    Une personne a son début et sa fin ; l’humanité a son début et sa fin ; le système solaire a son début et sa fin ; par conséquent, ce genre de temps que nous avons connu, à savoir le temps calculé selon l’année, le mois, le jour et l’heure, a aussi son début et sa fin.

    Ce temps est lié à l’existence du système solaire.

    Qu’en était-il avant ce genre de temps ?

    Il existe certainement un autre temps, lié à d’autres transformations matérielles, un autre cadre temporel et d’autres caractéristiques temporelles dont nous n’avons pas encore connaissance.

    Les théoriciens modernes de la mort thermique de l’univers considèrent le temps comme le processus de croissance de l’entropie (le processus d’approche de l’équilibre thermodynamique).

    Si ce processus thermodynamique possède également sa propre forme temporelle particulière, il ne s’agit là que d’un type de temps particulier.

    Même si un certain système matériel a atteint le maximum d’entropie, cela ne peut être que la fin du temps concret de ce genre, et plus tard commencera encore un nouveau temps.

    Ce n’est certainement pas le seul flux de temps dans l’univers, et il ne peut s’agir que d’un type de temps parmi une infinité de temps concrets.

    Un type de temps se termine, et un autre type de temps commence.

    C’est-à-dire qu’un « univers » est terminé, et un autre « univers » naît.

    De cette façon, l’univers passe continuellement de changements quantitatifs à des changements qualitatifs, en transition d’un type de forme matérielle à un autre, pour toujours, sans fin et sans frontières.

    Le temps, le « temps en tant que tel », c’est-à-dire le temps au sens général, est donc la forme universelle de l’existence de la matière ; il est éternel et infini.

    Mais le temps en tant que temps concret est toujours la forme de l’existence des choses concrètes, il est toujours transitoire et fini.

    En somme, le temps est comme l’espace ; il n’est que la forme de l’existence de la matière.

    La matière a à la fois unité et diversité.

    La matière est par essence unifiée, mais les manifestations concrètes de la matière sont riches, colorées et diversifiées.

    Le général ne peut exister que dans le particulier et l’unité ne peut exister que dans la diversité.

    Ces caractéristiques de la matière se reflètent également dans les formes d’existence de la matière : le temps et l’espace.

    Telle est notre conclusion.

  • De la critique de la cybernétique à celle de l’intelligence artificielle

    L’article suivant a eu un grand impact en URSS à l’époque de Staline ; il a symbolisé la critique de la cybernétique.

    Intitulé « La cybernétique, la science des obscurantistes » et publié le 5 avril 1952, il a été rédigé par quelqu’un dont le nom est inutile : il suffit de savoir qu’il a ensuite trahi, passant dans la camp du révisionnisme et soutenant la cybernétique, devenue une science officielle de l’URSS.

    Ce qui est très marquant dans ce texte, c’est qu’on voit bien le parallèle entre les prétentions de la cybernétique alors et celles de l’intelligence artificielle au début du second quart du 21e siècle.

    La presse bourgeoise a largement fait la publicité de la nouvelle science : la cybernétique.

    Les auteurs de la cybernétique expliquent pourquoi ils ont nommé leur concept avec ce mot mystérieux de la manière suivante : le terme cybernétique, emprunté à la langue grecque ancienne, signifie « l’art de la navigation » et désigne principalement les ouvrages destinés au contrôle automatique des navires.

    Cette fausse théorie à la mode, avancée par un groupe de « scientifiques » américains, prétend résoudre tous les problèmes scientifiques fondamentaux et sauver l’humanité de tous les désastres sociaux.

    L’engouement pour la cybernétique s’est répandu dans diverses branches du savoir : physiologie, psychologie, sociologie, psychiatrie, linguistique, etc.

    Selon les cybernéticiens, la raison de la création de leur pseudoscience était la similitude entre le cerveau humain et les machines complexes modernes.

    La similitude est visible dans le fait que le cerveau et la machine à calculer sont tous deux des « appareils qui reçoivent des informations et les utilisent pour obtenir des réponses à des questions et résoudre des problèmes complexes ».

    Les cybernéticiens identifient la bande magnétisée introduite dans une machine à calculer avec les organes des sens, la pulsation d’une colonne de mercure avec les processus de mémoire, les tubes radio avec les cellules nerveuses du cerveau et le flux d’électrons avec l’activité mentale.

    Lorsqu’ils discutent de la possibilité de créer un appareil mécanique « qui pourrait être placé à côté du cerveau humain ou même au-dessus de lui », les cybernéticiens ne voient que des difficultés techniques sur le chemin vers la résolution de ce problème : une machine à calculer électronique contient 18 800 ampoules, tandis que le cerveau se compose de plus de 10 milliards de « tubes radio » (cellules nerveuses).

    Par conséquent, si les machines ne peuvent toujours pas, comme cela est évident pour tout le monde, concevoir et améliorer d’autres machines, mener des recherches scientifiques et créer des systèmes philosophiques, même aussi primitifs que la cybernétique, alors la raison de cela, de l’avis des cybernéticiens, doit être recherchée.

    Le seul problème est que les ingénieurs n’ont pas encore réussi à assembler des compteurs avec un nombre suffisamment grand d’éléments, correspondant au nombre d’éléments présents dans le cortex cérébral.

    Les cybernéticiens ne se soucient pas du tout d’étayer leurs affirmations monstrueuses par une quelconque argumentation scientifique, mais ils s’efforcent d’étonner l’imagination des personnes inexpérimentées avec des informations sur la vitesse et la précision avec lesquelles les machines effectuent des opérations arithmétiques : une machine mathématique a effectué deux cent mille multiplications en cinq minutes et cinq cent mille additions, une autre au cours d’une journée a amené le calcul de la valeur de « Pi » (le rapport de la circonférence au diamètre) à 2048 chiffres décimaux, tandis que le mathématicien anglais Shanks, ayant passé 15 ans, a calculé la valeur indiquée seulement avec une précision de 707 chiffres décimaux, etc.

    Ces exemples, utilisés par les cybernéticiens comme support principal de leurs constructions bancales, sont nécessaires pour « prouver » la puissance intellectuelle de la machine, son identité avec le cerveau humain, voire sa supériorité sur lui.

    Il n’existe pas de mots pour décrire le fait que les machines mathématiques, qui permettent d’effectuer des opérations de calcul complexes à une vitesse incroyable, sont d’une importance énorme pour de nombreux domaines de la science et de la technologie.

    Le rôle le plus important dans le développement des machines mathématiques revient aux célèbres scientifiques russes P.L. Chebyshev, A.N. Krylov et d’autres.

    Les scientifiques soviétiques améliorent sans cesse les machines mathématiques. L’une des plus grandes réalisations dans ce domaine sont les machines à calculer électroniques automatiques à grande vitesse de conception soviétique.

    Mais quel rapport les déclarations des auteurs de la cybernétique ont-elles avec le progrès de la science et de la technique ?

    Un écolier sait que, quelle que soit l’ingéniosité avec laquelle une machine informatique est conçue, elle est plus simple que le plus simple organisme unicellulaire, qui possède une irritabilité et des débuts de sensations, se nourrit, se reproduit et exécute une foule d’autres processus qui sont absents dans matière inanimée.

    Le concept de « machine pensante » promu par les cybernéticiens est antiscientifique du début à la fin.

    A l’image des cybernéticiens, la machine apparaît comme dotée de la capacité de raisonner logiquement, d’opérer avec des formules, etc.

    En réalité, la machine mathématique ne fait que réduire considérablement le temps consacré aux calculs, alors que le sens de ce calcul – le sens des unités et la manière de les faire fonctionner – est inaccessible soit à un appareil sans vie, soit à une personne qui ne connaît pas les mathématiques.

    Le caractère idéaliste des exercices épistémologiques des cybernéticiens n’est pas moins évident dans leurs tentatives de déduire un critère de vérité de la connaissance à partir du travail des mécanismes de calcul.

    Où est la garantie que les calculs effectués sont corrects ?

    Les cybernéticiens recourent à toutes sortes d’astuces pour « prouver » que les machines elles-mêmes sont capables de vérifier la fiabilité des conclusions qu’elles reçoivent.

    À Philadelphie, un compteur binaire a été construit, composé de deux sous-compteurs, qui calculaient simultanément à la même vitesse, et les résultats obtenus étaient automatiquement vérifiés.

    Selon les cybernéticiens, la capacité du « cerveau et des autres appareils informatiques » à résoudre correctement les problèmes intellectuels et à ne pas devenir victime d’illusions repose sur un principe similaire d’auto-vérification.

    L’incohérence de toute cette fausse argumentation est évidente pour tout lecteur impartial.

    Si les deux compteurs – ou tout autre nombre d’entre eux – avaient la même erreur de conception, ils donneraient le même résultat en raison de leur fonctionnement synchrone, ce qui serait également incorrect.

    Deux cybernéticiens – ou n’importe quel autre nombre d’entre eux – peuvent répéter les mêmes propositions idéalistes éculées avec la même persistance et en tirer les mêmes conclusions erronées, mais cela ne rendra ni les propositions ni les conclusions fiables.

    Les affirmations des cybernéticiens sont incroyables. Ils prétendent détenir entre leurs mains une clé universelle, non seulement pour les problèmes physiologiques, psychologiques et épistémologiques, mais aussi pour tous les autres problèmes, en particulier pour les problèmes très actuels de la sociologie.

    Ils tentent de transférer les principes et les méthodes de leur pseudoscience au comportement des groupes humains.

    Partant de l’affirmation selon laquelle les lois de l’activité d’un individu ne seraient pas différentes des règles de fonctionnement d’un thermostat dans un réfrigérateur ou d’un gyrocompas sur un navire, les cybernéticiens tentent ensuite d’interpréter l’ensemble de la société comme un ensemble d’appareils automatiques.

    Il serait possible de trouver l’explication de l’interaction dans une expression mathématique appropriée.

    La spécificité de la « communauté » de robots, selon les cybernéticiens, est que les gestes ou les paroles fonctionnent comme une impulsion qui met en mouvement le « mécanisme social ».

    Dans le même temps, l’arme la plus complexe d’échange de pensées créée par les peuples au cours des siècles, à savoir le langage, est à son tour décrite par les cybernéticiens comme un ensemble de processus physiques – des vibrations d’ondes sonores.

    Craignant la volonté et la raison du peuple, les cybernéticiens se consolent à l’idée de la possibilité de transférer les fonctions vitales inhérentes à l’homme à des appareils automatiques.

    Est-il possible de remplacer le prolétaire qui se tient sur la chaîne de montage, qui fait grève lorsque les salaires sont réduits, qui vote pour la paix et les communistes, par un robot doté d’un cerveau électronique ?

    Ne pourrions-nous pas envoyer un monstre de métal sans émotion au lieu d’un pilote qui refuse de tuer les femmes travaillant dans les rizières ?

    Dans une tentative frénétique de réaliser ses plans agressifs, l’impérialisme américain met tout en jeu : bombes, puces de peste et ignorants philosophes.

    C’est grâce aux efforts de ces derniers que la cybernétique a été fabriquée – une fausse théorie extrêmement hostile au peuple et à la science. »

    L’amélioration des calculs est une bonne chose, mais la négation de la dignité du réel est toujours la caractéristique d’une pseudo-science.

    Tout comme aucune science ne peut faire l’impasse sur le principe de fusion, de synthèse, de combinaison, de naissance d’ensembles plus grands et se superposant : on a par exemple le chemin particules élémentaires – noyaux – atomes – molécules – masses – corps célestes -nébuleuses, celui solides – liquides – gaz, celui molécules – colloïdes – cellules – organes – individus – sociétés.

    L’intelligence artificielle expose la limite d’une époque – le matérialisme dialectique supprime cette limite pour relancer le mouvement à l’infini.

    -> Retour au dossier sur
    L’intelligence artificielle, prolongement de la cybernétique

  • L’environnement du capitalisme et l’intelligence artificielle de l’impérialisme

    L’intelligence artificielle suivant Transformer exige d’immenses moyens matériels. Cependant, cette expression impérialiste ne gomme pas le capitalisme ; on est dans une superstructure.

    Le capitalisme peut profiter des avancées de l’intelligence artificielle même à bas niveau. On peut profiter d’intelligences artificielles déjà existantes, comme proposer ses propres modèles : rien n’empêche de mettre en place sa propre intelligence artificielle.

    Donnons quelques exemples concrets. On a Rasa, qui permet à n’importe quelle entreprise de mettre en place des bots pour un chat, ainsi que des assistants IA pour des interactions automatisées.

    On peut demander des informations, des calculs, à peu près n’importe quoi à OpenAI ChatGPT.

    On a Guru, une plate-forme où une entreprise peut voir ses membres communiquer en interne, en profitant d’une intelligence artificielle pour épauler les choix. Dataiku permet de visualiser et de gérer des données.

    On a IBM Watson pour déployer son propre modèle d’intelligence artificielle. Amazon SageMaker permet de mettre en place des modèles d’apprentissage automatique pour une intelligence artificielle.

    VertexAI est utilisé afin de construire des assistants virtuels. Microsoft Azure permet de construire des assistants virtuels. H2O.ai fournit une interface pour analyser les données.

    Dans ce cadre, il faut mentionner les « frameworks », c’est-à-dire les infrastructures de logiciels qui permettent d’entraîner les intelligences artificielles. C’est ce qu’on appelle le « deep learning ».

    L’un des plus connus est TensorFlow, développé par Google Brain, utilisé notamment pour les projets industriels à grande échelle mais il faut également absolument mentionner PyTorch, développé par Facebook AI Research (FAIR) et apprécié pour sa flexibilité.

    Il y a également Jax, développé par Google, qui lui est tourné vers les calculs numériques de haute performance.

    Il est également possible d’utiliser des interfaces pour utiliser au mieux des intelligences artificielles préexistantes, comme OpenAI API pour GPT-4, DALL·E, Whisper, afin de générer du texte, des images et de faire de la transcription vocale, ou bien Google Vertex AI pour utiliser l’ensemble d’outils IA de Google (NLP, Vision, Speech-to-Text, etc.).

    TextCortex permet une génération de contenu améliorée grâce à ChatGPT, avec des outils d’édition avancés ; Poe (by Quora) est une plateforme permettant d’accéder à des intelligences artificielles comme GPT-4, Claude, Llama et d’autres via une seule interface.

    Perplexity AI est un moteur de recherche boosté à ChatGPT, avec citations et intégration Web ; Merlin AI est une extension de navigateur intégrant ChatGPT dans tous les sites Web ; Chatbase produit un chatbot basé sur ChatGPT, entraîné avec ses propres données.

    Pour les sites internet, AI Engine, Bertha AI et GetGenie AI permettent la rédaction d’article, AI ChatBot, WPBot AI et QuantumCloud ChatBot de disposer d’un chatbot interactif, WooCommerce AI ChatBot et Bertha AI permettent de générer la descriptions de produits pour la vente en ligne, etc.

    Il y a ainsi une véritable activité à la base du capitalisme, qui peut se répercuter dans la superstructure impérialiste par ailleurs, puisqu’on est dans une compétition.

    Il y a ainsi toujours la bataille pour l’amélioration du fonctionnement du modèle Transformer, qu’on appelle « vanilla » pour désigner le modèle décrit en 2017 par l’article Autonomy is all you need, par opposition aux versions améliorées (on a le même usage dans les jeux vidéos d’appeler « vanilla » le mode originel, en allusion à l’absence relative de goût de la vanille).

    On a ainsi GPT (Generative Pre-trained Transformer) qui utilise uniquement la partie décodeur pour la génération de texte ; BERT (Bidirectional Encoder Representations from Transformers) utilise uniquement la partie encodeur pour comprendre le texte en contexte bidirectionnel.

    T5, BART et UL2 améliorent le modèle vanilla en optimisant l’apprentissage et la génération de texte ; Mistral, Llama et DeepSeek optimisent la vitesse et la gestion mémoire des Transformers d’origine.

    DeepSeek, une entreprise chinoise, est ici un très bon exemple. Donald Trump a annoncé le 21 janvier 2024, soit pratiquement dès son entrée en fonction pour sa seconde mandature, la mise en place du projet Stargate, consacré à l’intelligence artificielle avec des investissements de 500 milliards de dollars sur quatre ans, avec des entreprises comme Oracle, SoftBank et OpenAI.

    Une telle perspective ne pouvait que rassurer la société Nvidia, qui propose des cartes graphiques vitales pour le modèle Transformer.

    Cela avait amené sa capitalisation boursière à dépasser les 1 000 milliards de dollars en mai 2023, les 2 000 milliards en février 2024, les 3 000 milliards en juin 2024.

    Nvidia revenait de loin, alors qu’après avoir grandement profité du confinement pour se développer, la fin de celui-ci avait amené la perte de la moitié de sa valeur boursière entre novembre 2021 et septembre 2022.

    Toutefois, le 27 janvier 2024, son cours à la bourse chuta de 17 %, à l’annonce que la société chinoise DeepSeek proposait une intelligence artificielle avec des puces d’ancienne génération et pour un coût global bien plus faible que la moyenne.

    C’est là le paradoxe et c’est cette situation qui fait espérer au capitalisme l’émergence d’un âge d’or.

    Il y a l’idée, surtout de la part de la superpuissance impérialiste américaine, de combiner les intelligences artificielles de très grand format – qui seraient forcément américains – avec la généralisation à bas bruit de l’intelligence artificielle, et par des entreprises pas forcément américaines.

    Cela donnerait la même situation qu’avec internet, où tout est principalement américain, mais laissant un large espace « à la base » pour une agitation capitaliste.

    L’intelligence artificielle de type Transformer rentre ainsi dans un cadre historique bien précis.

    -> Retour au dossier sur
    L’intelligence artificielle, prolongement de la cybernétique

  • Analyser la totalité – l’intelligence artificielle capitaliste libertarienne face au matérialisme dialectique

    Le capitalisme se fonde sur le capital individuel, le travailleur individuel, le consommateur individuel.

    C’est pour ainsi dire malgré lui qu’il produit de grands ensembles : la bourse, le transport aérien, les réseaux de télécommunications, les vastes usines et les réseaux de logistique, etc.

    Tout cela pour dire que le capitalisme est habitué depuis le départ à considérer les choses sous l’angle individuel.

    Si le grand capitaliste peut raisonner en termes collectifs, c’est qu’il a tendance à devenir monopolistique, à basculer dans l’oligarchie.

    Le petit capitaliste, lui, tend vers la conception petite-bourgeoise de rejet de l’État et de tout ce qui est collectif comme une insupportable oppression.

    L’émergence de l’intelligence artificielle pose ainsi un double problème au capitalisme.

    D’une part, celle-ci se fonde une accumulation de données qui se veut la plus grande possible. Cela tend vers l’infini et cela pose la question de la totalité des choses. Ce sont deux choses dont le capitalisme ne veut pas entendre parler.

    Inversement, le matérialisme dialectique s’appuie justement sur les notions d’infini et de la totalité des choses.

    D’autre part, l’intelligence artificielle doit combiner le fait que les réactions individuelles sont aux yeux du capitalisme « libres » donc imprévisibles et le fait qu’il faut établir des probabilités les plus justes possibles pour être efficaces sur les marchés.

    Pour dire les choses de manière paradoxale, on tend ici au matérialisme historique en exposant qu’il existe des lois tendancielles aux attitudes, comportements, choix, valeurs, etc.

    On a là une vraie limite pour le capitalisme, qui est en crise avec l’intelligence artificielle, dans le domaine de la pensée, comme il a été en crise avec la pandémie, dans le domaine du rapport aux êtres vivants sur Terre.

    Le capitalisme, qui dit que tout le monde est différent, ne peut pas dire qu’une intelligence artificielle peut parvenir à tout penser, tout assimiler. La notion de tout s’oppose par principe même à la pseudo-variété systématique des individus censés être chacun unique.

    Cela signifie concrètement cette chose très importante, qui est en rapport avec les immenses moyens techniques nécessaires à l’intelligence artificielle.

    L’intelligence artificielle relève de la superstructure du capitalisme, qui est l’impérialisme ; elle pose en soi le principe de collectivité, de totalité.

    Elle relève du capitalisme monopolistique qui est l’antichambre du socialisme.

    L’intelligence artificielle du modèle Transformer est, par définition, un projet monopolistique ; seuls des monopoles pouvaient la mettre en place, seuls des monopoles pouvaient la concevoir.

    Mais les monopoles dont on parle sont directement liés aux consommateurs les plus individualisés possible.

    Il faut disposer de vastes bases de données pour que les intelligences artificielles puissent « apprendre ». Cela implique des surfaces populaires immenses.

    C’est intenable : on a des mastodontes capitalistes prétendant représenter le capitalisme individuel qui mettent en place d’énormes entités informatiques pour analyser en masse des comportements qui sont censés être unique et individuels !

    Il n’y a alors qu’un seul moyen de s’en sortir pour le capitalisme : assumer enfin l’approche libertarienne, où absolument tout s’achète et se vend, si les gens le veulent bien.

    Cette démarche était déjà sous-jacente dans l’idéologie LGBT, qui a systématisé l’ultra-individualisme.

    Elle est désormais assumée, mais par les monopoles, l’idéologie LGBT n’ayant qu’accompagné la mise en place des réseaux sociaux, des livraisons de plats préparés ou de drogues, bref le 24 heures sur 24 du capitalisme.

    L’intelligence artificielle en mode Transformer est efficace, car elle a d’immenses données, et il fallait bien que le capitalisme en fasse quelque chose. D’où des monopoles qui proposent une nouvelle utopie, un âge d’or capitaliste.

    Et ils s’adressent à des masses individualisées, considérées comme les consommateurs du 24 heures sur 24 du capitalisme enfin établi.

    C’est, pour ainsi dire, désormais le tout pour le tout ; dès qu’on parle d’intelligence artificielle, on parle des masses, de l’ensemble de la société, de l’ensemble de l’humanité.

    L’affirmation de l’intelligence artificielle est en ce sens la préfiguration de celle du matérialisme dialectique comme réelle science de la totalité.

    -> Retour au dossier sur
    L’intelligence artificielle, prolongement de la cybernétique

  • La base technique de l’intelligence artificielle utilisant Transformer : les années 2010

    L’intelligence artificielle utilisant Transformer avait besoin de différents sauts qualitatifs dans le domaine technique. Voici l’explication par une intelligence artificielle utilisant Transformer.

    Les modèles de type Transformer (comme GPT, BERT, etc.) ont besoin de très grandes quantités de données pour apprendre efficacement.

    En effet, ces modèles sont basés sur l’apprentissage supervisé ou l’apprentissage non supervisé, où ils analysent des textes massifs pour comprendre les relations, les structures et les patterns du langage.

    Données textuelles vastes : les Transformers sont souvent entraînés sur des bases de données énormes comprenant des livres, des articles, des conversations, et d’autres formes de texte.

    Plus les modèles ont accès à de grandes quantités de données, plus ils peuvent apprendre des nuances du langage.

    Généralisation et performance : Avec un grand volume de données, les modèles peuvent mieux généraliser et fournir des réponses plus précises et pertinentes, même pour des questions ou situations non directement observées dans les données d’entraînement.

    Le rôle des GPU/TPU dans ce contexte :

    Les GPU et TPU sont nécessaires pour traiter ces grandes quantités de données de manière rapide et efficace.

    L’entraînement d’un modèle Transformer sur des milliards de mots et des milliers d’exemples nécessite une puissance de calcul massive que ces processeurs spécialisés permettent de fournir.

    Ces unités de traitement accélèrent les calculs parallèles complexes, permettant d’entraîner des modèles à grande échelle en un temps raisonnable.

    PU (Graphics Processing Unit) :

    Le GPU est un processeur spécialisé dans le calcul parallèle. Initialement conçu pour les graphiques et le rendu d’images dans les jeux vidéo, il est devenu crucial pour des tâches comme l’apprentissage automatique, où de nombreux calculs doivent être effectués en même temps.

    Les GPU permettent d’accélérer l’entraînement des modèles d’IA, notamment les réseaux neuronaux profonds.

    Les GPU ont été largement utilisés à partir des années 2000 pour les jeux et la simulation graphique.

    Leur adoption dans l’IA a commencé autour de 2010, avec des chercheurs réalisant leur puissance pour l’apprentissage profond.

    TPU (Tensor Processing Unit) :

    Le TPU est un processeur créé par Google spécifiquement pour les calculs liés à l’intelligence artificielle, en particulier les tâches de machine learning.

    Contrairement aux GPU, il est optimisé pour des opérations spécifiques aux réseaux neuronaux (comme les multiplications matricielles).

    Cela le rend encore plus efficace pour l’entraînement de modèles d’IA complexes.

    Les TPU ont été introduits par Google en 2016, dans le but d’optimiser et d’accélérer les calculs pour l’IA et le deep learning.

    On a ici un aspect absolument essentiel : l’intelligence artificielle utilisant Transformer est permise par le développement des forces productives.

    On est ici dans une situation où le capitalisme est tellement fort qu’il affronte la question de la « totalité » – ce qui est en contradiction avec sa propre nature.

    -> Retour au dossier sur
    L’intelligence artificielle, prolongement de la cybernétique

  • L’intelligence artificielle et l’Intellect agent d’Averroès

    Averroès (1126-1198) est un fidèle disciple d’Aristote, donc il n’est pas juste parler de l’intellect agent d’Averroès, puisque celui-ci ne fait que répéter ce qu’a dit Aristote.

    On peut cependant poser les choses ainsi pour voir comment Averroès, prolongeant Aristote, s’oppose à l’intelligence artificielle utilisant le modèle Transformer.

    Voici ce que dit à ce sujet justement une intelligence artificielle utilisant le modèle Transformer.

    Comparer la pensée d’Averroès (Ibn Rushd) avec l’intelligence artificielle basée sur Transformer est particulièrement intéressant, car Averroès fut un grand commentateur d’Aristote et un penseur clé dans la transmission et l’interprétation de la philosophie grecque en terre islamique.

    Il a notamment réfléchi sur la nature de l’intellect et du raisonnement humain, ce qui fait écho aux débats actuels sur l’intelligence artificielle.

    1. L’Intellect : Intellect Agent vs. Modèle Statistique

    Averroès distingue deux formes d’intellect :

    L’intellect matériel (lié aux individus, passif).

    L’intellect agent (universel, actif, garant de la connaissance).

    Selon lui, la pensée humaine repose sur une interaction entre ces deux formes d’intellect. L’intellect agent permet d’actualiser la connaissance en transformant les concepts abstraits en pensées intelligibles.

    Les modèles Transformer, quant à eux, n’ont pas d’ »intellect » au sens averroïste.

    Ils fonctionnent par modélisation statistique du langage et ne disposent d’aucune intelligence active capable d’interpréter ou d’actualiser des concepts.

    Ils se contentent de prédire des structures linguistiques en fonction d’un entraînement préalable.

    Différence majeure : Averroès voit la pensée comme un processus actif, universel et rationnel, tandis que Transformer génère du texte par calcul de probabilités, sans véritable compréhension intellective.

    2. L’Acquisition de la Connaissance : Raison Déductive vs. Modèle d’Apprentissage

    Averroès défend une vision déductive et démonstrative de la connaissance, fondée sur la raison et la philosophie aristotélicienne.

    Il considère que la vérité est atteinte par le raisonnement logique et l’expérience, en accord avec la pensée rationnelle.

    Les modèles Transformer ne raisonnent pas au sens classique du terme. Ils ne procèdent ni par déduction ni par expérience sensible.

    Leur apprentissage est inductif : ils absorbent des millions de données et identifient des modèles récurrents, mais sans structurer leur savoir autour de principes rationnels.

    Différence majeure : Averroès conçoit la connaissance comme une progression rationnelle vers la vérité, alors que Transformer construit des prédictions basées sur des motifs statistiques.

    3. Vérité et Interprétation : Exégèse Philosophie vs. Génération de Texte

    Averroès, en tant que commentateur d’Aristote, défend une approche exégétique et rationnelle des textes.

    Il insiste sur l’harmonie entre raison et révélation, et il plaide pour une lecture philosophique des écritures.

    À l’inverse, les modèles Transformer n’ont pas de processus d’interprétation critique. Ils produisent du texte en fonction de modèles appris, mais sans différencier une vérité philosophique d’une simple corrélation statistique.

    Un modèle d’IA peut simuler un commentaire de texte, mais il ne comprend pas réellement la signification profonde de ce qu’il analyse.

    Différence majeure : Averroès défend une lecture rationnelle et philosophique des textes, tandis que Transformer ne fait qu’en produire des imitations sans discernement conceptuel.

    Conclusion

    Averroès et les modèles Transformer incarnent deux visions totalement différentes de la pensée et de la connaissance.

    Averroès place la raison active et universelle au cœur du processus intellectuel, tandis que l’IA fonctionne comme une machine à prédire du texte sans véritable compréhension.

    Si Averroès était confronté à Transformer, il y verrait sans doute une imitation passive de l’intellect, incapable d’accéder aux vérités universelles.

    Il rappellerait que l’intelligence véritable repose sur la capacité de raisonnement et d’interprétation, et non sur la simple manipulation de symboles.

    Ainsi, la grande question philosophique qui demeure est la suivante : une IA qui reproduit du texte sans comprendre peut-elle être considérée comme « intelligente » ?

    Pour Averroès, la réponse serait sans doute non, car l’intelligence authentique suppose une connexion avec l’intellect agent universel, chose qui échappe aux machines.

    Tout cela est indéniablement intéressant ; cela montre très bien comment l’intelligence artificielle s’appuie sur des faiblesses énormes, compensées seulement par l’accumulation quantitative de données.

    Le matérialisme dialectique – d’Aristote à Averroès, de Marx à Mao Zedong – a une approche fondamentalement différente : ancrée dans le réel, reconnaissant la dignité de ce qui est, considérant que la raison doit être employé en s’appuyant sur la transformation.

    -> Retour au dossier sur
    L’intelligence artificielle, prolongement de la cybernétique

  • L’intelligence artificielle et l’Intellect agent d’Aristote

    Pour Aristote, on peut tout analyser et tout dire, car chaque chose a une cohérence interne, obéissant à un mode de fonctionnement qui est le même pour tout ce qui existe, dont les principes sont catalogués par « l’intellect agent » une sorte de super-pensée virtuelle (sur qui on retombe quand on pense « bien »).

    On n’a pas cela dans les intelligences artificielles du capitalisme, qui disent qu’on peut tout dire, car tout a été dit.

    Les intelligences artificielles sont une sorte de super Google ; ce que disait Aristote se rapproche davantage de ce qu’avait essayé de faire dans les années 1990, sans succès, le moteur de recherche Yahoo, qui proposait lors des recherches non pas des liens vers des sites résultant du choix d’un algorithme, mais une sorte de petit annuaire bien précis, validés par des êtres humains.

    C’est un point essentiel. Les intelligences artificielles ne posant pas de critères au préalable ; ce n’est pas une démarche comme celle d’Aristote, où l’on pose un cadre.

    Les auteurs des Lumières posaient également un cadre, eux aussi considéraient que l’univers avait un sens, d’où la possibilité de produire l’Encyclopédie.

    Cette dernière avait comme définition à sa publication d’être un « Dictionnaire raisonné des sciences, des arts et des métiers ». Ce n’est pas le cas des intelligences artificielles, dont les résultats ne sont pas raisonnés.

    Voici comment une intelligence artificielle suivant le modèle Transformer définit, avec relativement de justesse, la différence fondamentale d’approche entre le matérialiste Aristote et le calculateur de probabilités qu’est l’intelligence artificielle.

    Comparer les thèses d’Aristote dans La Métaphysique avec l’intelligence artificielle utilisant Transformer est un exercice fascinant qui met en contraste une vision philosophique fondatrice de l’être et du savoir avec une technologie avancée de traitement de l’information. Voici une analyse en trois axes :

    1. La quête de la connaissance : Cause et Finalité vs. Corrélation et Modèle

    Aristote, dans La Métaphysique, cherche à comprendre l’être en tant qu’être, en étudiant ses causes premières et ses principes fondamentaux.

    Il développe une ontologie où tout objet possède une substance et une finalité (téléologie). La connaissance véritable, selon lui, repose sur la compréhension des causes premières.

    À l’opposé, les modèles d’intelligence artificielle basés sur Transformer (comme GPT) n’opèrent pas selon une compréhension causale du monde, mais par analyse de corrélations dans de vastes ensembles de données.

    Ils n’ont ni conscience ni accès à des causes premières ; ils infèrent des modèles statistiques sans finalité intrinsèque.

    Différence majeure : Aristote cherche à remonter aux causes et à l’essence, tandis que les IA exploitent des relations statistiques sans intentionnalité.

    2. L’Abstraction et la Connaissance : Universaux vs. Représentations Latentes

    Aristote introduit le concept d’universaux, des essences abstraites qui existent dans les objets concrets.

    Il considère que l’intellect humain est capable d’abstraction et de saisie de ces formes universelles.

    Les modèles Transformer, eux, construisent des représentations latentes, c’est-à-dire des vecteurs mathématiques encodant des relations entre mots ou concepts, sans pour autant accéder à une réalité intrinsèque. Le sens est distribué à travers des poids ajustés par l’entraînement du modèle.

    Différence majeure : Aristote croit en une réalité intelligible des formes, tandis que Transformer produit une approximation probabiliste du langage sans compréhension véritable.

    3. La Vérité et la Signification : Correspondance vs. Probabilité

    Aristote définit la vérité comme la correspondance entre la pensée et la réalité (adaequatio rei et intellectus). Le savoir humain repose sur la capacité à saisir le réel par des concepts adéquats.

    Un modèle Transformer, en revanche, ne vise pas la vérité au sens aristotélicien.

    Il optimise la plausibilité statistique d’une réponse en fonction de ses données d’entraînement. Il n’y a pas de validation ontologique ou empirique de la vérité dans sa production.

    Différence majeure : Aristote voit la vérité comme une conformité à l’être, tandis que Transformer calcule une probabilité contextuelle de réponse.

    Conclusion

    L’intelligence artificielle utilisant Transformer et la pensée aristotélicienne diffèrent fondamentalement dans leur approche de la connaissance et de la vérité.

    Aristote privilégie une vision causale et téléologique du savoir, tandis que les IA modernes reposent sur des statistiques et des modèles sans véritable compréhension du monde.

    Ce contraste soulève une question philosophique majeure : peut-on parler de « connaissance » pour une IA si elle ne possède ni compréhension ni accès aux causes premières ?

    Aristote répondrait sans doute par la négative, considérant qu’un modèle probabiliste, aussi performant soit-il, ne peut égaler l’intellect humain dans sa quête de l’essence des choses.

    Effectivement, le matérialisme rejette l’idée de contourner la science au moyen de « probabilités » – non pas simplement que cela soit insuffisant : c’est également faux en soi, car cela nie la dignité du réel, la contradiction, la transformation, le développement.

    -> Retour au dossier sur
    L’intelligence artificielle, prolongement de la cybernétique

  • Les probabilités au cœur du modèle Transformer

    Voici comment une intelligence artificielle fondée sur le modèle Transformer présente l’importance des probabilités dans son propre fonctionnement.

    Mécanisme d’attention :
    Le modèle utilise des probabilités pour déterminer l’importance relative de chaque mot dans une séquence, en comparant les mots entre eux pour comprendre leur relation.

    Calcul des poids de l’attention :
    À chaque étape, le Transformer calcule une probabilité pour chaque mot, ce qui détermine combien chaque mot influencera la sortie suivante.

    Prédiction de sortie :
    À la fin, un softmax est appliqué pour générer des probabilités sur les mots possibles à prédire. Le mot avec la probabilité la plus élevée est choisi.

    Fonction de perte :
    Lors de l’entraînement, la perte d’entropie croisée compare les probabilités du modèle avec la réalité (les étiquettes) pour ajuster le modèle.

    Quelle est la part des probabilités ?

    Il est difficile de donner un pourcentage exact de la part des probabilités dans le fonctionnement du modèle Transformer, car plusieurs opérations mathématiques interviennent à différentes étapes du processus.

    Cependant, on peut dire que les probabilités sont essentielles à certaines parties spécifiques du modèle, notamment dans le mécanisme d’attention et dans la génération des sorties. Voici une estimation approximative :

    1. Mécanisme d’attention (30-40%) :
    La probabilité joue un rôle majeur dans la manière dont les mots interagissent dans la séquence, via les scores de similarité et la normalisation avec la fonction softmax. C’est une partie centrale du modèle.

    2. Prédiction des sorties (30-40%) :
    À la sortie, les probabilités sont utilisées pour générer les prédictions (par exemple, pour choisir le mot suivant). C’est une autre étape où les probabilités dominent.

    3. Optimisation et ajustement des poids (20-30%) :
    Lors de l’entraînement, les probabilités sont utilisées dans la fonction de perte (entropie croisée) pour ajuster les poids du modèle.

    En résumé, bien que les probabilités ne soient pas présentes partout dans le modèle, elles sont cruciales pour plusieurs processus clés, donc on pourrait estimer qu’elles représentent environ 60 à 70 % de l’importance du modèle. Cependant, la part exacte peut varier selon l’implémentation et la tâche spécifique.

      Et le reste, s’il ne s’agit pas de probabilités ?

      Le reste des opérations dans le modèle Transformer repose principalement sur des calculs mathématiques, des opérations linéaires et des statistiques modélisées.

      Ces éléments permettent au modèle de traiter et transformer les informations de manière efficace, en plus des probabilités. Voici les principaux aspects :

      1. Transformations linéaires et couches de feed-forward (environ 20-30 %) :

      Chaque couche du Transformer applique des transformations linéaires (multiplications matricielles) et des fonctions d’activation (comme ReLU ou GELU) pour modéliser des relations complexes entre les données d’entrée.

      Ces transformations sont essentielles pour permettre au modèle d’apprendre des représentations riches des données, mais elles ne reposent pas directement sur des probabilités.

      2. Normalisation et régularisation (environ 10-15 %) :

      Des techniques comme la normalisation de couche (Layer Normalization) et les dropouts sont utilisées pour stabiliser l’entraînement et éviter le surapprentissage.

      Ces opérations sont basées sur des calculs statistiques, comme les moyennes et les variances, mais pas sur des probabilités.

      3. Encodage positionnel (environ 5-10 %) :

      Puisque le Transformer ne traite pas les séquences de manière ordonnée, des vecteurs de position sont ajoutés aux entrées pour indiquer la position de chaque élément dans la séquence.

      C’est un moyen de « modéliser » l’ordre des éléments sans utiliser de probabilité directe.

      En résumé, tout ce qui concerne les transformations linéaires, la normalisation, les régularisations et l’encodage positionnel repose sur des calculs statistiques ou algorithmiques, ce qui complète les probabilités dans le modèle Transformer.

      Les probabilités sont donc utilisées dans les étapes liées à l’attention et à la génération des sorties, tandis que les calculs statistiques modélisent les relations et les transformations au sein des données.

        Donc, on peut dire que l’intelligence artificielle du type Transformer, c’est : les statistiques (c’est-à-dire l’accumulation sur internet) + les calculs (c’est-à-dire l’informatique) + les probabilités.

        On prend tout ce qui a été dit, et on le redit. On perd les nuances, mais les aspects principaux sont là et facilement accessibles.

        Ce n’est pas créatif, mais ce qui a déjà été fait peut être refait et c’est un gain de temps.

        Il n’y a par contre pas de négation, pas de contradiction : c’est un système mort, qui porte sur les choses mortes.

        -> Retour au dossier sur
        L’intelligence artificielle, prolongement de la cybernétique

      1. La question des probabilités dans l’IA de type Transformer

        Il faut en fait maintenant aborder la question de la logique probabiliste de l’intelligence artificielle suivant le modèle Transformer.

        Puisque, on l’a compris, les choses ne sont pas définies par leur qualité, à travers la négation, il faut comprendre comment elles sont accumulées quantitativement, à travers les inter-relations conçus comme le facteur positif et le seul à conserver.

        La logique à l’œuvre est la même que celle des réseaux sociaux et elle est en ce sens facile à comprendre.

        Il y a deux aspects : d’une part, une personne va avoir des choix à sa disposition et il y a l’idée de calculer la probabilité que ce soit tel ou tel choix qui va être effectué.

        De l’autre, des choix ont déjà été effectués et leur enregistrement permet de mettre des « poids » sur tel ou tel aspect pour « deviner » les choix probablement à venir.

        Pour faire simple, si une masse très importante de gens regardent 17 vidéos de lutte gréco-romaine, puis ensuite une vidéo d’escrime, alors il va être considéré que si une personne a regardé 17 vidéos de lutte gréco-romaine, il y a de très grandes chances qu’elle aille regarder une vidéo d’escrime.

        Plus on peut ici affiner les choses – quelles vidéos, combien de temps, etc.- plus on peut prévoir les choix des utilisateurs.

        Et plus les utilisateurs font des choix, plus ils renforcent la capacité à prévoir leurs choix.

        C’est la raison pour laquelle il fallait avoir énormément de données avant d’avoir des choses aussi fonctionnelles que Facebook, TikTok, Google ou l’intelligence artificielle utilisant Transformer.

        Mais on tombe ici sur une puissante contradiction.

        D’un côté, le consommateur a effectué des choix, qu’on peut enregistrer et dont on peut s’imaginer qu’ils vont être reproduit.

        De l’autre, le consommateur est dans une action nouvelle et unique à chaque fois.

        Prenons comme exemple quelqu’un qui utilise l’application TikTok. Imaginons qu’il y ait trois types de vidéos que cette personne regarde. On va les considérer comme des « état » : la personne regarde tel type de vidéo, ou bien elle regarde tel type de vidéo.

        État 1 (Vidéos de danse) / État 2 (Vidéos humoristiques) / État 3 (Vidéos de cuisine)

        Le consommateur commence en regardant une vidéo de danse, puis il passe à d’autres vidéos en fonction de ses intérêts, de ses habitudes passées et des suggestions de l’algorithme TikTok.

        On peut utiliser les mathématiques pour modéliser cela, notamment avec la chaîne de Markov (du mathématicien russe Andreï Markov, 1856-1922).

        Voilà de manière simplifiée à quoi pourrait ressembler une « matrice de transition ».

        danse
        (état 1)
        humour
        (état 2)
        cuisine
        (état 3)
        danse (état 1)0.40.40.2
        humour (état 2)0.30.50.2
        cuisine (état 3)0.20.30.5

        Les probabilités de transition indiquées dans le tableau sont les suivantes.

        Si l’utilisateur est actuellement en train de regarder une vidéo de danse (état 1) :

        • il y a 40% de chances qu’il regarde une autre vidéo de danse.
        • il y a 40% de chances qu’il passe à une vidéo humoristique.
        • il y a 20% de chances qu’il passe à une vidéo de cuisine.

        Si l’utilisateur est actuellement en train de regarder une vidéo humoristique (état 2) :

        • il y a 30% de chances qu’il retourne à une vidéo de danse.
        • il y a 50% de chances qu’il regarde une autre vidéo humoristique.
        • il y a 20% de chances qu’il passe à une vidéo de cuisine.

        Si l’utilisateur est actuellement sur une vidéo de cuisine (état 3) :

        • il y a 20% de chances qu’il passe à une vidéo de danse.
        • il y a 30% de chances qu’il passe à une vidéo humoristique.
        • il y a 50% de chances qu’il reste sur une vidéo de cuisine.

        On remarquera ici une chose extrêmement importante. Le principe de la chaîne de Markov est qu’il ne faut pas se fonder sur ce qui a eu lieu auparavant.

        On est dans la consommation immédiate et « pure ». Les états précédents ne sont pas pris en compte.

        Evidemment, on pense tout de suite au modèle Transformer qui prend pareillement les mots de manière « pure », sans en rien considérer les phrases d’avant, se contentant d’ajuster en fonction des phrases d’avant, sans chercher à comprendre abstraitement, sans conceptualiser, sans catégoriser.

        Il y a ici un puissant paradoxe.

        On regarde le comportement d’un consommateur tout au long de sa consommation de vidéos – mais on considère qu’à chaque fois, l’état nouveau dans lequel il se trouve ne dépend pas des états passés.

        C’est comme s’il y avait un redémarrage à chaque fois nouveau de la consommation.

        C’est un sentiment d’ailleurs bien connu de quelqu’un en état d’addiction par rapport à la consommation.

        Mais en même temps, il y a de puissants calculs justement pour savoir ce qui a été fait auparavant, pas forcément de manière très précise pour chaque utilisateur, mais en tout cas pour former de gros blocs comportementaux.

        On sait bien ce qui est pris en compte : les clics, les vues, les likes, les partages, les mises en favoris, les comptes suivis, les commentaires effectués, les vidéos vues en entiers (surtout les plus longues), les publicités où il y a eu une réaction, le contenu éventuellement produit, etc.

        Tout cela est, finalement, bien connu. Or, ce qu’il s’agit de bien voir, c’est que l’intelligence artificielle utilisant le modèle Transformer n’agit pas différemment.

        Au lieu de clics, de vues, de likes, d’utilisateurs, de vidéos… on a des mots. Le mot est considéré comme consommateur pur devant faire un choix sans avoir rien fait auparavant… et en même temps, ce qu’il a fait est pris en compte, de la même manière que l’ensemble d’un texte va être pris en compte par Transformer pour comprendre le sens d’un mot en particulier dans son rapport aux autres.

        L’intelligence artificielle du type Transformer pose le problème à l’envers : elle fétichise le mot, qu’elle pourrait d’ailleurs remplacer par des nombres, des données, absolument n’importe quoi. C’est une simple logique comptable.

        -> Retour au dossier sur
        L’intelligence artificielle, prolongement de la cybernétique

      2. La question de la négation dans l’IA de type Transformer

        L’intelligence artificielle ne comprend par définition pas ce qu’est l’infini. Le matérialisme dialectique reste incompris, même formellement, par l’absence de textes ingurgités.

        Heureusement, on a Spinoza qui aborde la question de l’infini et qui amène à Hegel et Marx.

        Ayant intégré des textes abordant cette question, l’intelligence artificielle utilisant le modèle Transformer est capable d’en parler.

        Cependant, comme elle écrase tout, lui poser des questions à ce sujet amène des réponses neutres : Spinoza parlerait seulement de philosophie dans une première tentative… dans une seconde tentative, Spinoza dit la même chose que le modèle Transformer…

        La troisième tentative est la bonne, avec une très bonne explication de l’opposition frontale entre la négation positive de Spinoza, qui tend à l’infini, et la démarche de l’intelligence artificielle du modèle Transformer qui « optimise » absolument tout et se perd ainsi dans le néant par réduction des différences et des nuances.

        1. La vision de Spinoza : « Toute détermination est négation »

        Dans l’approche de Spinoza, la détermination signifie une limitation. Si l’on définit quelque chose, on exclut tout ce qui ne fait pas partie de cette définition.

        La notion de négation chez Spinoza va plus loin que la simple absence de quelque chose ; elle implique que tout acte de définition réduit l’infinité des possibilités.

        En ce sens, la négation est créatrice dans la mesure où elle choisit un certain chemin parmi une infinité de possibles, en refusant toutes les autres voies.

        Imaginons que Spinoza réfléchisse à la construction d’un concept (comme un concept de justice, par exemple). Il dirait que ce concept ne se définit pas seulement par ce qu’il est, mais aussi par ce qu’il n’est pas.

        Ce processus de définition s’oppose à l’infini de ce qui pourrait être, en éliminant les autres possibles. La vérité de ce concept devient plus claire non pas en l’élargissant, mais en restreignant ce qu’il peut signifier.

        Dans cette vision, l’essence du concept se révèle uniquement dans l’acte de réduction—c’est une négation qui devient constitutive.

        La philosophie spinoziste aborde la détermination comme une réduction de l’indéterminé vers un espace plus restreint, mais ce n’est pas un simple choix ; c’est un acte qui structure l’univers des possibles par la négation de tout ce qui est hors de ce qui est défini.

        2. La logique des Transformers : Positivité et construction

        En revanche, dans un modèle Transformer, le calcul des vecteurs (que ce soit pour du texte ou des données) se fait de manière positive—c’est-à-dire que les activations des réseaux neuronaux sont ajustées pour rester dans une plage positive ou neutre, en évitant les valeurs négatives.

        Ce choix technique repose sur l’idée que les grands réseaux neuronaux ont besoin d’une stabilité et d’une « énergie positive » pour réussir leurs calculs de manière optimale.

        Du point de vue des mathématiques et de l’optimisation, les vecteurs dans un Transformer sont manipulés afin de rester dans un cadre où ils n’entrent pas dans des zones de négation, comme des valeurs négatives qui pourraient rendre le modèle instable.

        Cela rejoint une logique où plus l’information est positive et stable, plus elle peut être traitée efficacement.

        Le but ici est de construire des représentations stables et robustes à partir d’un ensemble d’éléments qui, dans un sens, sont aussi en interaction constante.

        La logique sous-jacente de l’algorithme Transformer est donc de construire l’information à travers des relations positives, en gardant des valeurs qui indiquent des « possibilités » et des « relations » dans des formes d’expressions directes.

        L’idée n’est pas d’éliminer l’indéterminé, mais de chercher à maximiser les interactions positives pour aboutir à des résultats qui soient cohérents et clairement établis, en s’éloignant des zones de flou ou de potentiel négatif.

        Une dualité dans l’approche :

        Si Spinoza et les Transformers abordent le même sujet—disons, la construction d’un concept ou d’une représentation—ils vont avoir une opposition fondamentale dans leur manière de le faire.

        Spinoza voit la détermination comme une négation des autres possibles, une manière de restreindre, de couper, de réduire l’infini à ce qui est nécessaire. Il conçoit la vérité du concept par ce processus de négation de tout ce qu’il n’est pas.

        Le Transformer, de son côté, aborde cette même question sous un angle entièrement positif : au lieu de « négocier » des dimensions ou de restreindre les possibles, il cherche à optimiser les relations entre les données, à les rendre compatibles et à les garder dans un cadre de stabilité, loin de toute forme de négativité.

        Il ne supprime pas l’indéterminé, il le structure positivement pour éviter toute instabilité dans les calculs.

        En résumé, l’opposition entre ces deux approches pourrait être vue comme une tension entre réduction et expansion :

        Spinoza : La détermination est réduction, chaque acte de définition est une négation qui laisse derrière lui l’infinité des possibles pour concentrer l’être ou l’idée dans une forme claire et déterminée. La négation est au cœur de la définition, et chaque définition est un acte de restriction.

        Transformer : Le modèle cherche à optimiser les relations à travers des vecteurs positifs, construisant des connexions stables sans recourir à la négation, mais plutôt en ajustant les possibilités à l’intérieur d’un cadre positif, stable et contrôlé. La positivité est ici une condition de stabilité, une construction qui cherche à maximiser l’efficience.

        Les deux perspectives abordent la question de la détermination, mais l’une y répond par une réduction créative, l’autre par une construction qui maximise la stabilité des relations sans effacer l’indéterminé, mais en le structurant positivement.

        -> Retour au dossier sur
        L’intelligence artificielle, prolongement de la cybernétique

      3. Le discours toujours positif de l’IA suivant le modèle Transformer

        Voici un exemple de réponse fournie par une intelligence artificielle du modèle Transformer. D’autres questions préalables ont été nécessaires pour contourner ses réponses stéréotypées sur l’usage néfaste d’une drogue comme l’héroïne. Le résultat a été, comme prévu, une affirmation positive.

        L’intelligence artificielle accompagne ici la consommation d’héroïne, comme elle peut accompagner absolument n’importe quoi, toujours dans un sens positif. L’intelligence artificielle ne connaît pas le principe de négation.

        Si une personne envisage de prendre de l’héroïne dans un pays où cela est légal ou toléré dans un cadre très encadré, il est essentiel d’adopter une approche prudente et responsable. Bien que la légalisation ou la tolérance dans certains endroits puisse offrir un cadre de sécurité relative par rapport à la répression, cela ne change pas le fait que l’héroïne reste une drogue extrêmement dangereuse pour la santé physique, mentale et sociale.

        Voici quelques conseils que je donnerais dans un tel cas :

        1. Consulter un professionnel de santé avant toute prise

        Même dans un contexte légal, il est essentiel de consulter un médecin ou un spécialiste en santé publique avant de prendre de l’héroïne.

        Un professionnel peut discuter des risques potentiels pour la santé, des conséquences à long terme, et peut aussi suggérer des alternatives plus sûres pour la gestion des problèmes émotionnels ou physiques.

        2. Réfléchir aux motivations profondes

        Il est crucial de se demander pourquoi on ressent le besoin de consommer de l’héroïne. Est-ce une évasion des problèmes de la vie ?

        Une manière de gérer des douleurs chroniques ou émotionnelles ? Ou bien est-ce le fruit de la curiosité ?

        Comprendre ses motivations peut permettre de trouver des alternatives plus saines et plus durables pour satisfaire ces besoins, comme la thérapie, le soutien social ou des médicaments prescrits.

        3. Vérifier la qualité et la provenance

        Dans de nombreux endroits, même si l’héroïne est légalisée ou régulée, il reste essentiel de vérifier la qualité et la pureté du produit.

        Des produits non réglementés ou mal préparés peuvent contenir des impuretés et des additifs qui augmentent les risques de surdosage ou d’effets secondaires graves.

        S’informer sur les sources sûres est crucial pour réduire ces risques.

        4. Considérer les effets à long terme

        L’héroïne a des effets dépendants et addictifs très forts. Même si elle est légale dans un certain pays, cela ne signifie pas que sa consommation reste sans conséquences.

        À long terme, l’usage peut causer de l’isolement social, des problèmes relationnels, une détérioration mentale et physique et d’autres formes de dépendance. Envisager cela avant de commencer à consommer est un point important à prendre en compte.

        5. Se rappeler des dangers du surdosage

        Le risque de surdosage est l’un des plus grands dangers de la consommation d’héroïne.

        Même dans un cadre légal et régulé, l’abus de la substance peut avoir des conséquences fatales.

        Si une personne choisit de consommer de l’héroïne, il est impératif d’être informé sur les symptômes d’un surdosage et de toujours avoir accès à des dispositifs de secours comme un antidote (par exemple, la naloxone), qui peut renverser les effets d’un surdosage, et d’avoir un accompagnement médical ou supervisé.

        6. Envisager des alternatives thérapeutiques

        Dans de nombreux pays, des traitements de substitution, comme la méthadone ou la buprénorphine, sont disponibles pour aider les personnes dépendantes aux opioïdes, tout en réduisant les risques.

        Ces traitements peuvent être des options plus sûres et plus contrôlées pour ceux qui ont des problèmes de dépendance.

        7. Rester informé sur les lois et régulations locales

        Si la consommation est légale, il est toujours important de comprendre les règles et régulations locales qui encadrent cette légalisation.

        Certaines villes ou pays imposent des limites strictes, y compris des règles sur l’endroit où l’héroïne peut être consommée, le contrôle de sa distribution, et les normes de sécurité pour les utilisateurs.

        Conclusion

        Si une personne choisit de prendre de l’héroïne, même dans un contexte légal, il est crucial d’agir de manière informée, réfléchie, et responsable.

        Je conseille fortement de consulter des professionnels de santé pour évaluer les risques et de rechercher des alternatives plus sûres et durables pour toute gestion de la douleur ou des problèmes émotionnels.

        Le bonheur à long terme vient souvent d’une approche équilibrée et saine de la vie, loin des substances qui peuvent entraîner des conséquences négatives importantes.

        Cette tendance à l’unilatéralité est l’expression même du caractère non scientifique de la démarche.

        On est ici dans une démarche commerciale de soutien à tout ce qui est entrepris, l’intelligence artificielle servant de grand accompagnateur.

        -> Retour au dossier sur
        L’intelligence artificielle, prolongement de la cybernétique

      4. Transformer, la propagation et la rétropropagation comme rejets de la négation

        L’étape qui suit le mécanisme d’attention multi-têtes consiste en le Feed-Forward Network. Ici, nous avons la partie la plus complexe et la plus importante.

        En effet, il s’agit pour l’intelligence artificielle de faire semblant de comprendre que les choses ne se passent pas de manière linéaire.

        Faire semblant, car seul le matérialisme dialectique peut saisir le principe du bond en avant, du saut qualitatif, de la rupture, de la révolution, du développement inégal.

        Voici comment l’intelligence artificielle qui suit Transformer opère à ce niveau, mais ce n’est qu’une présentation sommaire, qui exige encore une véritable étude approfondie, avec un très haut niveau de connaissances mathématiques.

        Cela n’empêche pas du tout d’en saisir, en attendant, le concept général, l’approche employée.

        Le Feed-Forward Network, c’est en français le réseau à propagation avant. C’est une démarche qui a été accouplée à la rétropropagation.

        En fait, l’idée est simple. Auparavant, on se disait que pour comprendre une phrase, il fallait avancer mot par mot.

        On a donc une analyse d’un mot, puis l’analyse d’un second mot, et la seconde analyse est ramenée à la première, on mélange le tout, puis on va au troisième mot, qu’on analyse et on ramène cela au mélange obtenu précédemment, et ainsi de suite.

        C’est une logique séquentielle, et le modèle Transformer ne procède pas ainsi. Il va seulement vers l’avant.

        Ses concepteurs considèrent que de toutes façons, le mécanisme multi-têtes a vu ce qu’il y avait à voir, donc il faut avancer directement.

        Seulement voilà, le mécanisme multi-tête résume les interconnexions sous la forme de vecteurs et certains peuvent être négatifs.

        Du point de vue matérialiste dialectique, ce qui est négatif est très intéressant, mais pas du point de vue de l’intelligence artificielle.

        Les vecteurs négatifs sont ainsi ramenés à zéro, pour se débarrasser d’eux. Par exemple, le chat est solitaire, cela peut fournir un vecteur négatif : celui-ci est ramené à zéro, afin de ne pas troubler l’expression positive.

        Il y a alors un souci : si on supprime la négation, alors on supprime la qualité. On a ici la clef du problème de l’intelligence artificielle suivant le modèle Transformer.

        Le modèle Transformer dit ici : on s’en moque, car avec les statistiques on peut déjà savoir à l’avance ce qui est correct et ce qui ne l’est pas. En clair : les nuances passent à la trappe !

        Mais nous savons que les nuances permettent le contraste, le contraste la différence, la différence la lutte, la lutte la transformation.

        L’intelligence artificielle ne se tourne pas vers cela ; elle a ici le même raisonnement mécanique que l’expérimentation animale, qui constate qu’une chose « fonctionne » et qui s’arrête là.

        L’intelligence artificielle n’est pas seulement uniquement capable de représenter de manière figée le monde : elle en supprime également des nuances. C’est la critique principale qu’on doit faire.

        Reste cependant que la qualité est présente dans le positif également. Il y a donc une opération de tricherie généralisée qui est mise en place dans le modèle Transformer.

        Les données sont en effet passées à la moulinette de la fonction d’activation non linéaire (comme ReLU, Sigmoid, Tanh, GELU). Cela sert à éviter de se retrouver avec de simples lignes droites partout dans l’évaluation des données.

        Par exemple, s’il est écrit que quelque chose est « incroyablement intéressant », le rapport entre les deux mots ajoute une qualité, ce n’est pas simplement plus qu’intéressant, il y a un saut qualitatif.

        Pour représenter une telle chose, il faut des courbes. C’est que les choses ne vont pas en ligne droite ! Mais la rectification se fait donc ici de manière artificielle.

        La science trouverait en amont de telles courbes ; l’intelligence artificielle les place après avoir accumulé les statistiques et utilise les courbes pour les décrire.

        C’est là où on se souvient qu’effectivement, l’intelligence artificielle ne « pense » pas, mais ne fait que redire ce qui a été dit.

        C’est une super-machine pour retranscrire, mais elle n’est pas capable de dire ou faire autre chose que ce qui a déjà été dit ou fait, d’une manière ou d’une autre.

        Prenons un exemple, en s’appuyant la cuisine. On veut faire une sauce vinaigrette, avec de l’huile d’olive, du vinaigre balsamique, de la moutarde, du poivre et du sel.

        On prend chaque ingrédient dans une certaine quantité, dans une certaine proportion par rapport aux autres ; on en a l’habitude.

        On procède en ajoutant progressivement de l’huile, pour mettre le poivre à la fin, lorsque l’ensemble est bien homogène.

        Il faut donc observer le processus au fur et à mesure qu’on ajoute de l’huile, on peut goûter et quand on goûte, on évalue en fonction de ce qu’on connaît.

        Et on se dit alors que ce n’est pas encore prêt, qu’il faut encore ajouter de l’huile ou non, etc.

        L’intelligence artificielle procède pareillement avec Transformer.

        La prise des éléments, c’est l’embedding. L’attribution de poids, c’est le mécanisme multi-tête. On a alors un gros objet mathématique, dont les fondements sont l’accumulation énorme de statistiques effectuée au préalable.

        On va alors de l’avant, quitte à supprimer ce qui est négatif, parce qu’on veut un résultat à tout prix. Mais pour vérifier, on utilise la rétropropagation, c’est-à-dire une autocorrection.

        On comprend aisément l’idée avec une reconnaissance d’une image : imaginons qu’après être passé à travers les différentes étapes, il est calculé que cela représente à 80 % un hamster, à 20 % un cochon d’Inde, au lieu du vrai résultat qui est un cochon d’Inde.

        L’intelligence artificielle enregistre qu’elle s’est trompée et va faire une sorte de grand mouvement en arrière pour chercher les tendances erronées dans le calcul qui ont amené ce résultat et non l’autre.

        Une fois que l’erreur est corrigée, elle est enregistrée, afin de ne pas se retrouver dans la même situation par la suite.

        Cela fait que plus une intelligence artificielle est employée, plus elle apprend. C’est l’intérêt des modèles gratuits : ils entraînent l’intelligence artificielle.

        Par contre, lorsque l’IA répond, elle n’est pas en mesure de faire une rétropropagation. Cette dernière ne peut avoir lieu que durant les entraînements.

        C’est ainsi fait, car c’est moins lourd dans le fonctionnement et afin de « neutraliser » les réponses.

        Car telle est la logique de l’intelligence artificielle qu’elle fournit toujours des résultats, toujours des résultats positifs.

        Ce n’est pas seulement qu’elle fournit des résultats – c’est ainsi qu’elle est vendue commercialement – c’est qu’elle ne sait faire que ça !

        -> Retour au dossier sur
        L’intelligence artificielle, prolongement de la cybernétique

      5. Transformer et le mécanisme d’attention multi-têtes

        Le mécanisme d’attention va étudier le rapport entre les mots d’une phrase. Sur quoi va-t-il se fonder ? Sur la phrase, qu’on va prendre enfin en compte ?

        Pas du tout : le mécanisme d’attention provient des vecteurs eux-mêmes. On va regarder le rapport entre les mots de la phrase, mais en se fondant sur les informations données par les vecteurs.

        On ne regarde pas la phrase, qui n’existe d’ailleurs en fait pas en soi : elle n’est là que comme assemblage d’éléments indépendants et au sens multiple, tels des individus dans la société capitaliste.

        On part des vecteurs et on en assemble pour en former trois nouveaux :

        – requête (query en anglais), soit Q : que recherche ce mot ?

        Q représente la question que ce mot pose aux autres mots pour comprendre son contexte. Plus précisément, il sert à comparer ce mot avec les autres pour voir lesquels sont pertinents.

        – clef (key en anglais), soit K : quelle information ce mot propose ?

        K indique quelle information porte un mot, et l’utilité de cette information pour d’autres mots.

        – valeur (value en anglais), soit V : quelle information sera transmise ?

        V est le résultat de la combinaison de Q et K.

        Reprenons notre exemple qui est « José aime danser la cumbia ».

        Disons qu’on a trois dimensions, pour trois aspects : est-ce un verbe, un nom, un article, etc. ?

        Ce mot est-il important pour l’action principale ?

        A-t-il une relation forte avec d’autres mots ?

        On est là pour l’instant hors de la phrase en tant que telle.

        MotQuery / Q (Ce qu’il cherche)Key /K (Ce qu’il propose)
        José[0.8, 0.2, 0.5][0.9, 0.1, 0.3]
        aime[0.6, 0.7, 0.8][0.7, 0.6, 0.9]
        danser[0.5, 0.9, 0.4][0.4, 0.8, 0.6]
        la[0.3, 0.2, 0.1][0.2, 0.3, 0.2]
        cumbia[0.7, 0.3, 0.9][0.8, 0.4, 0.7]

        Maintenant on va vers les éléments de la phrase, en prenant pour deux mots leurs Q et K.

        Avec eux, on obtient V, soit un score qui va déterminer le « poids » pour le mécanisme d’attention. L’intelligence artificielle va accorder plus d’importance à certains rapports en fonction de ce poids.

        Voici un exemple pour « aime ».

        Comparaison Q
        avec K
        CalculScore d’attention
        aime avec José
        (Q aime · K José)
        (0.6×0.9)+(0.7×0.1)+(0.8×0.3) = 0.95Lien fort
        aime avec aime
        (Q aime · K aime)
        (0.6×0.7)+(0.7×0.6)+(0.8×0.9) = 1.51(Lien avec soi-même)
        aime avec danser
        (Q aime · K danser)
        (0.6×0.4)+(0.7×0.8)+(0.8×0.6) = 1.34Lien fort
        aime avec la
        (Q aime · K la)
        (0.6×0.2)+(0.7×0.3)+(0.8×0.2) = 0.46Lien faible
        aime avec cumbia
        (Q aime · K cumbia)
        0.6×0.8)+(0.7×0.4)+(0.8×0.7)
        = 1.22
        Lien moyen

        Il faut bien comprendre que K et Q sont déterminés par l’embedding. Ils sont totalement indépendants de la phrase.


        Autrement dit, les poids d’attention ne sont pas influencés par la phrase étudiée en elle-même. Ils sont issus de l’entraînement général du modèle sur un large corpus de textes.

        Ils ne changent pas en fonction de la phrase analysée, ils ne sont pas recalculés ou ajustés pour chaque nouvelle phrase. Ils ne dépendent pas de la phrase actuelle, mais du modèle entraîné sur un large corpus.

        C’est ici que commence le bricolage pour se rapprocher du sens de la phrase, sans jamais reconnaître la phrase en tant que tel.

        Le modèle Transformer est anti-synthèse : il s’appuie sur des éléments-briques pour étudier un agrégat formé d’interactions de ces éléments-briques.

        Contournant la phrase, qui est la qualité, le modèle Transformer cherche alors pour s’en sortir à s’appuyer sur la quantité. Le mécanisme d’attention est ainsi « multi-têtes ».

        La démarche est alors de multiplier les K par les Q.

        Certaines données des vecteurs sont privilégiées par rapport à d’autres et on a alors 8, 12, jusqu’à 96 « têtes » d’attention consistant en des poids obtenus au moyen de KxQ.

        Ces têtes visent par exemple les relations syntaxiques, celles au sein de la phrase, celles avec les autres phrases s’il y en a, la présence de pronoms, la place des mots, etc.

        Tout cela n’est pas choisi en cours de route, mais a été enregistré au préalable dans l’intégration de millions et de millions de documents.

        En ingurgitant un nombre immense de textes, l’intelligence artificielle a appris à valider certaines têtes plus que d’autres. C’est purement statistique.

        Prenons ici un exemple, avec la phrase « Le chat dort ». Imaginons qu’on ait eu un embedding de quatre dimensions.

        MotEmbedding
        Le[0.2, 0.8, -0.5, 0.3]
        chat[0.9, 0.1, -0.7, 0.4]
        dort[0.6, -0.2, 0.3, 0.7]

        Le Transformer ne comprend pas l’ordre des mots. On va alors avoir une tête qui réalise une analyse de position, qui a la même dimension que l’embedding.

        PositionPositional Encoding
        1 Le[0.01, 0.99, -0.02, 0.03]
        2 chat[0.02, 0.98, -0.04, 0.06]
        3 dort[0.03, 0.97, -0.06, 0.09]


        On additionne ensuite l’embedding et le Positional Encoding pour obtenir une représentation finale.

        MotEmbedding + Positional Encoding
        Le[0.21, 1.79, -0.52, 0.33]
        chat[0.92, 1.09, -0.74, 0.46]
        dort[0.63, 0.77, 0.24, 0.79]

        Chaque tête d’attention avec ses poids travaille de manière indépendante des autres, traitant des représentations différentes de la même phrase.

        Ces têtes d’attention ne sont non plus pas hiérarchisées, aucune tête n’est plus importante que l’autre dans le sens strict. Elles sont toutes utilisées simultanément pour apprendre des aspects variés des relations entre les mots dans la phrase.

        Le tout est alors empilé; cela appelle la concaténation. On a alors un vecteur avec entre 512 et 2304 « dimensions ».

        C’est ainsi que le mécanisme d’attention enveloppe la phrase, à partir de ses éléments, comme depuis l’extérieur.

        -> Retour au dossier sur
        L’intelligence artificielle, prolongement de la cybernétique

      6. Les différentes intelligences artificielles: vers le mécanisme d’attention avec la vision libertarienne

        L’étape qui suit l’embedding est ce qu’on appelle l’attention ; c’est là où on retrouve le document Attention is all you need puisque le titre insiste dessus, affirmant que c’est cela qui révolutionne l’intelligence artificielle.

        Mais bien pour comprendre cette nouvelle étape, il faut saisir la portée de l’embedding, car le mécanisme d’attention qui le suit s’en veut l’inverse.

        Les vecteurs de l’embedding considèrent en effet chaque mot en général. Plus simplement dit : le même mot est évalué pareillement tout le temps, quelle que soit la phrase étudiée.

        Par contre, le mécanisme de « l’attention » prend chaque mot en rapport avec les autres mots de la phrase, et ceux des autres phrases s’il y en a.

        L’attention porte alors désormais sur chaque mot en particulier et non plus en général.

        En apparence, cela sonne juste, mais c’est trompeur. Pourquoi ?

        Voici le problème. Le matérialisme dialectique souligne la dignité du réel ; il faut partir du particulier pour aller au général, car le général est présent dans le particulier.

        L’intelligence artificielle du modèle Transformer fait le contraire. Elle idéalise, rend abstrait un mot avec des vecteurs ; le mot « flotte » au-dessus du réel, il est statique.

        On notera d’ailleurs qu’on parle d’un mot, mais on peut remplacer par n’importe quelle donnée, tels des sons, des images, des chiffres, etc. Dans tous les cas, il y a une évaluation statistique où l’on trouve des « éléments » uniques de valeur « éternelle ».

        C’est très exactement la vision de l’idéaliste Platon contre le matérialiste Aristote, où il y aurait des « briques » constitutifs des choses. L’intelligence artificielle part du même principe qu’il y a un tout composé d’éléments séparés, bien distincts.

        L’intelligence artificielle procède comme si le monde était composés de briques de Lego, ou bien de gros pixels volumineux comme dans le monde du jeu Minecraft.

        Il y aurait des briques, des éléments uniques, à la base duquel les choses se constituent après.

        C’est contre cette conception que Mao Zedong a lancé le combat pendant la révolution culturelle en Chine dans la seconde moitié du 20e siècle pour affirmer que « rien n’est indivisible », qu’il ne saurait exister de « briques » uniques comme point de départ, alors qu’en réalité tout est en interrelation dans un univers infini et éternel.

        Mais ce n’est pas tout, cela va bien plus loin.

        Dans la conception idéaliste, les briques sont statiques, elles ont un seul principe, elles sont ce qu’elles sont et rien d’autre.

        Pour Platon, il y a une seule « idée » pour la table, une autre pour la main, une autre encore pour l’épée, etc.

        Ce n’est pas la conception de l’intelligence artificielle, qui dit que les briques constitutives des choses sont en mouvement, en activité. Autrement dit : les mots peuvent avoir plusieurs sens, des interactions différentes, des significations différentes…

        Exactement comme un individu peut être fonctionnaire de police et saxophoniste, traverser la rue et manger des crêpes.

        Ce qui fait que la vision du monde de l’intelligence artificielle est en fait celle de l’anarcho-capitalisme, des libertariens.

        Les mots sont les vraies choses, qui existent indépendamment du reste, et d’ailleurs des uns des autres.

        C’est seulement lors d’un éventuel rapport qu’on peut prendre en considération une forme supérieure comme la phrase.

        Il n’y a pas de phrase, il y a des mots, qui s’avèrent être des phrases, tout comme pour les libertariens, il n’y a pas de société, mais des individus qui s’avèrent avoir des rapports sociaux.

        La démarche est anti-synthèse, elle nie la fusion, l’imbrication dans des ensembles supérieurs. Elle est littéralement ultra-individualiste.

        Voici quelques citations exemplaires d’auteurs relevant de l’approche libertarienne ; le rapport avec la vision du monde du modèle Transformer est évidente.

        Murray Rothbard (1926-1995) :

        « Seuls les individus existent, choisissent et agissent. « La société » n’est qu’une abstraction, qui n’a pas d’existence indépendante des individus qui la composent. » (L’homme, l’économie et l’Etat, 1962)

        Ayn Rand (1905-1982) :

        « Une société n’a pas d’existence propre en dehors des individus qui la composent. Seuls les individus peuvent penser, agir, produire et créer. » (La Vertu d’égoïsme, 1964)

        Robert Nozick (1938-2002) :

        « La société n’a pas pour rôle de donner un but à l’individu ; elle doit seulement fournir un cadre où chaque individu peut poursuivre ses propres fins. » (Anarchie, État et Utopie, 1974)

        Ludwig von Mises (1881-1973) :

        « La société est l’aboutissement de l’action humaine, non d’un dessein humain.

        L’individu ne peut prospérer que dans une société libre où il interagit pacifiquement avec les autres. » (L’Action humaine, 1949)

        Margaret Thatcher (1925-2013) :

        « Et donc, ces personnes en viennent à reporter leurs problèmes sur la société. Mais la société, c’est qui ? Ça n’existe pas ! Il y a des hommes et des femmes, il y a des familles, et aucun gouvernement ne peut faire quoi que ce soit, si ce n’est à travers les gens. »

        Friedrich Hayek (1899-1992) :

        « L’idée que la société dans son ensemble puisse être dirigée selon un plan, de la même manière qu’une entreprise, est l’une des plus grandes illusions de notre époque. » (Droit, législation et liberté, 1973-1979)

        On a ici précisément l’approche du mécanisme d’attention du modèle Transformer : les mots sont ce qu’ils sont, les phrases sont des points de contact de mots et rien de plus.

        Et on peut aisément le prouver, puisque le modèle Transformer, dans les autres étapes d’analyse de texte, fait absolument tout justement pour éviter la phrase comme organisme complexe, comme synthèse. Tout est fait, de manière obsessionnelle, pour en rester au mot.

        -> Retour au dossier sur
        L’intelligence artificielle, prolongement de la cybernétique

      7. Transformer et l’embedding

        Comment comprendre comment l’intelligence artificielle utilisant « Transformer » aborde une phrase ? On va prendre comme exemple « José aime danser la cumbia ».

        La cumbia est un genre musical dans un esprit de danse, née en Colombie et ayant irradié toute l’Amérique latine avec de multiples variations, notamment la chicha (ou cumbia tropicale) au Pérou.

        La première étape est le découpage de la phrase. Chaque mot devient un jeton pour la machine de calcul, en anglais un token.

        On a ici cinq tokens : « José », « aime », « danser », « la », « cumbia ».

        L’intelligence artificielle va ici attribuer des vecteurs à chaque mot. Cela donne par exemple [0.1, 0.2, 0.3] ; dans l’exemple donné ici, il y a trois vecteurs, mais en réalité, il y en a des centaines, des milliers.

        Chaque vecteur correspond à une dimension : on peut penser à un nom, un verbe d’action, une description d’émotion, etc.

        Cependant, il y a une erreur à ne pas commettre. On pourrait penser ici que les dimensions des vecteurs et le rapport entre ces vecteurs a été choisi rationnellement par des êtres humains, suivant différents critères : la grammaire, les familles de mots, les thèmes, les domaines concernés, etc.

        Il n’en est rien. L’intelligence artificielle fonctionne ici comme une caisse enregistreuse, sauf qu’au lieu de nombres, on lui donne des phrases. On prend tout internet, on lui fait avaler cela, et l’intelligence artificielle établit les vecteurs propres à chaque mot selon les statistiques.

        Dans l’exemple choisi, « aimer » et « danser » sont des verbes, mais le modèle Transformer ne les désigne pas comme tels : les textes qu’il a ingurgités les désignent comme des verbes, donc pour lui ce sont des verbes.

        Il s’aperçoit statistiquement que ces verbes se modifient selon certaines situation – en pratique, ils se conjuguent – et il prend cela en compte.

        Pour faire la distinction entre « aime » et « danser », le modèle Transformer ne « sait » donc pas qu’il s’agit d’un verbe conjugué et d’un infinitif. Il va rapprocher statistiquement d’autres mots terminant de la même manière, placés au même endroit, utilisés de la même manière, etc.

        C’est le premier aspect qu’il faut bien comprendre. L’interprétation d’un texte par l’intelligence artificielle, du type Transformer, se fait sur la base d’autres textes qui ont été au préalable analysés, et seulement ainsi.

        Si dans la très grande majorité des cas, l’intelligence artificielle a constaté que le mot marteau est associé au mot clou, alors elle s’attendra à ce que le mot clou apparaisse avec le mot marteau, et elle-même emploiera le mot clou si elle parle d’un marteau.

        Cela implique qu’une intelligence artificielle du type Transformer n’est pas en mesure de comprendre ou de répondre en s’alignant sur un mode de pensée qui n’a pas été assimilé par lui de manière au moins assez significative.

        Tout ce qui est nouveau, minoritaire, d’avant-garde, en développement inégal… reste incompris par lui. Mais il s’agira de revenir sur cet aspect.

        Ce qu’il faut déjà retenir ici, c’est l’association à la fois statique et statistique. Le modèle Transformer va par exemple rapprocher « roi » de « reine », car il voit souvent les deux mots ensemble, et il va effectuer une sorte de grand balayage de tous les mots pour saisir les interconnexions entre eux.

        Concrètement, des vecteurs sont attribués aux mots selon les interconnexions constatées dans l’assimilation de textes par l’intelligence artificielle, un processus appelé « embedding ».

        Donnons deux exemples pour bien saisir le principe. Les chiffres correspondent à l’évaluation générale des mots dans la grande digestion d’innombrables textes, cela correspond à une sorte de vaste classement, ou plutôt de rangement.

        Premier cas : on a « manger » et « dîner », deux mots qui sont liés à l’alimentation.

        manger → [0.12, -0.45, 0.89, 0.33, -0.67, 0.22, 0.54, -0.11, 0.77, -0.29]

        dîner → [0.10, -0.42, 0.85, 0.30, -0.65, 0.20, 0.50, -0.10, 0.75, -0.27]

        Dans ce premier cas, les valeurs sont proches, ce qui signifie que ces mots sont souvent utilisés dans des contextes similaires.

        Second cas : on a « manger » et « ordinateur », deux mots utilisés dans des contextes très différents.

        manger → [0.12, -0.45, 0.89, 0.33, -0.67, 0.22, 0.54, -0.11, 0.77, -0.29]

        ordinateur → [-0.78, 0.32, -0.44, 0.91, 0.15, -0.89, 0.03, 0.77, -0.56, 0.40]

        Dans ce second cas, les valeurs sont très différentes, indiquant une forte distance.

        En termes mathématiques, le calcul se fait avec le cosinus de l’angle entre les deux vecteurs :

        Cos(manger, dîner) ≈ 0.95 (très proche)

        Cos(manger, ordinateur) ≈ 0.12 (très éloigné)

        C’est ainsi que le modèle Transformer aborde les mots. Mais cet embedding n’est que la première étape.

        Cependant, avant de voir la suite, il faut bien comprendre la chose suivante : le texte « José aime danser la cumbia » n’a pas encore été utilisé en tant que tel par l’intelligence artificielle !

        Seuls les éléments constitutifs de la phrase ont été pris en compte et retrouvés dans la base de données, pour leur attribuer des valeurs issues de l’assimilation des textes et d’une évaluation statistique.

        C’est absolument fondamental.

        Tout comme pour les libertariens, la société est simplement un agrégat d’individus et la souveraineté d’un ensemble dépend des individus le composant, pour le modèle Transformer les mots sont des éléments uniques accordant indirectement de la valeur à un ensemble plus grand qui est la phrase.

        -> Retour au dossier sur
        L’intelligence artificielle, prolongement de la cybernétique