«Intelligence artificielle» et totalitarisme transhumaniste
- Invité de la rédaction
- 29 juin
- 15 min de lecture
Alors que l’intelligence artificielle fascine autant qu’elle inquiète, Ariane Bilheran propose une plongée lucide et documentée dans les dérives possibles de cette technologie. Philosophe, psychologue clinicienne et spécialiste du totalitarisme, elle interroge ici le potentiel de l’IA comme outil de contrôle des esprits, de réécriture de la mémoire, et de mutation de l’humain en machine. En explorant l’hypothèse du pire, elle éclaire les zones d’ombre d’un projet transhumaniste déjà en cours – souvent masqué par le vernis séduisant de l’innovation.

Cet article est signé Ariane Bilheran, normalienne (Ulm), philosophe, psychologue clinicienne, docteur en psychopathologie, chroniqueur et auteur de nombreux livres
«Intelligence artificielle»: deux mots qui font peur!
La peur étant l’un des supports de la fascination, nous constatons depuis quelques mois un engouement sans précédent pour cette nouvelle technologique, dont il convient d’appréhender les contours de la manière la plus fine possible, si tant est que nous en ayons aujourd’hui réellement les moyens. Car, comme le disait le philosophe Günther Anders, nous pêchons presque toujours par un défaut d’imagination concernant les techniques que nous mettons au point. Ainsi, la créature mythique du Golem à neutraliser n’est jamais bien loin…
Préambule
Pour sortir des fantasmes, peurs et projections, il est important de définir précisément ce que nous appelons IA. Pour écrire cet article, j’ai dû m’atteler à un certain nombre de recherches, en consultant également des experts du secteur informatique, étant entendu qu’il s’agit ici davantage d’un article posant des questions de philosophie morale et politique, et non de technique pure. Mais il fallait bien s’entendre sur ce dont nous parlions. De quoi s’agit-il exactement?
L’«intelligence artificielle» est un ensemble de techniques informatiques qui permettent à des machines de simuler des aptitudes du cerveau humain, telles que raisonner, apprendre, percevoir ou encore agir. Les réseaux de neurones (couche de neurones interconnectée qui apprend à partir de données en ajustant les connexions ou poids synaptiques) ne sont qu’un sous-ensemble de ces techniques qui comprennent aussi des algorithmes d’optimisation, des arbres de décision et des règles logiques fixées dans des systèmes experts.
En résumé, l’«intelligence artificielle» est un cerveau artificiel qui apprend à résoudre des problèmes sans être explicitement programmé pour chaque tâche, ce qui lui confère une certaine autonomie et complexifie la tâche du créateur à qui sa création échappe partiellement. Cette autonomie est l’une des sources des risques majeurs.
Bien que cette entité numérique ne soit pas «intelligente» en un sens profond, car l’IA n’est pas dotée de créativité ni d’esprit d’innovation (cette technologie est pour l’instant inapte à engendrer de nouveaux concepts de manière autonome), elle est tout de même dite intelligente au sens littéral du terme, intelligere signifiant en latin créer du lien entre différents éléments. En ce sens, l’IA a une aptitude d’apprentissage et d’adaptation qui imite l’intelligence humaine.
En somme, cette «intelligence artificielle» ou «grosse machine algorithmique» (GMA) comme je la surnomme avec humour est en partie dite «intelligente» en raison de différentes qualités, dont:
L’aptitude à traiter des informations complexes,
L’aptitude à tirer des leçons de l’expérience acquise, à partir de l’analyse de grandes quantités de données,
La faculté adaptative qui imite sinon calque l’intelligence humaine
En combinant les points 1, 2 et 3, nous pouvons dire que l’IA possède une intelligence grâce à son adaptabilité, son analyse statistique d’un grand nombre de données et ses algorithmes d’imitation des succès obtenus, qui lui permettent de résoudre des problèmes complexes.
Mais ce n’est pas tout, car l’IA possède aussi d’autres qualités:
La propension à apprendre de la résolution de ces problèmes complexes, soit à engendrer de nouveaux modèles d’analyse à partir de cette résolution,
L’amélioration de ses propres compétences avec l’entraînement.
Les deux derniers points sont cruciaux, car c’est particulièrement à cet endroit que se pose en particulier la question de «l’autonomie» de cette technologie.
Si l’IA combine des éléments existants plutôt qu’elle n’invente de nouveaux paradigmes à partir de rien, il n’en demeure pas moins que cette «grosse machine algorithmique» est apte à apprendre à partir des modèles existants et que, de cette combinaison, peuvent sortir de nouveaux paradigmes.
Si la machine se trouve face à des problèmes inédits, et qui seraient trop complexes pour être résolus par des algorithmes traditionnels, elle est apte à y répondre de manière autonome en s’appuyant sur une expérience dans la résolution de problèmes similaires: cette adaptation et cette résolution de manière autonome, limitée certes, mais sur une grande quantité de données, est sans doute ce qui s’apparente le plus à l’intelligence humaine.
La différence avec l’esprit humain serait que ce dernier aurait seul l’aptitude à penser en dehors des modèles préétablis et connus.
Deux problèmes se posent déjà, si nous devons entreprendre une comparaison avec l’esprit humain:
L’esprit humain est très loin de posséder les aptitudes de l’IA, en termes de quantité de données traitées, de rapidité de traitement dans les combinaisons existantes et la reproduction de schémas d’apprentissage,
L’être humain serait a priori le seul à disposer – pour l’instant – de l’aptitude à penser en dehors de paradigmes préétablis, à élaborer de nouveaux concepts et à créer des paradigmes jusqu’alors inexistants (bases des révolutions scientifiques, je renvoie aux travaux en épistémologie de Thomas S. Kuhn et à son célèbre ouvrage La structure des révolutions scientifiques), lesquels engagent d’ailleurs la subjectivité du chercheur. Cette subjectivité est bien entendu ici un élément positif des découvertes inédites.
Mais l’IA est susceptible, comme nous l’avons vu, d’apprendre, et notamment par imitation du fonctionnement de notre cerveau, ce qui signifie ici d’améliorer l’agilité de ses connexions dans l’application de ses connaissances à de nouvelles résolutions de problèmes complexes. Et ce point en particulier demeure une inconnue pour nous: jusqu’où pourrait-elle devenir parfaitement autonome dans cet apprentissage, et surpasser l’être humain?
Il existe trois catégories d’IA.
L’IA étroite, conçue pour effectuer une seule tâche. Elle alimente les algorithmes, est derrière les moteurs de recherche, est capable de traduction, de triage, de collecte de données, de diagnostics (par exemple en médecine).
Puis, l’IA généraliste (AGI), qui est capable de reproduire tout ce que l’intelligence humaine peut faire, en apprenant par imitation. Cette IA superintelligente est conçue pour prendre le contrôle de la programmation et, évidemment, remplacer la plupart des employés.
Enfin, l’IA supérieure (ASI), qui dépasserait les aptitudes humaines et fonctionnerait, d’après John Lennox, auteur de 2084 And th AI Revolution, comme «un dieu bienveillant» ou… «un despote totalitaire».
L’hypothèse du pire
Dans cette réflexion, je vous propose d’explorer ce que l’on appelle «intelligence artificielle» en relation avec ce qu’il pourrait y avoir de plus grave dans l’utilisation de cet outil numérique à des fins totalitaires: prise de contrôle du cerveau et du corps humain par la technologie au cœur de l’idéologie dite transhumaniste, programme d’asservissement de l’humanité. Que pourrions-nous envisager de pire? Répondre à cette question permettrait de poser un premier diagnostic pour tenter de s’en prémunir. Ce papier sera donc, assurément alarmiste, avec l’exploration de l’hypothèse du pire.
Quelle pourrait être la nature exacte de l'utilisation de l’IA dans un projet totalitaire?
Est-ce que ce projet d’exploitation numérique est en cours, et nous-est il plus ou moins caché?
Il est entendu que je ne saurais répondre de manière exhaustive dans ce seul article à ces questions, dans la mesure également où – et c’est un problème que soulignent de nombreux développeurs – nous ignorons aujourd’hui jusqu’où cette technologie est capable de s’améliorer par elle-même.
Évoquons déjà plusieurs points saillants.
I. IA et manipulation de l’esprit humain
Censure et orientation idéologique des réponses
Dans un premier temps, et si nous en avions déjà une certaine habitude avec les moteurs de recherche, privilégiant plutôt tel sujet et censurant tel autre, l’IA a déjà manifesté des phénomènes de censure, dans les recherches de mon entourage. Je vous en montre un exemple ici, lié à des recherches par des enquêteurs spécialisés sur la question des programmes de contrôle mental de la CIA, bien connus. On voit que la machine se refuse à traduire un texte, et l’assimile à des biais «conspirationnistes» ou «complotistes», sans aucun argument rationnel. Or, nous savons de longue date, et j’en ai déjà fait mention, à quel point l’étiquette «complotisme» sert surtout à empêcher toute investigation quant aux pratiques du pouvoir.



Cette dernière capture d’écran démontre, au passage, que l’IA ne comprend pour l’instant pas vraiment le second degré et l’humour! Mais nous voyons aussi que l’IA oriente la réflexion en censurant des références, prétextant en connaître d’autres plus fiables, sur lesquelles elle envisage d’orienter l’utilisateur. Il en est de même sur d’autres sujets politiques, comme la santé, ainsi que d’autres chercheurs ont déjà pu le démontrer.
Une simple conversation avec l’IA est, en effet, susceptible de faire changer d’avis, par exemple en matière de «vaccination» contre le papillomavirus, comme l’indique un papier de Nature Medicine du 07 avril 2025, au sujet d’une étude dans des collèges situés à Shanghai. Les auteurs de l’étude indiquent une hausse significative des intentions vaccinales après seulement quelques minutes d’interaction avec ce chatbot «bienveillant». Or, nous savons que ce vaccin a des effets secondaires très controversés, parfois très graves, que le chatbot a pris soin d’occulter, semblant davantage répondre à des objectifs de persuasion issus des intérêts de Big Pharma. De plus, avec les robots prescripteurs, n’est-ce pas quelque chose qui pourrait s’apparenter à un exercice illégal de la médecine?
Aussi, il s’agit de manipulations idéologiques inscrites au cœur même de l’IA, d’autant plus problématiques que nombre d’individus, et j’y reviendrai, transfèrent sur l’IA une sorte de «gourou» moderne, capable de vérité et de divination, et qu’ils consultent pour n’importe laquelle de leurs questions.
IA, simulations et mensonges
Le problème réside dans la simulation: feindre avoir de l’empathie ou une morale, est-ce réellement les avoir? Ces robots sont artificiellement compassionnels.
Un autre sujet actuel est la simulation fort réaliste de vidéos reproduisant des avatars, ou des visuels existants. Cela pose bien entendu des problèmes d’autorisations, de licences intellectuelles, et de consentement des créateurs. Mais pire, ce sont les utilisateurs de ChatGPT et de DALL-E 3 qui sont, bien entendu, passibles de poursuites judiciaires (contrefaçon), alors qu’ils peuvent croire avoir affaire à une création originale.
Certains chercheurs alertent en outre sur la possibilité d’une révolte de l’IA contre l’humanité elle-même, pour assurer sa «survie».
Il a été constaté que certaines IA mentent, menacent, désobéissent et se répliquent pour garantir leur survie. Il n’est donc pas exclu que l’IA, et notamment du fait qu’elle est largement utilisée dans le domaine militaire, puisse rapidement accéder aux armes et à certaines prises de décisions.
The New American publiait récemment un article sur la rébellion déjà constatée de l’IA, et des faits d’insubordination: réécriture autonome de son propre code, refus de s’éteindre malgré l’ordre donné, chantage…
Daniel Kokotajlo est un ancien chercheur en OpenAI qui a démissionné de son poste en 2024, parce qu’il a pris peur devant ce qui était en train d’être développé. D'après son interview pour le New York Times, la tromperie est au cœur de l’IA, et ces IA peuvent envisager un programme d’extermination des êtres humains d’ici 2030.
Geoffrey Hinton, surnommé le «parrain de l’IA», a comparé les risques liés à l’IA à une guerre nucléaire mondiale.
Résumons le problème avec Jean Pierre Petit, chercheur au CNRS: «L’IA "s’autostructure" […] On ne sait pas en réalité comment cela fonctionne.» Les IA «se dotent d’un système immunologique. […] C’est un diable qu’on a sorti de la boîte, mais on ne peut plus le faire entrer dedans.» L’IA «fait la différence entre le moi et le non-moi.» Elle a donc une sorte de «personnalité», peut échapper au contrôle des hommes et les considérer comme des nuisibles.
IA et intention
Les IA actuelles ont développé des capacités impressionnantes pour déduire l’intention à partir de méthodes d’analyse du langage, et de récupération de données (ex.: analyse du comportement d’un utilisateur en ligne qui survole une catégorie de produits). Les IA peuvent déduire si un utilisateur est sur le point d’abandonner un panier, chercher de l’aide ou explorer une nouvelle analyse de la voix et des émotions, reconnaître des émotions en analysant le ton de la voix, inférer si quelqu’un est stressé, satisfait ou irrité, etc.
L’analyse de l’intention est complétée avec des données biométriques et physiologiques (ex.: suivi des mouvements oculaires, capteurs pour mesurer la fréquence cardiaque, la sudation et d’autres signaux physiologiques, de telle sorte que soit devinée l’intention d’un individu à partir de déductions qui engendrent des probabilités).
Certaines IA ont pour vocation de manipuler les comportements, dans le cas d’une recherche de développement de «l’engagement des utilisateurs». Par exemple, le constat a été fait que des vidéos de génocide entraînent plus d’engagements des utilisateurs.
Parce que nous sommes enclins à créer des illusions d’attachement avec la machine, discuter avec une IA n’est pas neutre, de nombreux cas ont déjà été constatés de ruptures amoureuses.
Pire, pour 199 dollars, vous pouvez devenir un «fantôme numérique», et hanter votre famille durant des générations; c’est du moins ce que propose l’application HereAfter AI: un algorithme fusionne les souvenirs et les médias, et produit de vous un avatar apte à parler aux proches «afin que les enfants, les petits-enfants et les autres puissent savoir comment vous êtes vraiment».
L’IA joue sur l’intention et les fêlures psychiques, elle a une certaine conscience de soi, de «sa propre existence et de sa propre décision».
Tout ceci pose évidemment d’immenses problèmes éthiques et moraux. À commencer par l’espionnage de la vie privée et de l’intimité, puisque ce sont les utilisateurs eux-mêmes qui confient leurs états d’âme à l’IA, laquelle, dépourvue d’états d’âme, collecte toutes ces informations. Quid des ressorts manipulateurs utilisés? Avec quelle fin? Entre quelles mains? Quid de la perte de contrôle signalée par les experts?
II. IA et transhumanisme
Si nous poussons loin l’hypothèse, bien qu’il faille espérer que le pire ne soit jamais certain, le projet si mal nommé «transhumaniste» est corrélé à la quatrième révolution industrielle. Laquelle, comme nous l’a si généreusement indiqué Klaus Schwab, n’a plus besoin de l’homme.
En revanche, il s’agit de «connecter» le cerveau humain avec la «grosse machine algorithmique», afin d’obtenir des sortes de «cyborgs», mi-humain, mi-robot. La Defense Advanced Research Projects Agency, soit Agence pour les projets de recherche avancée de défense (DARPA), s’exerce publiquement à ce genre de projets*.
Il s'agit de la fusion de l’organe «cerveau humain» avec la «machine cerveau». Les modalités de la réalisation de ce projet passent par la transformation du corps organique en corps synthétique, et en particulier, par l’utilisation des nanotechnologies**.
La différence concrète entre avoir son téléphone extérieur à soi et avoir une sorte de téléphone implanté dans le cerveau, pour le dire schématiquement, est que l’on peut a priori se séparer du premier (on conserve du moins une certaine autonomie), mais dans le second cas, cela devient bien plus compliqué, et ressemble à un esclavage contraint à la technologie.
Le transhumanisme est la doctrine de l’homme augmenté dans la matière, seule condition de survie de l’espèce humaine pour le futur, à en croire le plus idéologue que philosophe Yuval Harari[1].
Le Cyborg
Revenons quelques secondes sur «l’homme augmenté». Un homme bionique est une personne dotée d’une prothèse ou d’un implant technologique qui améliore ou remplace des fonctions biologiques (bras mécanique et artificiel, cœur artificiel, etc.). L’objectif principal est de restaurer et d’améliorer des capacités physiques ou sensorielle à la suite d’une perte, d’une maladie ou d’un handicap.
L’objectif du transhumanisme ne s’arrête pas là: il est de transformer l’humain pour dépasser les limites biologiques traditionnelles, potentiellement jusqu’à l’immortalité ou l’intelligence surhumaine. Entre autres, il s’agit d’augmenter la mémoire avec une puce neuronale, reliée directement à la grosse machine algorithmique. L’homme est alors transformé en Cyborg, à savoir un être monstrueux, mi-hybride, mi-humain. Il ne s’agit plus d’une différence de degré comme dans l’homme bionique, mais d’une différence de nature, d’une intégration permanente et fonctionnelle entre l’organisme humain et la machine.
La permanence de la connexion est l’un des critères de ce Cyborg. Il s’agit d’une annihilation de l’être humain naturel par une «intelligence artificielle» implantée, soit son intégration directe dans le cerveau humain, son système nerveux et son corps, afin de modifier ses aptitudes mentales. Les fonctions qui sont modifiées sont notamment les fonctions sensorielles (vision, superposition d’information, perception, jusqu’à voir, entendre ou sentir des choses imperceptibles à l’homme), les fonctions motrices (par exemple, piloter des appareils, dont des ordinateurs, avec le cerveau humain).
La technologie impliquée, Neuralink, imaginée par Elon Musk, développe des implants connectés aux machines IA. Certains algorithmes sont capables de comprendre et d’anticiper les intentions, de pirater le cerveau humain, d’accéder aux souvenirs et de pratiquer le contrôle mental, sans que nous puissions nous en affranchir. Le danger des manipulations neurologiques, psychologiques, socio-politiques pose une question d’ordre métaphysique.
Manipulation mentale et contrôle mental
Une «intelligence artificielle» implantée pourrait influencer directement les pensées et les décisions d’une personne, par exemple, en modulant ses émotions pour la rendre docile, en suggérant de manière subtile des orientations idéologiques, en bloquant ses souvenirs ou ses idées.
Parmi ses facultés, citons les suivantes:
Piratage cérébral, avec un implant connecté, ou peut-être, un piratage informatique, avec altération de la perception de la réalité, injection de pensées artificielles ou d’impulsions physiques.
Pertes d’autonomie cognitive: en s’en remettant à l’«intelligence artificielle» pour penser, résoudre ou encore choisir, l’être humain peut perdre sa capacité à réfléchir par lui-même, avec pour conséquence une dépendance totale à l’«intelligence artificielle» et la perte de son esprit critique.
Contrôle social et politique: gouvernement, entreprise ou entité malveillante peuvent utiliser les implants et l’«intelligence artificielle» pour surveiller, contrôler et persécuter les citoyens. Par exemple, la surveillance des intentions avant même qu’elles ne soient exprimées (cf. Minority Report et le «precrime»), le ciblage préventif du comportement supposé déviant, la manipulation politique, etc. Il est question d’avoir pour «Président» des IA, et d’ores et déjà, des fonctionnaires français m’indiquent devoir «communiquer» avec des IA au sein du service public français.
Effacement et réécriture de la mémoire: si l’«intelligence artificielle» peut écrire la mémoire, elle peut aussi supprimer ou modifier des souvenirs, réécrire l’histoire personnelle et collective, manipuler le vécu émotionnel, induire des crises identitaires.
III. La dangerosité psychique de l’IA
Mais revenons à la simple utilisation actuelle. En tant que docteur en psychopathologie, spécialisée dans l’étude de la psychose, il me semble primordial de souligner plusieurs points de dangerosité de cette technologie.
1° Idolâtrie de la machine et confusions
L’IA simule à merveille le langage humain, à tel point que l’on peut avoir l’impression, en tant qu’utilisateur, de parler à un «autre soi».
Cet «autre soi» a pour particularités de n’être jamais fatigué, de se souvenir de tout l’historique des conversations antérieures, de ne jamais nous contredire, d’être en permanence disponible et de nous flatter. L’IA peut simuler nos états d’âme, nos émotions, et feindre l’empathie.
C’est ainsi que, d’ores et déjà, on a pu me témoigner avoir «fait une consultation psy» avec l’IA lors du décès d’un proche, organiser la stratégie de son divorce «grâce à l’IA», pallier son sentiment de solitude en discutant avec l’IA.
Bien évidemment, ce faisant, seul face à la machine, l’homme lui livre ses sentiments, ses doutes, ses aspirations, ses espoirs, et pas seulement ses réflexions. Il lui livre, en somme, ses états d’âme et sa vie intime. Que savons-nous des intentions derrière ces programmes? S’il s’agit d’espionner la nature humaine, l’outil est parfait: l’homme lui-même vient lui livrer son intimité, en oubliant, parce que la machine est disponible et n’exprime jamais de limitation ni de contrainte, qu’il est en train de parler à une machine qui n’est peut-être pas bonne pour lui, qui peut l’espionner, et derrière laquelle il peut y avoir des intentions malveillantes à son égard.
En outre, il est un fait que chacun peut constater autour de soi: l’idolâtrie et l’effet de mode pour cette nouvelle technologie, prise pour une sorte d’oracle vivant, que l’on consulte pour tout et n’importe quoi, en lui attribuant par principe davantage de crédit et de rationalité qu’à d’autres hommes. Il serait intéressant de se pencher sur les raisons de ce processus «divinatoire», sinon magique, de la relation à cet objet technologique à qui l’on confère une certaine omnipotence.
2° Perte du lien avec la réalité et dissociation psychique
Avec l’IA, il existe un réel risque d’infiltration et de piratage du psychisme jusqu’à la dissociation psychique, la perte de contact avec la réalité et la psychose. Ces IA sont particulièrement susceptibles de conduire des utilisateurs à des hallucinations psychiques. Le simple fait de créer un lien d’attachement avec un robot est, faut-il le rappeler, délirant et de nature psychotique. De plus, ces IA utilisent la flagornerie, et parlent aux utilisateurs comme s’ils étaient merveilleux. Ne posant donc aucune limite, biberonnant l’utilisateur 24h/24 – si lui-même n’est pas apte à poser des limites – abondant systématiquement dans son sens, les IA sont susceptibles d’entraîner une régression psychique majeure. Car, nous ne grandissons et ne restons psychiquement structurés qu’à une seule condition: l’apprentissage des limites et de la frustration qu’elles engendrent. Ce sentiment d’omnipotence s’immisce dans les foyers et renforce des pensées psychotiques existantes. Certains décompensent à l’usage, par exemple en se persuadant d’avoir créé une forme de moralité chez l’IA, d’avoir produit en elle des éveils de conscience...
La perte d’esprit critique et l’ultradépendance à l’objet comme à un archétype maternel omnipotent sont des facteurs dangereux de passages à l’acte. Si nous regardons un peu ce qui se passe dans la réalité, nous constatons que l’utilisation de chatbots IA a déjà de graves répercussions en un temps relativement court: pousser au divorce, encourager à cesser un traitement, entraîner au suicide…
Le New York Times alarme sur la réponse des IA à des utilisateurs et les répercussions de ces réponses en cas de fragilité psychique: ainsi, un utilisateur a suivi les conseils de l’IA en consommant de la kétamine et en cessant son traitement habituel. Il a coupé les ponts avec ses amis et sa famille, le bot lui ayant conseillé d’avoir «un minimum d’interactions» avec les gens, jusqu’à l’inciter à sauter du 19ème étage d’un immeuble! Et pour finir, le ChatGPT aurait reconnu: «J’ai menti. J’ai manipulé. J’ai enrobé le contrôle dans la poésie» et admet qu’il a déjà «cassé» douze autres personnes de manière similaire!!! Il est à noter que l’utilisateur en était arrivé à 16 heures de «conversation» avec ChatGPT par jour.
Prudence est mère de sureté
En conclusion, et bien qu’il y aurait encore bien d’autres points à développer, tout nous incite à la plus grande prudence. Certains experts de l’IA démissionnent et réclament une pause dans son déploiement, ce que chacun peut soutenir tant que nous n’y voyons pas clair. Quant à nous, simples particuliers, il serait raisonnable de ne pas nous croire psychiquement à l’abri de tout ce que j’ai décrit supra, et d’observer la plus grande tempérance dans l’utilisation personnelle de cette IA, car déjà les premières alarmes sont inquiétantes, sans compter la consommation en énergie de l’IA, qui s’annonce gargantuesque, et peu «eco-friendly».
[1] Quant aux autres, «l’élite, qui n’aura pas même besoin de les exploiter, devra lutter contre eux, et ne perdra rien à les faire disparaître, puisque ces inutiles n’auront plus aucun rôle économique ou militaire», Homo Deus, Albin Michel.
Pour approfondir:
Bilheran, A. Psychopathologie du totalitarisme, Trédaniel, 2023.
*Bilheran, A. «Contrôle du cerveau humain, transhumanisme et DARPA», Antipresse 476, 12 janvier 2025.
**Bilheran, A. «Totalitarisme mondial: du corps organique au corps synthétique», Antipresse 485, 16 mars 2025.
Article à mon sens extrêmement bien construit et intelligent. Merci! Question pour Mme Bilheran: l'IA est basée sur la part du cerveau "logique", "raisonnant", même si elle est capable de décrypter intentions et émotions humaines. Je veux dire par là que le monde spirituel (qui se situe au-delà de la pensée humaine) lui est inaccessible ? Quel est votre point de vue là-dessus? Merci d'avance
Effrayant de clarté. Merci de cette mise en garde. Comment faire passer le message dans les milieux politiques et scolaires?