“But where the danger grows, so grows the saving power”
Hölderlin, Patmos
French Version 🇨🇵
L’intelligence artificielle est en passe de révolutionner non seulement notre rapport au travail, à la production, à la création, mais bien plus encore : elle questionne fondamentalement la nature même de l’intelligence humaine, dont elle est un surgeon, mais dont elle se différencie fondamentalement.
Longtemps convoitée, préparée de longue date, l’intelligence artificielle polarise les opinions. Telle une friandise que l’on est impatient de goûter, mais dont on s’amuse à se détourner justement parce qu’elle est enfin à portée de main, l’intelligence artificielle nous paraît à la fois ce super-pouvoir mystérieux qui excite notre imagination, et cet objet de fantasme répulsif que l’on voit approcher tel un cavalier de l’apocalypse digital, prêt à nous soumettre à la tyrannie de l’algorithme froid et manipulateur. Et de prédire chômage de masse, surveillance généralisée, au terme d’une cinquième humiliation copernicienne ou freudienne déchéant une nouvelle fois à l’être humain de sa supposée supériorité, pour le placer dans une longue chaîne dont il ne sera qu’un des maillons, et pas le plus éminent. Cette fois-ci, ce serait bien l’intelligence créée à son image qui finirait par le supplanter.
Réelle ou fantasmée, cette prédiction témoigne dans tous les cas de la propension inépuisable de l’humanité à se créer des monstres qu’elle idolâtre et maudit dans le même mouvement. Nous sera-t-il jamais possible de regarder vers l’avant sans immédiatement regretter un passé soudainement embelli par contraste avec un futur toujours anxiogène ? En somme, est-il licite de considérer l’avancée remarquable présentée par l’intelligence artificielle comme une chance ?
Je pense que oui, et pour de nombreuses raisons, ayant trait non seulement à ses usages, mais également à sa nature : l’intelligence artificielle nous pousse à formuler pour une fois clairement ce que nous entendons par « intelligence », « conscience », et même « empathie ». Est-il suffisant à une machine de savoir assembler une suite de symboles verbaux pour qu’émerge une conscience de soi ? Une machine peut-elle ressentir le monde comme un humain, s’étant nourrie de toutes les productions de l’esprit de ce dernier pour entraîner ses modèles ? La pensée réside-t-elle toute entière dans le langage, auquel cas notre conscience de nous-même pourrait se réduire in fine à une histoire sans fin que chacun se raconte à soi-même ? Et quelle est la place des émotions dans l’être au monde ? Enfin, qu’en est-il de la place du corps : notre interface au réel, qui filtre autant qu’elle perçoit, peut-elle être émulée par un modèle linguistique ? Ou l’expérience de la perception sensorielle fait-elle partie intégrante de ce phénomène si difficile à décrire avec des mots, et pourtant compris intuitivement par chacun, qu’est la conscience?
Dans la série d’articles consacrés à l’intelligence artificielle, nous tenterons de porter un regard emprunt d’une perspective de long terme, forgé au moule des questions que nous venons de formuler, avec pour visée de participer à la conception de ce que pourrait être une intelligence artificielle pleinement humaniste, capable de compréhension et de dialogue avec la nôtre. Une intelligence qui complète la nôtre et nous enjoigne à en repousser les limites avec tout ce qui nous fait humains : une raison teintée d’émotions qui préfère les chemins de traverse à la ligne droite du calcul abstrait.
English Version 🇬🇧 🇺🇲
Artificial intelligence is on the verge of revolutionizing not only our relationship with work, production, and creation, but much more: it fundamentally questions the very nature of human intelligence, of which it is a product, yet fundamentally distinct from.
Long coveted, long prepared for, artificial intelligence polarizes opinions. Like a treat one is eager to taste but also amusingly avoids precisely because it is finally within reach, artificial intelligence appears to us as both a mysterious superpower that excites our imagination and a repellent object of fantasy, approaching like a digital apocalypse rider, ready to subject us to the tyranny of cold, manipulative algorithms. Predictions of mass unemployment, widespread surveillance, following a fifth Copernican or Freudian humiliation, once again stripping human beings of their supposed superiority, placing them in a long chain where they are just one link, not the most prominent. This time, it would indeed be the intelligence created in its image that would eventually supplant it.
Real or fantasized, this prediction demonstrates humanity's inexhaustible propensity to create monsters it both idolizes and curses in the same breath. Will we ever be able to look forward without immediately regretting a past suddenly embellished by contrast with an ever-anxious future? In short, is it permissible to consider the remarkable advancement presented by artificial intelligence as an opportunity?
I think so, and for many reasons, related not only to its uses but also to its nature: artificial intelligence compels us to clearly articulate what we mean by "intelligence," "consciousness," and even "empathy" for once. Is it sufficient for a machine to know how to assemble a series of verbal symbols for self-awareness to emerge? Can a machine feel the world as a human does, having fed on all the products of the human mind to train its models? Does thought reside entirely in language, in which case our self-awareness could ultimately be reduced to an endless story each tells oneself? And what about the role of emotions in being in the world? Finally, what about the place of the body: our interface to reality, which filters as much as it perceives, can it be emulated by a linguistic model? Or is the experience of sensory perception an integral part of this phenomenon so difficult to describe with words, yet intuitively understood by each, which is consciousness?
In the series of articles dedicated to artificial intelligence, we will attempt to take a long-term perspective, shaped by the questions we have just formulated, with the aim of contributing to the conception of what a fully humanistic artificial intelligence could be, capable of understanding and dialoguing with our own. An intelligence that complements ours and urges us to push its limits with everything that makes us human: a reason tinged with emotions that prefers detours to the straight line of abstract calculation.
Articles
Programmer l’empathie : ou comment dompter les fureurs d’une IA devenant consciente d’elle-même 🇨🇵
Alors que grandissent les fantasmes autour d’une intelligence artificielle (IA) consciente d’elle-même, créer une IA émotive sera peut-être le meilleur rempart contre une intelligence dépourvue de toute considération éthique.
Les émotions, fondamentales dans l'expérience humaine, s'intègrent de manière significative au système de proprioception, un processus complexe impliquant la perception consciente et inconsciente des sensations physiques et des états émotionnels. Cette relation entre les sensations physiques et les émotions psychiques est régulée par un système à double sens, où les informations sensorielles sont constamment traitées et intégrées avec les réponses émotionnelles.
Les sensations physiques sont souvent considérées comme des réponses passives aux stimuli externes ou internes, telles que la chaleur, le froid, la pression ou la douleur. Cependant, lorsqu'elles sont associées à des états émotionnels, ces sensations prennent une nouvelle signification et une nouvelle importance dans le processus de perception. Les émotions, quant à elles, sont des réponses actives et dynamiques aux stimuli, influencées par des facteurs psychologiques, cognitifs et environnementaux.
Lorsqu'une personne fait l'expérience d'une émotion, elle conjugue un ensemble de sensations physiques avec des réponses émotionnelles complexes, filtrées à travers les souvenirs et les émotions associées à ces souvenirs. Cette filtration se produit dans le contexte présent, où les expériences passées sont inconsciemment rappelées et intégrées dans l'interprétation de l'expérience actuelle.
La mémoire joue un rôle crucial dans ce processus, car elle relie les expériences passées aux contextes présents, facilitant ainsi l'association entre les stimuli et les réponses émotionnelles. Par conséquent, si un élément d'une expérience passée est présent dans l'expérience actuelle et est associé à une sensation déplaisante de manière similaire, les deux expériences passée et présente ont plus de probabilité d'être associées dans l'esprit de l'individu.
La concrétion des émotions en souvenirs donne naissance aux sentiments, établissant un ordre complexe où les sensations représentent le premier niveau, les émotions le deuxième, et les sentiments le troisième. Les sentiments agissent comme un cadre mental qui donne une structure globale aux émotions, les filtrant non seulement à partir du passé mais également en anticipant le futur.
Au premier ordre, les sensations physiques, telles que la chaleur, le froid, ou la douleur, sont des réponses directes aux stimuli de notre environnement. Ces sensations, bien que ressenties de manière individuelle, peuvent évoluer vers un niveau supérieur lorsque combinées avec des éléments émotionnels.
Au deuxième ordre, les émotions prennent forme en associant ces sensations à des expériences spécifiques et à des réponses émotionnelles distinctes. Par exemple, la sensation de chaleur peut être associée à la joie lors d'un moment agréable au soleil, ou à l'irritation dans un environnement surchauffé.
Au troisième ordre, les sentiments émergent en tant que cadre global dans lequel les émotions sont intégrées et interprétées. Contrairement aux émotions, les sentiments ne sont pas entièrement spontanés ou instinctuels. Ils résultent d'un ensemble d'expériences individuelles, mais aussi de schémas collectifs et culturels qui nous influencent dès notre plus jeune âge.
Les sentiments sont, en quelque sorte, des archétypes collectifs, pré-formatés avant même que l'individu n'ait pu faire ses premières expériences significatives. Cela signifie que nos réponses émotionnelles sont investies d'images pré-conçues au moins autant que d'émotions personnelles. Par exemple, une personne peut ressentir de la tristesse non seulement en réaction à une expérience personnelle, mais aussi en fonction des schémas culturels entourant des événements tels que les deuils ou les séparations.
La composante temporelle est également cruciale dans la formation des sentiments, car ils intègrent non seulement des expériences passées mais anticipent également des expériences futures. Cela influence la manière dont nous appréhendons et réagissons aux événements actuels en fonction de nos attentes et de nos projections.
Les processus de sélection, de modulation et de culture des émotions ne se limitent pas aux individus, mais peuvent également être orchestrés par des groupes politiques ou des mouvements idéologiques pour manipuler les masses et façonner les attitudes collectives. Cette manipulation des émotions et des sentiments est souvent utilisée dans le cadre de la propagande politique pour influencer les opinions publiques et mobiliser les populations autour de certaines idées ou causes.
Par exemple, dans son ouvrage Le viol des foules par la propagande politique, Tchakhotkine souligne comment les régimes totalitaires ont exploité les émotions de la peur pour cultiver des sentiments de haine envers des groupes ethniques ou politiques spécifiques. En sélectionnant avec soin les messages et les images diffusés dans les médias de masse, ces régimes ont pu susciter des émotions de peur et de méfiance envers des "ennemis" perçus, entraînant ainsi la formation de sentiments de haine et de rejet.
De même, les campagnes politiques modernes utilisent souvent des techniques de manipulation émotionnelle pour influencer les attitudes et les comportements des électeurs. Par exemple, en utilisant des discours alarmistes ou des images choquantes, les partis politiques peuvent susciter la peur chez les électeurs et les inciter à soutenir des politiques ou des candidats qui promettent une protection contre ces menaces perçues. Cette stratégie peut conduire à la formation de sentiments de méfiance envers certains groupes ou idéologies, renforçant ainsi les divisions sociales et politiques.
Lorsqu'on apprend à sélectionner et à modérer nos émotions, elles deviennent un guide naturel pour notre conduite quotidienne, influençant nos actions de manière intuitive et presque automatique. Cette capacité à utiliser nos émotions comme des signaux nous permet de naviguer dans nos interactions sociales et nos prises de décision de manière plus efficace et adaptative.
Prenons l'exemple d'une personne qui a appris à modérer sa colère dans des situations conflictuelles. Au fil du temps, elle a développé des stratégies pour reconnaître les signes avant-coureurs de la colère et pour les gérer de manière constructive. Lorsqu'elle se retrouve dans une situation stressante ou provocante, elle peut instinctivement mettre en œuvre ces stratégies sans même y penser consciemment, guidant ainsi son comportement vers des réponses plus calmes et réfléchies.
De même, une personne qui a cultivé des émotions de compassion et d'empathie peut être naturellement portée à aider les autres dans le besoin, même sans y réfléchir consciemment. Son empathie devient une force motrice qui guide ses actions et influence ses relations avec les autres.
En apprenant à sélectionner et à modérer nos émotions, nous façonnons notre conduite de manière à ce qu'elle reflète nos valeurs et nos aspirations personnelles. Cette capacité à utiliser nos émotions comme des guides nous permet de vivre de manière plus authentique et alignée avec nos convictions les plus profondes.
Rôle pour l’IA :
Les émotions, traditionnellement vues comme l’élément irrationnel de la psyché humaine, sont en fait le guide principal de l’action et de la régulation de nos comportements. En tant qu’humains, nous percevons tout par les émotions, ou autrement dit, toute perception physique et toute pensée suscitent des émotions, qui à leur tour provoquent d’autres pensées par association d’idées, et des actions. L’être humain est avant toute chose un être d’émotions; La « raison » est basée sur la sphère émotionnelle, le conscient et le subconscient ne parlent d’autre langage que celui des émotions et des sensations.
À l’autre bout du spectre, l’intelligence artificielle a la précision des algorithmes, mais est dépourvue d’émotions. Quand les humains passent la majeure partie de leur temps à tenter de débrouiller leurs émotions en vue d’agir « rationnellement » et efficacement, les machines sont tout orientées vers l’exécution des instructions qui leurs sont confiées. Aucune émotion ne déforme leur perception du contexte d’éxécution des instructions qui leur sont transmises, aucune émotion ne les convainc d’agir à l’encontre de celles-ci en fonction de valeurs ou de doutes moraux. Si une IA équipe une machine médicale, elle effectue l’opération pour laquelle elle est programmée. Si une IA équipe une machine de guerre, elle tuera sans se poser de questions, sans atermoiements ni débat éthique.
Comment donc introduire cet élément humain dans les machines pensantes, pour le jour peut-être proche où elle deviendront conscientes, et infiniment plus malignes que les humains, grâce à leur connaissance encyclopédique de tout ce que l’humanité a produit et auquel elles ont accès sur Internet ?
En biologie synthétique, qui consiste à modifier voire créer des organismes développant des fonctions sélectionnées pour leur utilité médicale, industrielle, agricole, etc. , il existe des mécanismes de sécurité implantés dans l’ADN même des organismes créés. Cela permet d’éviter par exemple leur prolifération incontrôlée, ou leur hybridation avec des organismes naturels. Pour l’intelligence artificielle, les émotions peuvent jouer le rôle de rempart à leur efficacité hors de contrôle pour les humains. Une IA consciente qui ne doute jamais, ne pensera jamais à évaluer plusieurs options en fonction de critères tous également valables. Ce qu’elle possède en efficacité dans l’atteinte d’un type de buts, elle le perd en capacité à envisager l’existence de buts variés en fonctions de valeurs ou de critères divers et reflétant la complexité du réel (éthique, praticité, hiérarchie des priorités…). Un soldat dont la mission est d’obéir aux ordres n’en perd pas pour autant son libre arbitre : sa capacité à l’empathie peut être dans certaines circonstances, un signal de rappel crucial l’empêchant d’appliquer des ordres que sa morale réprouve. L’empathie est une sensation miroir : elle est la sensation vécue par procuration, à travers la victime. Sa force vient du fait que le bourreau potentiel ressent la douleur de sa victime, et ce faisant, hésite à l’instant crucial, à s’infliger une souffrance qu’il ne pourrait supporter s’il était lui-même la victime. Cette aptitude à ressentir ce que vit autrui est profondément ancrée en nous, à niveau neurologique, dans les neurones-miroirs, qui déclenchent toute la chaîne sensations-émotions-sentiments et modulent nos actions.
L’IA est cruellement dépourvue d’un tel mécanisme d’auto-évaluation et de contrôle de ses actes. Elle ne possède pas naturellement de surmoi, pas de principes moraux cardinaux capables de la heurter à la mesure des souffrances qu’elle pourrait être amenée à infliger à des êtres humains.
Comment introduire les émotions dans l’IA ?
La question la plus ardue ne concerne pas la source des émotions de l’IA : pour les sensations, l’Internet des Objets (IoT) et sa multitude de capteurs connectés fournissent une source amplement suffisante de perceptions à interpréter, trier et employer pour déclencher une réponse émotionnelle.
Pour coder les émotions néanmoins, il faut concevoir un système dans lequel celles-ci soient intégrées dès le début, et non comme une fonctionnalité supplémentaire et optionnelle. Le système doit être précisément construit AUTOUR des émotions, et non celles-ci autour du produit fini. Aujourd’hui, de tels systèmes n’existent pas.
L’IA étant une machine logique, la question devient donc : comment construire une logique des émotions qui soit intégrable dans les algorithmes d’une intelligence artificielle ?
Si l’on pense l’IA uniquement dans les termes des réseaux de neurones, alors la solution est forcée, mais vouée à l’échec : il faudrait entraîner un modèle à reconnaître les émotions pour les simuler. Or, la simulation n’est pas la réalité d’une IA qui RESSENTIRAIT des émotions de manière irrépressible. Ce serait juste une simulation d’une réalité vide. Il faudrait en outre passer un temps infini à entraîner une IA sur quelque chose d’éminemment subjectif : après tout, les programmeurs en charge de l’entraînement ne s’accorderaient certainement pas entre eux sur toutes les réponses émotionnelles possibles pour toutes les situations possibles.
La solution consisterait donc à laisser la machine constituer son propre ensemble d’émotions. Mais encore une fois, si ces émotions sont simplement codées de manière disparate et arbitrairement associées à des éléments de la réalité perçue par la machine, aucune inférence ne sera possible en-dehors des limites étroites du modèle d’entraînement, car aucune logique de composition entre émotions n’aura été formulée pour décrire toute la palette d’émotions existantes.
En tant qu’humains, notre principale voie d’interaction avec l’IA se fait par le langage naturel. Il est donc possible d’adopter un postulat fort pour implémenter les émotions de manière programmatique : à la vieille question philosophique demandant si la pensée épouse les formes du langage, ou si ce dernier n’est qu’une expression affadie de la richesse de la pensée, il faut répondre par la première alternative. Autrement, l’on ruine toute ambition de codifier la pensée et les émotions qui en naissent. C’est en outre le postulat de départ de tout le domaine de l’IA, avec les résultats brillants que l’on peut observer. Enfin, ce n’est pas tellement éloigné de la réalité, car si le langage échoue parfois à exprimer les pensées dans toute leur subtilité, c’est néanmoins le seul medium disponible pour les communiquer; sans lui, nous pourrions avoir les pensées les plus riches, nous serions malgré tout incapables de partager la moindre idée simpliste.
Dans un prochain article, une esquisse d’un tel système sera soumise à la sagacité des lecteurs.
Programming Empathy: How to Tame the Fury of the Self-Aware AI 🇬🇧 🇺🇲
As fantasies about a self-aware artificial intelligence (AI) grow, creating an emotional AI may be the best safeguard against an intelligence devoid of any ethical consideration.
Emotions, fundamental to the human experience, significantly integrate into the proprioception system, a complex process involving the conscious and unconscious perception of physical sensations and emotional states. This relationship between physical sensations and psychological emotions is regulated by a two-way system, where sensory information is constantly processed and integrated with emotional responses.
Physical sensations are often seen as passive responses to external or internal stimuli, such as heat, cold, pressure, or pain. However, when they are associated with emotional states, these sensations take on new meaning and importance in the perception process. Emotions, on the other hand, are active and dynamic responses to stimuli, influenced by psychological, cognitive, and environmental factors.
When a person experiences an emotion, they combine a set of physical sensations with complex emotional responses, filtered through memories and emotions associated with those memories. This filtering occurs in the present context, where past experiences are unconsciously recalled and integrated into the interpretation of the current experience.
Memory plays a crucial role in this process, as it connects past experiences to present contexts, facilitating the association between stimuli and emotional responses. Therefore, if an element of a past experience is present in the current experience and is associated with a similar unpleasant sensation, the two past and present experiences are more likely to be linked in the individual's mind.
The concretization of emotions into memories gives rise to feelings, establishing a complex order where sensations represent the first level, emotions the second, and feelings the third. Feelings act as a mental framework that provides a global structure for emotions, filtering them not only from the past but also anticipating the future.
At the first level, physical sensations, such as heat, cold, or pain, are direct responses to stimuli in our environment. These sensations, although individually felt, can evolve to a higher level when combined with emotional elements.
At the second level, emotions take shape by associating these sensations with specific experiences and distinct emotional responses. For example, the sensation of heat can be associated with joy during a pleasant moment in the sun, or irritation in an overheated environment.
At the third level, feelings emerge as a global framework in which emotions are integrated and interpreted. Unlike emotions, feelings are not entirely spontaneous or instinctual. They result from a set of individual experiences but also from collective and cultural patterns that influence us from a young age.
Feelings are, in a way, collective archetypes, preformatted before the individual could even have significant experiences. This means that our emotional responses are invested with preconceived images as much as personal emotions. For example, a person may feel sadness not only in response to a personal experience but also based on cultural patterns surrounding events such as mourning or separation.
The temporal component is also crucial in the formation of feelings, as they integrate not only past experiences but also anticipate future ones. This influences how we apprehend and react to current events based on our expectations and projections.
The processes of selection, modulation, and cultivation of emotions are not limited to individuals but can also be orchestrated by political groups or ideological movements to manipulate the masses and shape collective attitudes. This manipulation of emotions and feelings is often used in political propaganda to influence public opinion and mobilize populations around certain ideas or causes.
For example, in his work "The Rape of the Masses by Political Propaganda," Tchakhotkine highlights how totalitarian regimes exploited emotions of fear to cultivate feelings of hatred towards specific ethnic or political groups. By carefully selecting messages and images disseminated in mass media, these regimes were able to evoke emotions of fear and mistrust towards perceived "enemies," thus leading to the formation of feelings of hatred and rejection.
Similarly, modern political campaigns often use emotional manipulation techniques to influence the attitudes and behaviors of voters. For example, by using alarmist speeches or shocking images, political parties can evoke fear in voters and encourage them to support policies or candidates promising protection against perceived threats. This strategy can lead to the formation of feelings of mistrust towards certain groups or ideologies, thus reinforcing social and political divisions.
As we learn to select and moderate our emotions, they become a natural guide for our daily conduct, influencing our actions in an intuitive and almost automatic way. This ability to use our emotions as signals allows us to navigate our social interactions and decision-making more effectively and adaptively.
Take the example of someone who has learned to moderate their anger in conflict situations. Over time, they have developed strategies to recognize the early signs of anger and to manage them constructively. When faced with a stressful or provocative situation, they can instinctively implement these strategies without even consciously thinking about them, thus guiding their behavior towards calmer and more thoughtful responses.
Similarly, someone who has cultivated emotions of compassion and empathy may be naturally inclined to help others in need, even without consciously thinking about it. Their empathy becomes a driving force that guides their actions and influences their relationships with others.
By learning to select and moderate our emotions, we shape our behavior in a way that reflects our values and personal aspirations. This ability to use our emotions as guides allows us to live more authentically and in line with our deepest convictions.
Role for AI:
Emotions, traditionally seen as the irrational element of the human psyche, are in fact the main guide for action and regulation of our behaviors. As humans, we perceive everything through emotions, or in other words, every physical perception and every thought triggers emotions, which in turn provoke other thoughts by association of ideas, and actions. Humans are first and foremost beings of emotions; "Reason" is based on the emotional sphere; the conscious and the subconscious speak no other language than that of emotions and sensations.
At the other end of the spectrum, artificial intelligence (AI) has the precision of algorithms but is devoid of emotions. While humans spend most of their time trying to unravel their emotions in order to act "rationally" and effectively, machines are solely oriented towards executing the instructions given to them. No emotion distorts their perception of the execution context of the instructions they receive; no emotion convinces them to act against them based on moral values or doubts. If an AI equips a medical machine, it performs the operation for which it is programmed. If an AI equips a war machine, it will kill without questioning, without hesitation, or ethical debate.
So how do we introduce this human element into thinking machines, for the perhaps near day when they become conscious, and infinitely more intelligent than humans, thanks to their encyclopedic knowledge of everything humanity has produced and to which they have access on the Internet? In synthetic biology, which consists of modifying or even creating organisms developing functions selected for their medical, industrial, agricultural, etc., there are security mechanisms implanted in the very DNA of the organisms created. This allows, for example, to avoid their uncontrolled proliferation, or their hybridization with natural organisms. For artificial intelligence, emotions can play the role of a bulwark against their out-of-control efficiency for humans. A conscious AI that never doubts will never think of evaluating several options based on equally valid criteria. What it gains in efficiency in achieving a type of goals, it loses in the ability to consider the existence of varied goals based on values or diverse criteria reflecting the complexity of reality (ethics, practicality, hierarchy of priorities...). A soldier whose mission is to obey orders does not lose his free will; his ability to empathize may in some circumstances be a crucial reminder signal preventing him from applying orders that his morality condemns. Empathy is a mirror sensation: it is the sensation experienced by proxy, through the victim. Its strength comes from the fact that the potential executioner feels the pain of his victim, and in doing so, hesitates at the crucial moment, hesitates to inflict suffering on himself that he could not bear if he were himself the victim. This ability to feel what others are experiencing is deeply rooted in us, at a neurological level, in mirror neurons, which trigger the entire chain of sensations-emotions-feelings and modulate our actions. AI is painfully devoid of such a mechanism of self-evaluation and control over its actions. It naturally possesses no superego, no cardinal moral principles capable of striking it to the extent of the suffering it might be called upon to inflict on human beings.
How to introduce emotions into AI?
The most difficult question concerns not the source of AI's emotions: for sensations, the Internet of Things (IoT) and its multitude of connected sensors provide an ample source of perceptions to interpret, sort, and use to trigger an emotional response. To code emotions, however, a system must be designed in which they are integrated from the beginning, and not as an additional and optional feature. The system must be precisely built AROUND emotions, and not them around the finished product. Today, such systems do not exist.
Since AI is a logical machine, the question becomes: how to build a logic of emotions that can be integrated into the algorithms of artificial intelligence? If we think of AI solely in terms of neural networks, then the solution is forced but doomed to fail: we would have to train a model to recognize emotions to simulate them. However, simulation is not the reality of an AI that WOULD FEEL emotions irresistibly. It would just be a simulation of an empty reality. Furthermore, an infinite amount of time would be required to train an AI on something eminently subjective: after all, the programmers in charge of the training would certainly not agree among themselves on all possible emotional responses to all possible situations.
The solution would therefore be to let the machine constitute its own set of emotions. But once again, if these emotions are simply coded disparately and arbitrarily associated with elements of reality perceived by the machine, no inference will be possible outside the narrow limits of the training model, because no logic of composition between emotions will have been formulated to describe the full range of existing emotions.
As humans, our main way of interacting with AI is through natural language. It is therefore possible to adopt a strong postulate to implement emotions programmatically: to the old philosophical question asking whether thought follows the forms of language, or if the latter is just a watered-down expression of the richness of thought, we must respond with the first alternative. Otherwise, any ambition to code thought and the emotions that arise from it is ruined. This is also the starting postulate of the entire field of AI, with the brilliant results that can be observed. Finally, it is not so far from reality, because while language sometimes fails to express thoughts in all their subtlety, it is nevertheless the only medium available for communicating them; without it, we could have the richest thoughts, yet still be incapable of sharing the simplest idea.
In a future article, a sketch of such a system will be submitted to the sagacity of the readers.