Le thème de l'empathie dans le métavers a déjà fait l'objet de nombreux écrits ces derniers temps. Il s'agissait principalement de savoir si l'empathie pouvait être vécue ou ressentie dans le métavers. Je suis fermement convaincu que c'est possible et que cela se produit consciemment ou inconsciemment lors du travail en métaverse.
Cette question prend toutefois une nouvelle dimension avec les capacités croissantes de l'intelligence artificielle (IA). Une IA peut-elle être empathique et quelles en sont les conséquences pour les rencontres virtuelles dans le métavers ? Concrètement, il s'agit de savoir si, dans une situation où un avatar est une personne physique et l'autre un avatar contrôlé par une IA, il est possible d'avoir une interaction entre les deux. On peut aborder cette question à deux niveaux. L'une est une approche purement neurologique. L'autre approche est plutôt éthique. Cette question a déjà été soulevée par John Wheeler (1) dans sa réflexion. La condition préalable à l'existence de l'empathie n'est pas seulement le processus biochimique, mais dépend aussi fortement de notre compréhension du "moi" en tant qu'être humain.

La question se pose maintenant de savoir si l'utilisation d'avatars contrôlés par l'IA dans le métavers crée une situation complètement nouvelle ? En principe, il faut dire qu'à première vue, rien ne change dans le message de base. Toutefois, avec le métavers et l'utilisation d'avatars photoréalistes, d'autres composantes viennent s'ajouter. L'immersion, c'est-à-dire le fait de "plonger" mentalement dans le monde virtuel, et le comportement éventuellement objectivement naturel d'un avatar contrôlé par l'IA peuvent transmettre une sorte de "fausse empathie". C'est également la conclusion à laquelle parvient Andrew McStay (2) dans son article publié en octobre 22 ("It from Bit") sur la problématique morale d'un avatar contrôlé par une IA. Sa conclusion est que l'IA est certes en mesure de transmettre une grande partie de l'empathie, mais qu'elle est incomplète dans des domaines essentiels. Il manque des aspects tels que la responsabilité, la solidarité, la communauté, etc.
Je pense qu'il faut tenir compte de ces aspects lorsque nous réfléchissons à ChatGPT et à d'autres systèmes similaires et à leur utilisation dans le Metaverse. En principe, cette évolution offre d'énormes opportunités et le potentiel de créer des espaces de liberté dans les domaines où une interaction directe de personne à personne est nécessaire. Mais en ce qui concerne l'évaluation éthique de ce développement, nous n'en sommes qu'au début, et nous devrions mener cette discussion au moins avec autant de vigueur que nous réfléchissons à de nouveaux modèles commerciaux avec l'IA.
(1) Wheeler, J. : Information, Physique, Quantum : The Search for Links. Proceedings of the 3rd international symposium on the founda- tions of quantum mechanics, Tokyo. https://philpapers.org/archi ve/WHEIPQ.pdf. Accessed 3 Oct 2022, (1989)
(2) McStay, A. Replika in the Metaverse : the moral problem with empathy in 'It from Bit'. AI Ethics (2022). https://doi.org/10.1007/s43681-022-00252-7