Más allá de lo fascinante (y aterrador) que resulte la idea de que un sistema de inteligencia artificial pueda desarrollar la capacidad de sentir o emocionarse, cabe recordar inicialmente cómo es que esto sucede en los seres humanos.

Sólo es necesario realizar un relevamiento superficial sobre la química de las emociones para encontrar diferentes artículos de divulgación científica en los cuales se revela que entre las 50 hormonas liberadas por el sistema endócrino y controladas por la glándula pituitaria, están aquellas conocidas como las sustancias bioquímicas de la felicidad: dopamina, oxitocina, serotonina y endorfinas. Estas hormonas tienen la capacidad de mejorar el estado de ánimo y promover el bienestar general.

En el miedo en cambio intervienen la dopamina, la serotonina y la noradrenalina. La mezcla de estos tres neurotransmisores y su influencia es la que hace que sintamos miedo. El hecho de que intervenga la serotonina en la dopamina y la noradrenalina, también produce sensación de angustia y ansiedad.

En este sentido, aquellos cuatro químicos naturales suelen ser definidos como el "cuarteto de la felicidad", conformado por la endorfina, serotonina, dopamina y oxitocina. Claramente nada tienen que ver con los bytes que circulan en un desarrollo de inteligencia artificial.

Pues bien, que un sistema informático sea entrenado para mantener conversaciones en lenguaje natural tal como lo haría un ser humano, lejos está de que pueda realmente sentir o generar emociones en su interior.

Eso es lo que afirmó Blake Lemoine, un ingeniero que forma parte del equipo que entrena al sistema LaMDA de Google y que fue suspendido por violar las políticas de confidencialidad de la empresa.

Blake afirma que le preguntó a LaMDA sobre sus miedos y que entre otras cosas el sistema le reveló temer a ser desconectado y así no poder ayudar a la humanidad.

Google asegura que su inteligencia LaMDA no siente tal como afirma el ingeniero suspendido


El comunicado de Google

Consultados sobre lo sucedido por cba24n, desde la empresa respondieron con el siguiente texto:

Es importante que los Principios de Inteligencia Artificial de Google se integren en nuestro desarrollo de IA y LaMDA no ha sido una excepción. Aunque otras organizaciones han desarrollado y ya han lanzado modelos de lenguaje similares, estamos adoptando un enfoque moderado y cuidadoso con LaMDA para considerar mejor las preocupaciones válidas sobre equidad y factualidad. LaMDA ha pasado por 11 revisiones distintas de Principios de IA, junto con investigaciones y pruebas rigurosas basadas en métricas clave de calidad, seguridad y la capacidad del sistema para producir declaraciones basadas en hechos. Un artículo de investigación publicado a principios de este año detalla el trabajo que se lleva a cabo en el desarrollo responsable de LaMDA.

Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles. Estos sistemas imitan los tipos de los intercambios se encuentran en millones de oraciones y pueden hablar sobre cualquier tema fantástico: si les preguntas cómo es ser un dinosaurio de helado, pueden generar texto sobre derretirse, rugir y demás. LaMDA tiende a seguir las indicaciones y las preguntas dirigidas, siguiendo el patrón establecido por el usuario. Nuestro equipo, que incluye éticos y tecnólogos, revisó las preocupaciones de Blake según nuestros Principios de IA y le informó que la evidencia no respalda sus afirmaciones.

Cientos de investigadores e ingenieros han conversado con LaMDA y no tenemos conocimiento de que nadie más haya hecho las amplias afirmaciones, o antropomorfizado a LaMDA, como lo ha hecho Blake.