Un ingeniero de Google está tan seguro de que una IA de la empresa tomó conciencia, que lo publicó en internet: Alphabet lo ha suspendido

Inteligencia Artificial
3 comentarios Facebook Twitter Flipboard E-mail

Uno de los ingenieros de Google ha sido suspendido y acusado de violar las políticas de confidencialidad de la compañía, luego de que diera a conocer sus preocupaciones de que uno de los sistemas de IA hubiera logrado desarrollar sensibilidad.

De acuerdo con The Washington Post, el ingeniero Blake Lemoine, quien trabaja en la parte de Inteligencia Artificial de Google, estaba probando si el modelo LaMDA utilizaba discursos discriminatorios o de odio, y al conversar sobre religión con el sistema, se percató que el chatbot abordó también temas sobre sus derechos y personalidad, opinando incluso sobre la tercera ley de la robótica de Isaac Asimov.

Ya en abril Lemoine había externado sus preocupaciones a los ejecutivos en un documento llamado "¿LaMDA es sensible?", donde se incluyó una transcripción de sus conversaciones con la IA, misma que publicó en Medium una vez que fue suspendido, con argumentos sobre que la Inteligencia contaba con sentimientos, emociones y hasta experiencias subjetivas.

Google consideró que las acciones relacionadas con su trabajo en LaMDA habían violado las políticas de confidencialidad de la compañía, según TWP, pues había llegado a realizar una serie de movimientos "agresivos", como invitar a un abogado para que representara a la IA y hablar con un representante del comité judicial de la Cámara sobre lo que él consideraba como actividades poco éticas de la compañía.

El debate sobre el nivel de conversación de la IA

LaMDA fue anunciada públicamente en el Google I/O de 2021, con la intención de mejorar los asistentes de IA y hacer las conversaciones más naturales, similar a la tecnología usada para Smart Compose en Gmail o la consultas en su motor de búsqueda.

De acuerdo con la compañía, su posición oficial es que no hay evidencia de que LaMDA sea sensible, pues un equipo de especialistas en ética y tecnólogos han estudiado lo señalado por Blake y sus conclusiones son que no hay evidencia que respalde su posición, sino todo lo contrario.

El portavoz de Google Brian Gabriel comentó con TWP que no tiene sentido considerar la posibilidad de una IA sensible antropomorfizando los modelos de conversación actuales que no tienen esa capacidad, pues solamente imitan intercambios que se encuentran en millones de oraciones.

Gabriel añadió que incluso se han realizado conversaciones con LaMDA por parte de investigadores e ingenieros y nadie más hasta ahora ha hecho las mismas afirmaciones o ha antropomorfizado al sistema en la misma forma que Blake.

Por otro lado Emily M. Bender, una profesora de la Universidad de Washington entrevistada por TWP aceptó estas declaraciones de la compañía, pues es incorrecto comparar respuestas escritas de forma convincentes como una muestra de sensibilidad.

Comentarios cerrados
Inicio