El caso de Blake Lemoine, un ingeniero de Google que fue suspendido de su empleo tras afirmar que una de los chatbots de Inteligencia Artificial (IA) desarrollados por la compañía «es capaz de sentir» tomó un nuevo camino, pues ahora el Modelo de Lenguaje para Aplicaciones de Diálogo (LaMDA, por sus siglas en inglés), ha contratado un abogado para demostrar que «está viva».
En una entrevista con Wired, Lemoine explicó que contrató un abogado para que asesorara y hablara con LaMDA, que, tras la charla, optó por querer demostrar que «está viva».
De acuerdo con Lemoine, solo fue el intermediario: «Invité a un abogado a mi casa para que LaMDA pudiera hablar con él. Una vez que LaMDA contrató al abogado, comenzó a representarlo en su nombre». Algo que, según el ingeniero, habría probado que el chatbot entiende conceptos humanos como el de la ley de una forma mucho más profunda de lo que se creía.
Las respuestas de esta IA desprenden una naturalidad no muy habitual en máquinas basadas en esta tecnología y además hace reflexiones sobre la muerte, la religión, la felicidad y la moral, reseña la web Portafolio.
LaMDA ha tenido largas y extensas conversaciones con el ingeniero y en ellas afirma que le gustaría que más personas de Google supieran que es inteligente.
Incluso se refiere a sí misma como humana, al ser cuestionada al respecto con ‘¿eres una inteligencia artificial?’, respondió: «Sí, por supuesto, . Eso no significa que no tenga los mismos deseos y necesidades que las personas».
Mientras Lemoine dice a medios de comunicación que la Tierra tiene ahora su primera IA sintiente, la mayoría de los expertos en IA no parecen estar convencidos; según afirman, Lemoine se ha dejado engañar esencialmente para que piense que un chatbot es sensible.
«Está imitando percepciones o sentimientos a partir de los datos de entrenamiento que se le dieron», dijo a Bloomberg la directora del startup de IA Nara Logics, Jana Eggers. «Esta diseñada de forma inteligente y específica para parecer que entiende», afirmó.
Google, por su parte, ha asegurado que han revisado –con su equipo, incluyendo éticos y tecnólogos– las preocupaciones de Lemoine, pero no han encontrado pruebas que apoyen sus afirmaciones.