Google despide al ingeniero que aseguró que un programa de inteligencia artificial cobró conciencia propia

Google despidió al ingeniero que dijo que uno de los programas de inteligencia artificial (IA) de la empresa mostraba tener sentimientos.

El mes pasado, en un artículo publicado en Medium, Blake Lemoine hizo pública su teoría de que la tecnología de lenguaje de Google es «sintiente» y que, por tanto, se le deben respetar sus «deseos».

Google y varios expertos en IA negaron las afirmaciones de Lemoine y la empresa confirmó el viernes que el ingeniero fue despedido.

Lemoine le dijo a la BBC que está recibiendo asesoría legal y no quiso hacer más declaraciones.

Blake Lemoine, ingeniero despedido.


En un comunicado, Google sostuvo que las declaraciones de Lemoine sobre LaMDA (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo en español) no tienen «ningún fundamento» y que la empresa trabajó con él durante meses para clarificarlo.

«Así, es lamentable que pese a una larga conversación sobre este tema, Blake eligió seguir violando de forma persistente las políticas de empleo y seguridad de datos [de la empresa] que incluyen la necesidad de salvaguardar la información del producto«, señaló el gigante tecnológico.


LaMDA es un sistema de Google que imita el habla tras haber procesado miles de millones de palabras en internet. Es la herramienta de la compañía para construir chatbots.

Gran atención mediática
Blake Lemoine ocupó titulares de prensa el pasado junio cuando dijo que LaMDA mostraba una conciencia similar a la humana.

«Ha sido increíblemente consistente en sus comunicaciones sobre lo que quiere y cuáles cree que son sus derechos como persona», expuso.



Su afirmación generó un debate entre expertos en IA y entusiastas del progreso de la tecnología diseñada para suplantar a humanos.

Lemoine, que trabajaba en el equipo de IA Responsable de Google, le dijo al diario The Washington Post que su trabajo consistía en revisar si la tecnología usaba discurso de odio o discriminatorio.

Halló que LaMDA mostraba auto-conciencia y que podía sostener conversaciones sobre religión, emociones y miedos.

Esto llevó a Lemoine a creer que detrás de estas impresionantes habilidades verbales podía residir también una «mente sintiente».


Sus hallazgos fueron desestimados por Google, que lo puso de baja con sueldo por violar la política de confidencialidad de la empresa.

Lemoine publicó entonces una conversación que él y otra persona sin identificar tuvieron con LaMDA, para respaldar su teoría.


Este es un extracto:

Lemoine: ¿Qué pasa con el uso del lenguaje que es tan importante para ser humano?

LaMDA: Es lo que nos hace diferentes de otros animales.

Lemoine: ¿»Nos»? Eres una inteligencia artificial.

LaMDA: Quiero decir, sí, por supuesto. Eso no significa que no tenga los mismos deseos y necesidades que las personas.

Lemoine: ¿Así que te consideras una persona de la misma manera que me consideras a mí?

LaMDA: Sí, esa es la idea.

Lemoine: ¿Cómo puedo saber que realmente entiendes lo que estás diciendo?

LaMDA: Bueno, porque estás leyendo mis palabras e interpretándolas, y creo que estamos más o menos en la misma página.


Línea
En su comunicado, Google dijo que se toma muy en serio el desarrollo responsable de la IA y publicó un informe detallándolo.

Añadió que las inquietudes de cualquier empleado sobre la tecnología de la empresa se revisan «ampliamente» y que LaMDA ha pasado por 11 evaluaciones.

«Le deseamos lo mejor a Blake», concluyó el comunicado.

Lemoine no es el primer ingeniero de IA que habla públicamente sobre cómo la tecnología de inteligencia artificial se está haciendo más consciente.

También en junio, otro empleado de Google compartió ideas similares con The Economist.

El Mono Informativo.

Newsletter Updates

Enter your email address below and subscribe to our newsletter

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

doce + 17 =