El debate sobre la éticaRobots sin sentimientos: la exageración (o «hype») por la inteligencia artificial con consciencia
29 julio, 2022
El debate incluye lo tecnológico, lo técnico, lo filosófico y lo ético, y despeja algunas influencias de las películas de ciencia ficción. Especialistas dialogaron con Télam para aportar claridad a este escenario.
Dos casos para abrir el debate: un ingeniero de Google aseguró que un sistema de inteligencia artificial se volvió consciente al «pensar y sentir» como una persona, mientras que un brazo robótico que jugaba al ajedrez con un nene de siete años le rompió el dedo durante la partida, en Rusia. Pero no, no son robots que «cobran vida». Para responder a la pregunta sobre si la inteligencia artificial (IA) puede desarrollar su propia consciencia es necesario primero definir qué es la consciencia y, aún más, qué es la inteligencia.
Especialistas dialogaron con Télam para aportar claridad a un asunto que incluye lo tecnológico, lo técnico, lo filosófico y lo ético, despejando las influencias de películas de ciencia ficción.
El debate está en construcción pero hay una cuestión muy clara y es que «cualquier máquina (sea robot o no) desde una licuadora en adelante, tiene que tener definidas medidas de seguridad«, aseguró a Télam Marcela Riccillo, docente de la carrera de Ingeniería Informática y de la Maestría en Ciencias de Datos del Instituto Tecnológico de Buenos Aires (ITBA).
Los ejemplos ayudan a entender un escenario complejo y despejar de ciertas tecnologías el llamado «hype», expresión en inglés que refiere a un sentimiento de exageración por algo. Suena tentador hablar del «despertar de las máquinas», aunque la realidad responde a otras cuestiones menos «taquilleras».
Dos casos para abrir el debate
Blake Lemoine trabajaba meses atrás como ingeniero de software en Google cuando advirtió que un sistema de inteligencia artificial había tomado consciencia. Se refería a una tecnología de conversación llamada LaMDA (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo), con la que Lemoine intercambió miles de mensajes. A partir de ellos, el ingeniero consideró que ese sistema pudo hablar de su «personalidad, derechos y deseos», por lo que se trataba de una persona.
LaMDA se entrena con grandes cantidades de texto, y luego encuentra patrones y predice secuencias de palabras.
Tras las afirmaciones de Lemoine, la companía lo suspendió y tiempo después lo despidió al alegar que había violado las políticas de confidencialidad, de acuerdo con la prensa especializada. «Nuestro equipo -que incluye a éticos y técnólogos- ha revisado las preocupaciones de Blake según nuestros Principios de la IA y le ha informado que las pruebas no respaldan sus afirmaciones», afirmó en un comunicado Brian Gabriel, vocero de la gigante tecnológica.
Por otro lado, un robot que jugaba al ajedrez le rompió un dedo a un nene de siete años durante una partida en el Abierto de Ajedrez de Moscú, la semana pasada.
El presidente de la Federación de Ajedrez de Moscú, Sergey Lazarev, dijo que el incidente ocurrió después de que el nene se «apresurara» antes de que el robot hiciera su movida. El nene luego siguió compitiendo en el torneo, enyesado por la fractura. El video que muestra el incidente se hizo viral en las redes.
Robots con ¿sentimientos? Inteligencia Artificial con ¿consciencia?
El problema de la consciencia «es interesante desde el punto de vista filosófico y, más de una vez, alimentado por la ciencia ficción con la que crecimos. De la misma manera que no nos ponemos de acuerdo sobre qué es la inteligencia, tampoco tenemos precisiones sobre qué es la consciencia», explicó a Télam Vanina Martinez, directora del equipo de Ciencia de Datos e Inteligencia Artificial de la Fundación Sadosky e investigadora del Conicet.
«Tenemos criterios o parámetros para suponer qué características tiene que tener un ser consciente en base a los modelos de cosas que creemos que son conscientes. Pero no sabemos cómo se produce, ni siquiera en humanos. La pregunta que deberíamos estar haciéndonos es si, independientemente de que sean conscientes, son seguros «, sostuvo.
La investigadora afirmó: «Me parece que muchas veces los actores que intervienen en la creación de estas tecnologías se pierden en discusiones taquilleras que soslayan lo importante y urgente. Por otro lado, pareciera que darle carácter de consciente, de alguna manera, le quita gran parte de responsabilidad sobre el accionar de esos sistemas a quienes lo construyeron y lo depositan en el sistema mismo».
El investigador y docente de la carrera de Ingeniería Informática del ITBA, Rodrigo Ramele, le dijo a Télam: «Decir que una IA que manifiesta consciencia, es hoy todavía parte del ‘hype’ asociado a la Inteligencia Artificial».
«Al igual que lo que ocurre con la Inteligencia, la idea de ‘consciencia’ es compleja de definir, y se plantea como un ‘hallmark’, un punto de inteligencia tan elevado donde un ‘ser’ puede identificarse como único, distinto a los otros, que puede situarse en un momento y en un lugar, que percibe su alrededor y el estado de su situación. Todavía no sabemos lo suficiente, ni en etología animal ni en neurociencia ni en inteligencia artificial como para definir con claridad y responder a esta pregunta», amplió el especialista.
Ramele dio cuenta de que hay una rama del Deep Learning (Aprendizaje Profundo, una rama de la IA) muy exitosa, el procesamiento de lenguaje natural, que permitió recientemente desarrollar IAs que operan extraordinariamente bien la simbología de los lenguajes naturales, y que permiten establecer diálogos complejos.
«El entrenamiento que se hace sobre estos Agentes incluye además diálogos donde se habla de consciencia (diálogos entre humanos). Por lo tanto, a esta IA le es posible recombinar estos símbolos y en un punto dar la impresión, sobre todo en relación a la entrada y la salida, que ‘sabe de lo que está hablando'».
Una buena analogía de este fenómeno, mencionó, es el «Pato de Vaucanson»: un pato mecánico de un ilusionista del siglo 19 que daba la impresión que digería la comida tal como hacemos los seres vivos, porque a nivel de entrada y salida, a nivel del comportamiento visible superficialmente, operaba de la misma forma que puede operar un ser vivo (come comida, la digiere y la excreta). «Sin embargo, incluso desde nuestro aún desconocimiento, lo que hoy definimos como consciencia involucra muchas más partes que son más complejas de verificar», completó.
El robot que juega al ajedrez
El caso del nene con el robot en la partida de ajedrez «involucra un manipulador con actuadores (es decir, motores) activos. Los manipuladores son los típicos robots industriales que tienen grados de libertad y versatilidad de movimiento que se utilizan desde hace 40 años en las líneas de montaje de las fábricas automatizadas del mundo», detalló Ramele.
Dijo que «es un problema súper conocido puesto que cualquier tipo de error, que puede ser mecánico, electrónico, de programación o hasta incluso perceptivo (una interpretación errónea de información de los sensores) pueden derivar en un movimiento que dañe a una persona. Por esto las fábricas suelen tener espacios exclusivos donde operan los manipuladores y donde las personas no pueden entrar directamente», amplió.
El momento en que un robot le quebró el dedo a un niño durante el Abierto de Ajedrez de Moscú
Lo que sucedió con el brazo robótico ¿fue un accidente? «No lo definiría así», enfatizó Martínez. Porque «si decimos que es un accidente, estamos asumiendo que es algo que puede ocurrir y, de alguna manera, le traspasamos la responsabilidad al usuario, y ahí está el problema».
«Quizás algo más adecuado sería hablar de negligencia, aunque no existen marcos concretos, regulatorios, que estipulen los límites o las garantías que se tienen que exigir para este tipo de sistemas. No tenemos pautas claras de cómo construirlos y de cuánto permitirle hacer», amplió la investigadora y reflexionó: «A medida que aparecen más de estos episodios, una pregunta que comienza a surgir es: si no sabemos si podemos controlarlos, ¿deberíamos construirlos?»
El estado de la Inteligencia Artificial
La «Inteligencia Artificial General (AGI, por sus siglas en inglés) no existe. Por lo tanto, las máquinas no tienen intención, ni ganas, ni conciencia, ni responsabilidad», sintetizó Riccillo.
«Hay un avance interesante en el desarrollo de la ética de la IA. Llegamos a un momento en donde muchas instituciones, países y organizaciones, a nivel mundial, se han puesto de acuerdo en, más o menos, cuáles son los principios éticos que estos sistemas deberían promover y respetar. Uno de los problemas es que aún esos principios son muy abstractos», comentó Martínez.
Desde un punto de vista más técnico, explicitó, «como para poder garantizar algún grado de esos principios, queremos que los sistemas sean entendibles, previsibles. Que puedan, no solo el sistema sino todos los actores involucrados en su creación, desarrollo y despliegue, rendir cuentas de las acciones y las decisiones que toman».
«Queremos que cuando sea necesario, sean explicables, es decir que puedan explicarle a quien lo está usando, por qué está haciendo lo que está haciendo. Por supuesto que hay sistemas donde esto no es necesario, pero los que interactúan directamente con humanos, como un asistente personal virtual o robótico, sí es crítico», remarcó.
La investigadora expresó que la Unión Europea, desde hace algunos de años, «está intentando delinear un marco regulatorio para la IA enfocado en el nivel de riesgo que estos sistemas implican: una especie de semáforo que indica qué no se puede hacer nunca, qué se puede pero con un montón de controles, auditoría, evaluación de impacto variadas, etcétera, y qué sistemas, en principio, no suponen ningún riesgo».
No obstante, agregó, «hay mucho desacuerdo en el enfoque y en el contenido del proyecto, sobre todo para garantizar que exista un balance entre el avance tecnológico y el bienestar social, y que este tipo de leyes no perjudique, imponiendo un costo imposible, a empresas proveedoras de este tipo de servicios que no son las grandes multinacionales, y que se siga concentrando aún más el oligopolio tecnológico».
FUENTE:TELAM/POR MELISA AVOLIO