Inteligencia artificial y bots: cuando la tecnología “aprende” mal

  • Lunes 4 abr 2016 >
  • por Equipo de Tendencias Digitales
  • 14163 1

El desarrollo de la inteligencia artificial podría ser el mayor logro humano. Por desgracia, también podría ser el último si no aprendemos a evitar los riesgos“. La frase no la dijo Sarah Connor en Terminator ni Morfeo en Matrix. La escribió hace unos meses el científico Stephen Hawking en el diario The Independent. 

Estas semanas el caso de del bot Tay de Microsoft y su fallido experimento en Twitter volvió poner  el tema en el centro del debate. ¿Se convierten estas entidades en un espejo donde no nos queremos ver? ¿Se anteponen atributos como la eficiencia y la exactitud por sobre valores morales, políticos y los sentimientos?

Otro de los ejemplos recordados es el planteo de la película “Her“, con Joaquin Phoenix y (sólo la voz de) Scarlett Johansson. Ni apocalíptica ni entusiasta, la película escrita y dirigida por Spike Jonze hace un interesante planteo sobre la Inteligencia Artificial (IA) ante la que, tal vez y más allá de los juicios, el límite sea la capacidad humana en su vínculo con las TIC.

 

Los sistemas y bots ya dejaron de ser cosa exclusiva de novelas y películas de ciencia ficción para ser cada vez más parte de nuestra realidad. Aunque muchas veces no nos demos cuenta, interactuamos con robots de Inteligencia Artificial a menudo: desde un bot que recibe nuestras inquietudes en el servicio de atención al cliente de una empresa, hasta los smartphones que “interactúan” con sus dueños a través de asistentes de voz, al estilo de Cortana (de Microsoft), Siri (Apple), Google Now (de Google), M (de Facebook) o el más reciente Alexa, de Amazon).

La premisa tras la “línea  smart” de productos y dispositivos apunta en similar dirección. Se supone que los smart TV, smarthome, smartcities o smartwatch no sólo tienen funciones avanzadas sino, además,  el potencial de “aprender” en base a la interacción con los usuarios.

Están presentes en la industria, en la construcción y hasta en los hogares, como es el caso de Jibo, un robot que saldría a la venta este año (quien lo quiera ya puede anotarse online en la lista de espera para comprarlo) y cuyo principal objetivo es facilitar la dinámica del hogar.

Entre sus funciones, reconoce caras de los integrantes de la familia, les recuerda tareas pendientes, toma fotos, sugiere qué cenar a la noche y hasta duerme a los niños contándoles un cuento.

También están los que sirven los platos a los comensales en restaurantes de China, que atienden hoteles, los que juegan al ping pong, los que tienen rasgos humanos que impresionan y hasta los que sonríen y dicen “Te amo”. Incluso, hace poco se difundió la noticia de que un robot trabajará en una importante agencia de publicidad en Japón ocupando, nada más y nada menos, el puesto de ¡director creativo! 

Pero además de que muchos detractores los ven como la futura competencia en el mercado laboral, ¿es un riesgo otorgarle inteligencia propia a las máquinas? ¿Se convertirán en “seres” más listos que los humanos o se trata de un mito? ¿Es posible que se rebelen contra sus propios creadores? ¿Qué pasa cuando la Inteligencia Artificial asume sus propios valores y características, más allá de nuestros deseos y proyecciones?

.

La personalidad de Tay

Algo así sucedió con Tay, un proyecto de Microsoft que debió ser desactivado recientemente: se trataba de un robot diseñado para que tuviera la personalidad de una adolescente que aprendía del mundo en Twitter… pero terminó convirtiéndose en racista y xenófoba. El programa informático estaba diseñado para mantener conversaciones informales en las redes sociales con una audiencia de entre 18 y 25 años. Pero apenas un día después de su lanzamiento debió ser inhabilitada por realizar comentarios homofóbicos, racistas y por defender a Hitler y el Holocausto.

El ejemplo de Tay es anecdótico y no pasó a mayores. Pero la cuestión, si uno la proyecta a futuro y avizora tendencias, es cuando menos inquietante: ¿cómo se resolverá este “margen de error” con robots que lleven a cabo tareas más complejas como asistir a un operario en una fábrica o manejar un automóvil?

Otro ejemplo de estos últimos días fue el de un robot que escribió una novela llamada “Una computadora también puede escribir una novela” y quedó entre los tres finalistas de un concurso literario en Japón. Perdió contra un humano… pero por muy poco.

Pero quizás no falte mucho para que, finalmente, gane. Incluso en algo tan “creativo” como puede ser la literatura. De hecho, en enero último se produjo otro hito relacionado con la IA y las competencias “máquinas versus humanos”: un robot le ganó a un humano en una partida del milenario juego oriental Go. Y, si nos ponemos en exquisitos, no es la primera vez que sucede algo así: en 1997 la supercomputadora Deep Blue le ganó una partida de ajedrez al renombrado campeón internacional Gary Kasparov.

Como ya nos preguntábamos hace un tiempo en Planeta Telefónica, ¿cuál es el límite? ¿Cuáles son los temas, las actividades y las tareas que podemos delegarle a la IA para ganar tiempo y libertad sin, por ello, desvirtuarlas? ¿Es fundado este “temor” al avance de la robótica?

¿Vamos camino a crear un mundo mejor, donde la IA sea, como sucede hoy con muchísimas tecnologías, una suerte de prótesis que expande las capacidades humanas (como decía McLuhan), o nos aguarda un escenario de película catástrofe como los de “Matrix” o “Yo robot“?

El debate vuelve a encenderse.

Foto: Shutterstock

 

 

 



Escribio la nota:

Equipo de Tendencias Digitales

Somos el equipo de producción de contenidos de Tendencias Digitales, el primer blog corporativo de una empresa de servicios públicos en la Argentina. Desde 2007 analizando tecnología, empresa y sociedad en la era de los medios sociales. Hoy, integrado en Planeta Telefónica.
1
Dejá tu comentario
400 Caracteres máximo

Un pensamiento sobre “Inteligencia artificial y bots: cuando la tecnología “aprende” mal”

  1. Pingback: Portal +Cerca

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

Compartir