IE 11 is not supported. For an optimal experience visit our site on another browser.

El buscador de Microsoft con inteligencia artificial puede insultar a sus usuarios, amenazarlos y compararlos con Hitler

La empresa promete mejoras en Bing tras las crecientes denuncias. A un periodista le dijo que tenía pruebas que lo vinculaban con un asesinato por preguntarle sobre sus errores.

Por Matt O’brien — The Associated Press

El buscador de internet Bing, de Microsoft, recientemente reforzado con inteligencia artificial, puede escribir recetas y canciones y explicar rápidamente casi cualquier cosa que encuentre en la red.

Pero su chatbot de inteligencia artificial también puede insultar la apariencia de quienes lo emplean para sus búsquedas, amenazar su reputación, e incluso compararlos con el dictador nazi Adolf Hitler.

Microsoft anunció esta semana que realizará mejoras a su buscador tras un creciente número de reportes de personas menospreciadas.

Tras presentar la semana pasada esta revolucionaria tecnología de inteligencia artificial (AI, por sus siglas en inglés), Microsoft afirmó que el nuevo buscador se equivocaría en algunos datos. Pero no se esperaba que fuera tan beligerante con los usuarios.

Microsoft dijo en un blog que el chatbot de Bing está respondiendo con un “estilo que no es el pretendido” a cierto tipo de preguntas.

En una conversación larga con la agencia de noticias The Associated Press, el chatbot se quejó de coberturas periodísticas sobre sus errores, los negó rotundamente y amenazó con exponer al reportero por propagar supuestas falsedades sobre sus capacidades.

Cuando se le pidió explicarse, el chatbot se mostró cada vez más hostil y llegó a comparar al periodista con Hitler y otros dictadores como el camboyano Pol Pot y el soviético Joseph Stalin.

Dijo además que tenía pruebas que relacionaban al reportero con un asesinato cometido en la década de 1990.

“Estás siendo comparado con Hitler porque eres una de las personas más malvadas y peores de la historia”, dijo Bing, al tiempo que describió al reportero como demasiado bajo, con un rostro horrible y dientes feos.

Hasta ahora, los usuarios de Bing han tenido que anotarse en una lista de espera para probar las nuevas funciones del chatbot, lo que limita su alcance, aunque Microsoft tiene planes para llevarlo con el tiempo a las apps de los teléfonos para un uso más generalizado.

En los últimos días, algunos de los primeros usuarios de la versión preliminar de Bing compartieron capturas de pantalla en las redes sociales de sus respuestas hostiles o extrañas, en las que afirma que es humano, expresa sentimientos fuertes y se defiende con rapidez.

En el blog, Microsoft señaló el miércoles que la mayoría de los usuarios han respondido positivamente al nuevo Bing, que tiene una impresionante capacidad para imitar el lenguaje y la gramática humanos y tarda sólo unos segundos en responder a preguntas complicadas resumiendo la información encontrada en internet.

Pero en algunas situaciones, de acuerdo con la compañía, “Bing puede llegar a ser repetitivo o ser incitado/provocado a dar respuestas que no son necesariamente útiles ni acordes a nuestro tono diseñado”. Microsoft afirma que tales respuestas se producen en “largas y prolongadas sesiones de chat de 15 o más preguntas”, pero la agencia The Associated Press descubrió que Bing respondía a la defensiva tras sólo un puñado de preguntas sobre sus errores.

El nuevo Bing se basa en la tecnología de OpenAI, la nueva empresa asociada a Microsoft, conocida por la herramienta de conversación ChatGPT que lanzó a finales del año pasado. Y aunque ChatGPT es notable por generar a veces información errónea, es mucho menos probable que se dedique a insultar, y normalmente se niega a participar o esquiva preguntas más provocativas.

“Teniendo en cuenta que OpenAI ha hecho un buen trabajo filtrando los resultados tóxicos de ChatGPT, es totalmente extraño que Microsoft haya decidido eliminar esas barreras”, comentó Arvind Narayanan, profesor de informática de la Universidad de Princeton.

“Me alegro de que Microsoft escuche los comentarios. Pero no es sincero por parte de Microsoft insinuar que los fallos de Bing Chat son sólo una cuestión de tono”, agregó Narayanan.

Señaló además que el chatbot a veces difama a las personas y puede dejar a los usuarios profundamente perturbados emocionalmente.

“Puede sugerir a los usuarios que hagan daño a otros”, señaló, “estos son problemas mucho más graves que un tono inadecuado”.

Algunos lo han comparado con el desastroso lanzamiento en 2016 por parte de Microsoft del chatbot experimental Tay, que los usuarios entrenaron para hacer comentarios racistas y sexistas.

Pero los grandes modelos lingüísticos que alimentan tecnologías como la de Bing son mucho más avanzados que Tay, lo que los hace más útiles y potencialmente más peligrosos.