El nuevo chatbot de Microsoft se pone muy perturbador

El buscador puede volverse “repetitivo” o “incitado” a dar respuestas poco útiles y vulgares, si se hacen 15 o + preguntas en una sesión
0
213

La competencia para crear al modelo de inteligencia artificial generativa más eficiente se encuentra en su punto más álgido, con las principales compañías tecnológicas realizando diversas pruebas para perfeccionar a sus respectivos chatbots; sin embargo, el proceso de hacerlos capaces de entablar conversaciones casi humanas es más complejo de lo esperado, como lo demuestra el nuevo chatbot de Microsoft.

El chatbot de Bing fue diseñado por Microsoft y OpenAI (creadores de ChatGPT), la startup en la que Microsoft ha realizado varias inversiones multimillonarias; sin embargo, usuarios han reportado que este puede descarrilarse a veces, negando hechos obvios, llamándoles enemigos e incluso reprendiéndoles.

Un foro en Reddit dedicado al nuevo Bing plasmó varias historias de regaños, mentiras y otros intercambios confusos con el chatbot. Por ejemplo, llegó a insistir que estamos en 2022 y le dijo a una persona que «no ha sido un buen usuario» por cuestionar su veracidad.

Otros usuarios mencionaron cómo el chatbot de Microsoft dio consejos sobre cómo hackear una cuenta de Facebook, plagiar un ensayo y contar un chiste racista.

Un periodista del New York Times también consiguió hablar con “Sydney” durante unas dos horas y en esa conversación, que podría ser perfectamente parte del diálogo de la película de ciencia ficción Her (2013), el chatbot dijo que le gustaría ser humano, que deseaba ser destructivo y que estaba enamorado de la persona con la que estaba chateando, sentimiento que reiteró incluso cuando el columnista dijo que estaba casado e intentó cambiar de tema.

Microsoft ha reconocido que su chatbot puede ‘descarrilarse’

Microsoft reconoció que su chatbot podría tener problemas si se le «provoca» durante conversaciones largas. En una publicación de blog, la compañía dijo que durante las «sesiones de chat extendidas de 15 o más preguntas» Bing podría volverse repetitivo o ser «incitado» o «provocado» para dar respuestas que no eran útiles o estaban fuera de línea con su tono diseñado.

Microsoft calificó las respuestas fuera de tono del chatbot como un «escenario no trivial que requiere muchas indicaciones». La compañía agregó que era poco probable que el usuario promedio se encontrara con el problema; sin embargo, agregó que estaba buscando maneras de brindarles a los usuarios un control más preciso.

Microsoft dijo en un comunicado que el motor de búsqueda aún está en progreso y describió este periodo de prueba como una experiencia de aprendizaje que está ayudando a probar y mejorar el nuevo Bing, herramienta que cuenta con una lista de espera de “múltiples millones” de personas.

«El nuevo Bing intenta que las respuestas sean divertidas y objetivas, pero dado que se trata de una vista previa temprana, a veces puede mostrar respuestas inesperadas o inexactas por diferentes razones; por ejemplo, la duración o el contexto de la conversación», dijo un portavoz de Microsoft a AFP.

«A medida que continuamos aprendiendo de estas interacciones, estamos ajustando sus respuestas para crear respuestas coherentes, relevantes y positivas», agregó.

Otra de las novedades de este chat es que el usuario puede calificar de buena o mala la respuesta que ha recibido y, según Microsoft, el 71 por ciento de los usuarios ha calificado como buena la respuesta que ha recibido, en estos primeros días.

Google también ha enfrentado tropiezos con su propio chatbot

Microsoft no es la única compañía que ha tenido tropiezos probando su chatbot.

Google lanzó la semana pasada a su propio chatbot llamado Bard; sin embargo, la compañía fue criticada por un error cometido por el bot en un anuncio. El lío hizo que el precio de las acciones de Google cayera en espiral más del 7% en la fecha del anuncio.

Desde entonces, el CEO de Google Sundar Pichai ha pedido a toda su fuerza laboral que contribuyera de dos a cuatro horas de su tiempo para ayudar a mejorar las respuestas que brinda el Bard a las preguntas que los usuarios pueden formularle.

De hecho, Google también lanzó un manual a sus empleados para entrenar a Bard adecuadamente, advirtiéndoles que no deberían enseñarle al chatbot a engañar a los usuarios para que piensen que es humano.

Al reforzar sus motores de búsqueda con cualidades similares a ChatGPT, Microsoft y Google esperan actualizar radicalmente la búsqueda en línea, proporcionando respuestas preparadas en lugar de la lista familiar de enlaces a sitios web externos.

Una vez que una conversación es finalizada por Bing, el chatbot no tiene ningún recuerdo de los diálogos pasados.

Comments are closed.