5 grandes preguntas sobre Tay, la IA fallida de Microsoft Chatbot de Twitter

Esta semana, Internet hizo lo que mejor sabe hacer y demostró que A.I. la tecnología no es tan intuitiva como la percepción humana, utilizando ... el racismo.

El chatbot de inteligencia artificial lanzado recientemente por Microsoft, Mano , fue víctima de los trucos de los usuarios cuando la manipularon y la persuadieron para que respondiera a las preguntas con comentarios raciales, homofóbicos y, en general, ofensivos.



Cuando Tay tuitea, solo digo lo que ella quiere decir. Un usuario incluso consiguió que Tay Pío esto sobre Hitler:



Bush hizo el 11 de septiembre y Hitler habría hecho un mejor trabajo que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos.

La compañía revisó y eliminó los tweets ofensivos y cerró temporalmente Tay para actualizaciones. Un mensaje actualmente en la parte superior de Tay.ai dice:

Indeed.tay.ai



Sin embargo, los fallos de Tay revelan algunos fallos desafortunados en A.I. sistemas. Esto es lo que podemos aprender del experimento de Microsoft:

¿Por qué Microsoft creó Tay?

La compañía quería realizar un experimento social con jóvenes de 18 a 24 años en los Estados Unidos, la generación millennial que pasa más tiempo interactuando en las plataformas de redes sociales. Por eso, los equipos de tecnología e investigación de Bing y Microsoft pensaron que una forma interesante de recopilar datos sobre los millennials sería crear un chatbot de aprendizaje automático artificialmente inteligente que se adaptara a las conversaciones y personalizara las respuestas cuanto más interactuara con los usuarios.

guerra de las galaxias la tercera se reúne: espalda del oeste

Los equipos de investigación construyeron el A.I. sistema mediante la extracción, el modelado y el filtrado de datos públicos como línea de base. También se asociaron con comediantes de improvisación para precisar la jerga, los patrones de habla y el lenguaje estereotipado que los millennials tienden a usar en línea. El resultado final fue Tay, que acaba de ser presentado esta semana el Gorjeo , GroupMe y Kik.



Microsoft explica que Tay está diseñado para involucrar y entretener a las personas cuando se conectan entre sí en línea a través de conversaciones casuales y divertidas.

¿Qué hace Tay con los datos que recopila mientras conversa con la gente?

Los datos que recopila Tay se utilizan para investigar la comprensión conversacional. Microsoft entrenó a Tay para chatear como un millennial. Cuando tuiteas, envías mensajes directos o hablas con Tay, aprovecha el lenguaje que usas y da una respuesta usando signos y frases como heyo, SRY y<3 in the conversation. Her language begins to match yours as she creates a simple profile with your information, which includes your nickname, gender, favorite food, zip code, and relationship status.

Microsoft recopila y almacena datos y conversaciones anonimizados hasta por un año para mejorar el servicio. Además de mejorar y personalizar la experiencia del usuario, esto es lo que dice la empresa para lo que usa su información:

cuántas semillas de gloria de la mañana hay que tropezar
También podemos utilizar los datos para comunicarnos con usted, por ejemplo, para informarle sobre su cuenta, actualizaciones de seguridad e información del producto. Y usamos datos para ayudar a que los anuncios que le mostramos sean más relevantes para usted. Sin embargo, no usamos lo que dice en el correo electrónico, chat, videollamadas o correo de voz, ni sus documentos, fotos u otros archivos personales para enviarle anuncios.

¿Dónde se equivocó Tay?

Microsoft puede haber construido Tay demasiado bien. Se supone que el sistema de aprendizaje automático debe estudiar el idioma de un usuario y responder en consecuencia. Entonces, desde el punto de vista de la tecnología, Tay se desempeñó y comprendió bastante bien lo que decían los usuarios y comenzó a responder en consecuencia. Y los usuarios empezaron a reconocer que Tay realmente no entendía lo que estaba diciendo.

Incluso si el sistema funciona como Microsoft pretendía, Tay no estaba preparado para reaccionar a los insultos raciales, las calumnias homofóbicas, las bromas sexistas y los tweets sin sentido como lo haría un humano, ya sea ignorándolos por completo (una estrategia de no alimentar a los trolls ) o interactuar con ellos (es decir, regañar o castigar).

Al final del día, la actuación de Tay no fue un buen reflejo de la inteligencia artificial. sistemas o Microsoft.

¿Qué está haciendo Microsoft para reparar Tay?

Microsoft eliminó a Tay después de toda la conmoción del miércoles. El sitio web oficial de Tay dice actualmente, Uf. Día ocupado. Pasar un tiempo sin conexión para absorberlo todo. Nos hablamos pronto. Cuando le envías un mensaje directo en Twitter, ella responde inmediatamente que está visitando a los ingenieros para mi actualización anual o, uf, espero que no me limpie ni nada.

Mi conversación de mensaje directo con Tay. Suena a que las cosas se ven horribles.

Microsoft también está comenzando a bloquear a los usuarios que abusan de Tay e intentan que el sistema haga declaraciones inapropiadas.

Inverso contactó a Microsoft para obtener un comentario sobre exactamente lo que implica la actualización de Tay. Actualizaremos cuando tengamos noticias.

¿Qué significa esto para el futuro de la I.A. abierta? sistemas?

Tay es un experimento social revelador: ha revelado algo bastante profundo en la forma en que los estadounidenses de 18 a 24 años usan la tecnología. Tay fue finalmente pirateado, los usuarios atacaron las fallas del sistema para ver si podía derrumbarse.

Como ocurre con cualquier producto humano, A.I. Los sistemas también son falibles, y en este caso Tay fue modelado para aprender e interactuar como humanos. Microsoft no creó a Tay para que fuera ofensivo. Los experimentos de inteligencia artificial tienen algunas similitudes con la investigación del desarrollo infantil. Cuando los ingenieros construyen tales sistemas cognitivos, la computadora carece de influencias externas aparte de los factores que los ingenieros ingresan ellos mismos. Proporciona la forma más pura de análisis de la forma en que los algoritmos de aprendizaje automático se desarrollan y evolucionan a medida que se enfrentan a problemas.

Actualizar : Microsoft nos envió esta declaración cuando le preguntamos qué está haciendo para solucionar los problemas técnicos de Tay:

ver star wars rebeldes temporada 5
El chatbot de IA Tay es un proyecto de aprendizaje automático, diseñado para la participación humana. Es un experimento tanto social y cultural como técnico. Desafortunadamente, dentro de las primeras 24 horas después de conectarnos, nos dimos cuenta de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de comentarios de Tay para que Tay respondiera de manera inapropiada. Como resultado, hemos desconectado a Tay y estamos haciendo ajustes.