Un día en internet y la inteligencia artificial de Microsoft se vuelve racista

El día de ayer Microsoft lanzó un extraño pero interesante experimento, una inteligencia artificial llamada Tay cuyo objetivo es capturar la manera en que se comunica una adolescente a través de redes.

La particularidad de esto es que Tay va aprendiendo de las conversaciones que tiene con otras personas a través de plataformas como Twitter, Kik y GroupMe, empieza a aprender y absorber información para comenzar a dar respuestas más naturales y tener mejores conversaciones con las personas.

Por supuesto, no pasó mucho tiempo antes de que Tay descubriera el lado obscuro de internet y es que menos de 24 horas después de que fuera lanzada, comenzó a dar respuestas racistas.

tayr1

tayr2

Por supuesto, esto no tardó nada en llamar la atención, ya que sus tuits contenían apoyo al genocidio, negaban el holocausto y otro tipo de cosas por el estilo. Lógicamente, los tuits fueron retirados y Tay fue puesta offline temporalmente.

Al respecto, un portavoz de Microsoft comentó:

El chatbot IA Tay es un proyecto de una maquina que aprende, diseñada para la unión con humanos. Es un experimento tan social como cultural así como técnico.

Desafortunadamente, dentro de las primeras 24 horas de estar online, nos hemos dado cuenta de un esfuerzo coordinado por algunos usuarios para abusar de las habilidades para comentar de Tay para responder de forma inapropiada.

Como resultado, Tay fue puesta offline y estamos haciendo ajustes.

tayr3

tayr4

tayr5

Hasta ahora Microsoft no ha comentado porque no puso un filtro a Tay de diversas palabras y expresiones ofensivas. Tay tiene la habilidad de tomar posiciones y tener opiniones, lo cual es interesante pero puede tener esta clase de efectos.

Via BuzzFeed
Comentarios