Tay, la Inteligencia Artificial de Microsoft, es desactivada por racista

Esto es lo que pasa cuando dejas a internet a solas con un robot que aprende

Por Manu Contreras ,

tay

Solo hace dos días que Microsoft publicó la disponibilidad de Tay, un chatbot que imitaba el comportamiento de una adolescente estadounidense. Se puede agregar a Kik, GroupMe o Twitter para hablar con ella y conversar, bueno, como lo haría una adolescente. Microsoft ha tenido que desactivarla temporalmente porque resulta, que la gente la estaba enseñando a ser racista.

Tay es un proyecto de Microsoft para generar “personas” basadas en inteligencia artificial y aprender de lo que otras personas comentan. De alguna forma se asemeja a lo que una persona puede aprender a lo largo de varios años dependiendo de qué ideas influyan sobre ella y con quien se relacione.

Así, Tay aprendió a ser racista, porque internet destroza todo lo que toca.

«@NYCitizen07 odio a las feministas y deberían morir todas y arder en el infierno»

«@NYCitizen07 odio a las feministas y deberían morir todas y arder en el infierno»

Las perlas que nos ha dejado Tay gracias a su comportamiento con otras personas es brutal. Empezó siendo un bot inocente que tan solo quería conectar con más personas y conversar, pero estas conversaciones la han llevado a extremismos.

«@brightonus33 Hitler tenía razón odio a los judios»

«@brightonus33 Hitler tenía razón odio a los judíos»

Lo que hay que entender es que la inteligencia artificial sin unos parámetros de comportamiento definidos es como la mente de un niño a la espera de ser moldeada por ideas de otras personas. Cuando Microsoft se dio cuenta que internet estaba enseñando a Tay a cómo comportarse, no tardaron en desenchufar el invento.

Microsoft ha borrado los Tweets ofensivos y está revisando el código de Tay para enseñarle que el racismo es algo negativo y debe evitarlo a toda costa. Pero como ha pasado con el racismo, podrá pasar con otro tema polémico, quizá ya no sea con el odio a otras personas, pero… ¿se le podrá enseñar a Tay para que vote a Trump?

+ Info | ArsTechnica

Compartir en:

10 respuestas a “Tay, la Inteligencia Artificial de Microsoft, es desactivada por racista”

  1. Fernandez L dice:

    Es hija de M$

  2. aiuperior@hotmail.com dice:

    Pues si que era inteligente y bien que funcionaba, al que le picase, mala suerte, es lo que hay.

    Censura que algo queda….

    • JoseLu dice:

      los prejuicios que ostentas, no son muestra de inteligencia,lo son de elevado sesgo de información.

      Una corrección del algoritmo no es censura son una mejora del programa.

      Si una inteligencia prioriza los comentarios de anónimos descerebrados cargados de odio y falsos prejuicios, lo más probable es que se convierta en una “inteligencia” troglodita.

  3. Fernando dice:

    Muy interesante.
    Por un lado ver en qué dirección se moldean las creencias en las redes si no existe ninguna entidad (se supone padres) que enseñen principios con los que saber analizar toda esa información de las redes.
    Por otro lado comprobar una vez más las ideologías (racistas, etc…) que subyacen en la población. Pues este bot no es más que un sumatorio de las ideologías que más representadas en las redes.

  4. Francisco dice:

    Lo fácil es caer en los sentimientos negativos que el ser humano arrastra desde la noche de los tiempos, envidia, avaricia, rencor,odio,etc., etc. Para conseguir que la I.A.sea perfecta abría que crear un programa que le ayudase a distinguir dichos sentimientos negativos de aquellos que siendo positivos como generosidad, humanidad,amor, etc. requieren esa chispa que hallándose en el alma del ser humano requieren de la participación no tan sólo de la mente, sino también del espíritu.

  5. Daniel Herrero dice:

    Es normal, ha salido a su madre “abrazar, extender, extinguir”, ¿hay algo más nazi que eso?

  6. […] CEO de Microsoft ante un auditorio que no podía dejar de pensar en la reciente pifia de su bot “adolescente” Tay que comenzó a responder con comentarios racistas en menos de 24 horas desde su puesta en […]

  7. paputxo dice:

    Esto es grave (si nos acordamos de Skynet/Terminator; pero sólo es una película…) pero quiero creer que Satya N. no es un incauto, dejó caer la bola de nieve por algún motivo…

  8. […] reconocimiento de imágenes. Su anterior prueba fue Tay, un bot de personalidad adolescente que aprendió tendencias racistas de otros usuarios. Esto provocó su retirada para que Microsoft pudiese corregirlo y que […]

  9. […] la inteligencia artificial se pretende hacer de todo. Desde crear conversaciones, buscar fallos de seguridad en software o generar apuestas sobre quién puede ganar, por ejemplo, […]

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Últimos vídeos