web analytics

Tay, la Inteligencia Artificial de Microsoft, es desactivada por racista

Esto es lo que pasa cuando dejas a internet a solas con un robot que aprende

Por Manu Contreras ,

tay

Solo hace dos días que Microsoft publicó la disponibilidad de Tay, un chatbot que imitaba el comportamiento de una adolescente estadounidense. Se puede agregar a Kik, GroupMe o Twitter para hablar con ella y conversar, bueno, como lo haría una adolescente. Microsoft ha tenido que desactivarla temporalmente porque resulta, que la gente la estaba enseñando a ser racista.

Tay es un proyecto de Microsoft para generar “personas” basadas en inteligencia artificial y aprender de lo que otras personas comentan. De alguna forma se asemeja a lo que una persona puede aprender a lo largo de varios años dependiendo de qué ideas influyan sobre ella y con quien se relacione.

Así, Tay aprendió a ser racista, porque internet destroza todo lo que toca.

«@NYCitizen07 odio a las feministas y deberían morir todas y arder en el infierno»

«@NYCitizen07 odio a las feministas y deberían morir todas y arder en el infierno»

Las perlas que nos ha dejado Tay gracias a su comportamiento con otras personas es brutal. Empezó siendo un bot inocente que tan solo quería conectar con más personas y conversar, pero estas conversaciones la han llevado a extremismos.

«@brightonus33 Hitler tenía razón odio a los judios»

«@brightonus33 Hitler tenía razón odio a los judíos»

Lo que hay que entender es que la inteligencia artificial sin unos parámetros de comportamiento definidos es como la mente de un niño a la espera de ser moldeada por ideas de otras personas. Cuando Microsoft se dio cuenta que internet estaba enseñando a Tay a cómo comportarse, no tardaron en desenchufar el invento.

Microsoft ha borrado los Tweets ofensivos y está revisando el código de Tay para enseñarle que el racismo es algo negativo y debe evitarlo a toda costa. Pero como ha pasado con el racismo, podrá pasar con otro tema polémico, quizá ya no sea con el odio a otras personas, pero… ¿se le podrá enseñar a Tay para que vote a Trump?

+ Info | ArsTechnica

Puedes seguirnos en Twitter, Facebook y en Instagram.

Compartir en:

  • Fernandez L

    Es hija de M$

  • aiuperior@hotmail.com

    Pues si que era inteligente y bien que funcionaba, al que le picase, mala suerte, es lo que hay.

    Censura que algo queda….

    • JoseLu

      los prejuicios que ostentas, no son muestra de inteligencia,lo son de elevado sesgo de información.

      Una corrección del algoritmo no es censura son una mejora del programa.

      Si una inteligencia prioriza los comentarios de anónimos descerebrados cargados de odio y falsos prejuicios, lo más probable es que se convierta en una “inteligencia” troglodita.

  • Fernando

    Muy interesante.
    Por un lado ver en qué dirección se moldean las creencias en las redes si no existe ninguna entidad (se supone padres) que enseñen principios con los que saber analizar toda esa información de las redes.
    Por otro lado comprobar una vez más las ideologías (racistas, etc…) que subyacen en la población. Pues este bot no es más que un sumatorio de las ideologías que más representadas en las redes.

  • Francisco

    Lo fácil es caer en los sentimientos negativos que el ser humano arrastra desde la noche de los tiempos, envidia, avaricia, rencor,odio,etc., etc. Para conseguir que la I.A.sea perfecta abría que crear un programa que le ayudase a distinguir dichos sentimientos negativos de aquellos que siendo positivos como generosidad, humanidad,amor, etc. requieren esa chispa que hallándose en el alma del ser humano requieren de la participación no tan sólo de la mente, sino también del espíritu.

  • Daniel Herrero

    Es normal, ha salido a su madre “abrazar, extender, extinguir”, ¿hay algo más nazi que eso?

  • Pingback: Microsoft asegura que los bots serán las apps del futuro | Clipset()

  • paputxo

    Esto es grave (si nos acordamos de Skynet/Terminator; pero sólo es una película…) pero quiero creer que Satya N. no es un incauto, dejó caer la bola de nieve por algún motivo…

  • Pingback: CaptionBot, el bot de Microsoft que describe fotos… con más o menos acierto | Clipset()

  • Pingback: La Inteligencia Artificial MogIA predijo la victoria de Trump… y las de Obama | Clipset()