#lernendes System

Wie Microsofts Chatbot Tay rassistisch wurde

Vor kurzem beklagte sich Microsoft noch darüber, dass ihre virtuelle persönliche Assistentin Cortana sexuell belästigt wird. Nun hat der Software-Konzern einen Chatbot entwickelt, der damit gar kein Problem hat. Tay, so der Name der neuen A.I., flirtet mit dem User und nimmt kein Blatt vor den Mund. Leider wurde Tay von ihren Nutzern aber binnen weniger Stunden nach dem Release auf rassistische Äußerungen trainiert, sodass das System wieder vom Netz genommen wurde.

X
- Gib Deinen Standort ein -
- or -