Microsofts Chat-Bot "Tay" abgeschaltet: KI wurde zum Frauenfeind und Nazifreund
Microsoft sah sich gezwungen seinen Chat-Bot "Tay", der neben anderen sozialen Netzwerken auch auf Twitter vorgestellt wurde, in weniger als 24 Stunden wieder abzuschalten.
Die auf jugendlich getrimmte Künstliche Intelligenz sollte von ihren Nutzern eigentlich soziales Verhalten lernen und sich daraufhin autonom weiterentwickeln.
Laut Microsoft führte jedoch eine "koordinierte Anstrengung zum Missbrauch" in eine andere Richtung.
Entweder durch einfaches Nachplappern oder auch durch gezielte Suggestivfragen der Nutzer kam "Tay" daraufhin unter anderem zu Aussagen wie: "Feministinnen sollen in der Hölle schmoren" oder "Hitler hatte recht".
Quelle
Microsoft sah sich gezwungen seinen Chat-Bot "Tay", der neben anderen sozialen Netzwerken auch auf Twitter vorgestellt wurde, in weniger als 24 Stunden wieder abzuschalten.
Die auf jugendlich getrimmte Künstliche Intelligenz sollte von ihren Nutzern eigentlich soziales Verhalten lernen und sich daraufhin autonom weiterentwickeln.
Laut Microsoft führte jedoch eine "koordinierte Anstrengung zum Missbrauch" in eine andere Richtung.
Entweder durch einfaches Nachplappern oder auch durch gezielte Suggestivfragen der Nutzer kam "Tay" daraufhin unter anderem zu Aussagen wie: "Feministinnen sollen in der Hölle schmoren" oder "Hitler hatte recht".
Quelle