Quantcast
Channel: Themen - Paules-PC-Forum.de
Viewing all articles
Browse latest Browse all 42347

Microsofts Chat-Bot "Tay" abgeschaltet: KI wurde zum Frauenfeind und Nazifreund

$
0
0
Microsofts Chat-Bot "Tay" abgeschaltet: KI wurde zum Frauenfeind und Nazifreund

Microsoft sah sich gezwungen seinen Chat-Bot "Tay", der neben anderen sozialen Netzwerken auch auf Twitter vorgestellt wurde, in weniger als 24 Stunden wieder abzuschalten.
Die auf jugendlich getrimmte Künstliche Intelligenz sollte von ihren Nutzern eigentlich soziales Verhalten lernen und sich daraufhin autonom weiterentwickeln.
Laut Microsoft führte jedoch eine "koordinierte Anstrengung zum Missbrauch" in eine andere Richtung.
Entweder durch einfaches Nachplappern oder auch durch gezielte Suggestivfragen der Nutzer kam "Tay" daraufhin unter anderem zu Aussagen wie: "Feministinnen sollen in der Hölle schmoren" oder "Hitler hatte recht".

Quelle

Viewing all articles
Browse latest Browse all 42347