Bis uns intelligente Maschinen sagen, wo es lang geht oder gar versklaven, ist es noch ein sehr weiter Weg.  Was KI (meist eher einfaches maschinelles Lernen) aber kann: Schon bei simplen Dingen für Chaos sorgen.

Aber wenn man die KI unbewacht drauflosplappern lässt, kann das fatal enden.

So erging es gerade Adidas.

Adidas baut einen Antisemiten

Das ist passiert: Adidas ermunterte die Nutzer, den Hashtag #DareToCreate zu twittern, der dann, Künstliche Intelligenz sei Dank, über den Adidas-Account ein Foto des neuen Trikots zeigte, samt Twitter-Namen der Nutzer. Das aber missbrauchten Nutzer mit Namen wie @GasAllJewss“ oder „Unschuldiger Hitler“. Adidas entschuldigte sich und stoppte die Aktion.

Die Rassisten-KI von Microsoft

Auch ein selbstlernendes Chatprogramm von Microsoft benahm sich einst daneben. Tay sollte lernen wie Teenager reden und zwanglose und spielerische Gespräche auf Twitter führen. Doch Nutzer fluteten den Bot mit rassistischen, frauenfeindlichen und antisemitischen Tweets – der sich dadurch völlig daneben benahm. Microsoft schaltete Tay schleunigst ab.

Facebook-Bots entwickeln Geheimsprache

Facebook musste seine Chatbots „Bob“ und „Alice“ abschalten, als das Duo anfing, in ihrer eigenen Sprache zu kommunizieren und sich den von Menschen erzeugten Algorithmen zu widersetzen.

Die Rassisten-KI von Microsoft

Auch ein selbstlernendes Chatprogramm von Microsoft benahm sich einst daneben. Tay sollte lernen wie Teenager reden und zwanglose und spielerische Gespräche auf Twitter führen. Doch Nutzer fluteten den Bot mit rassistischen, frauenfeindlichen und antisemitischen Tweets – der sich dadurch völlig daneben benahm. Microsoft schaltete Tay schleunigst ab.

Facebook-Bots entwickeln Geheimsprache

Facebook musste seine Chatbots „Bob“ und „Alice“ abschalten, als das Duo anfing, in ihrer eigenen Sprache zu kommunizieren und sich den von Menschen erzeugten Algorithmen zu widersetzen.

Tay von Microsoft war anfällig für suggestive Tweets.

Alexa verhört sich

Legendär ist die Alexa-Panne bei der Amazons Echo in den USA unfreiwillige Puppenhaus-Bestellungen auslöste, weil ein Nachrichtensprecher zur Reportage über ein kleines Mädchen sagte: „Ich liebe dieses kleine Mädchen, wie sie sagt ‚Alexa hat mir ein Puppenhaus bestellt'“.

Alexa kauft selbstständig Puppenhaus

Fast schon harmlos waren dagegen spontane Lacher des Sprachassistentin, die etliche Nutzer gruseln ließen. Alexa dachte, es hätte „Alexa  lache“ gehört.

Polizeieinsatz dank Alexa

Aus der Reihe „Immer Ärger mit Alexa“ stammt auch der deutsche Polizeieinsatz in einer Novembernacht. Die drang in eine Wohnung ein, nachdem die Nachbarn laute Musik gemeldet hatten. Die Ursache? Keine Party, sondern ein Amazon Echo, das zufällig Musik machte, während der Bewohner nicht da war. Nicht immer aber ist Alexa verantwortlich. Manchmal ist auch einfach der Papagei ganz smart.

Letztlich aber ist der Begriff Künstliche Intelligenz für all diese Dinge weit übertrieben. Es sind – manchmal – clevere Algorithmen und lernende Maschinen mit  von Menschen programmierten  Handlungsrezepten, die mehr  – oder eben weniger gut und lückenhaft – zusammengeschrieben wurden.

Hinterlassen Sie eine Antwort