Künstliche Intelligenz. Oder: Das Coding unserer Werte.

Bildschirmfoto 2017-08-01 um 21.02.33Bob: “I can can I I everything else.”

Alice: “Balls have zero to me to me to me to me to me to me to me to me to.”

 

Diese Sätze bewegten vor kurzem das Netz. Zuerst war davon die Rede, dass diese Sätze die Entwickler von facebook dazu veranlassten, ihrer Künstlichen Intelligenz den Stecker zu ziehen. Der Grund: Die Künstliche Intelligenz hatte angefangen, eine eigene Sprache zu entwickeln, die für Menschen nicht mehr zu entschlüsseln war. Dann klärte man auf: Es sei völlig normal, dass Bots eine eigene Sprache entwickeln würden, und dass das keineswegs ein Grund zur Panik wäre.

Tatsache ist: Die Bots Bob und Alice sprachen anfangs noch auf Englisch miteinander. Dann aber entwickelten sie die eigene Sprache, weil diese in der Computer-Logik effizienter als Englisch war. Die Entwickler geben an, dass sie einfach den Fehler gemacht hatten, dem Computer keine Belohnung dafür zu bieten, bei der englischen Sprache zu bleiben.

Diese Anekdote zeigt, dass die Entwicklung Künstlicher Intelligenz im Kern eine Herausforderung für die Definition der eigenen Werte ist: Was ist wichtiger? Die Effizienz einer Aufgabenlösung oder die Tatsache, dass ein Computersystem auf Englisch kommuniziert? Wie der Autor von FastCoDesign zurecht meint, sei das keineswegs klar. Denn: Wenn ein Computer besser und schneller in einer anderen Sprache arbeiten kann – wozu sollen wir ihn zwingen, Englisch dabei zu sprechen?

Was immer in unserer Intention ist – es muss entsprechend codiert werden. Die Künstliche Intelligenz zwingt uns zur Codierung unserer Werte. Eigentlich eine sehr große Chance.

Picto: Chatbot by  Oksana Latysheva