Direkt zum Inhalt

„Artificial Intelligence and the Human“ - Interviews mit Dr. NAGAI & Dr. BÄCHLE

Das JDZB plant vom 11. bis 13. Mai 2022 eine Konferenz zum Thema „Artificial Intelligence and the Human – Cross-Cultural Perspectives on Science and Fiction“ in Zusammenarbeit mit dem Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) sowie der Universität Waseda. Nachfolgend ein Interview mit Dr. Thomas Christian BÄCHLE, Leiter des Forschungsprogramms „Die Entwicklung der digitalen Gesellschaft“ am HIIG, und Dr. NAGAI Yukie, Project Professor am International Research Center for Neurointelligence der Universität Tōkyō.

Herr Dr. BÄCHLE, wie beeinflussen sich kulturelle Darstellungen von Künstlicher Intelligenz (KI) und die tatsächliche konzeptionelle und technische Weiterentwicklung von KI gegenseitig?

Tatsächlich lassen sich diese beiden Bereiche gar nicht so klar voneinander unterscheiden. Zu Beginn einer technischen Entwicklung steht immer eine Idee, mindestens aber eine ungefähre Vorstellung davon, welche Funktion, welchen Nutzen oder – allgemeiner ausgedrückt – welche Bedeutung eine Technologie hat oder haben soll. Gerade bei Entwicklungen, die man gern „revolutionär“ nennt also solche, die vermeintlich kategorial neu sein sollen, lassen sich schnell Bezüge zu kulturellen Texten herstellen, die bestimmte Technologien antizipiert haben. Diese in der Fiktion sozusagen entwickelten und ausprobierten Konzepte werden übersetzt in wissenschaftliche Innovationen, Forschungs-und Entwicklungsziele. Sie nehmen ihre Inspiration auch aus der Populärkultur
wie zum Beispiel Comics, Film, Fernsehen. Gleichzeitig gehören aber auch die in der Politik, im Journalismus, in Religion oder Ethik diskutierten Aspekte über mögliche zukünftige Szenarien zu den Imaginationen, die um eine Technologie herum existieren.

Wie wirken sich diese Imaginationen und kulturellen Repräsentationen von KI wiederum auf politische und gesellschaftliche Diskurse über KI aus – beispielsweise in Japan und in Deutschland?

Sie haben die wichtige gesellschaftliche Funktion, mit KI assoziierte Hoffnungen, Chancen oder Gefahren möglichst vielen Menschen sichtbar und verständlich zu machen. Entscheidend ist dabei einen Debattenraum zu eröffnen. Die Imaginationen haben also nicht nur Einfluss auf Forschung und Entwicklung, sondern orientieren auch politische Entscheidungen, journalistische Berichterstattung oder die öffentliche Meinung. Sie sind damit nicht bloßes Entertainment, sondern immer wesentlicher und prägender Bestandteil der Realität von Technologien. Das gilt ganz besonders für KI, weil die damit assoziierte Technik als eine dem Menschen ähnliche, aber zugleich von ihm unabhängige und eigenständige Intelligenz imaginiert wird, die uns gleichgestellt oder sogar überlegen ist. Das regt natürlich die Fantasie an, in einem breiten Spektrum von Kooperation bis Konkurrenz, von KI als Lösung aller unserer Probleme bis zum befürchteten Untergang der Menschheit. Bei der länderspezifischen Betrachtung lassen sich Imaginationen da natürlich nicht unabhängig von bestimmten größeren Diskursen und Interessen begreifen. Die sogenannte „Japanese Robot Culture“ beispielsweise entspricht nicht nur dem Selbstverständnis vieler Entwickler und Unternehmen. Die japanische Regierung hat dieses Schlagwort gezielt als politisches Branding eingesetzt, das dem Wirtschaftsstandort nützlich sein soll. In Europa wird es bereitwillig aufgenommen: Was können wir von „den Japanern“ lernen? Vor welchen Entwicklungen in Japan müssen wir uns in Acht nehmen? Nach Vorträgen zu Robotern in Japan wird mir gern die Frage gestellt, ob wir pflegerische Arbeit an die kalte,
emotionslose Maschine delegieren sollen, wie das in Japan der Fall sein soll. Das ist eine Abgrenzungsgeste und erfüllt eine rhetorische Funktion. Roboter in Japan – die sind dann für Japaner und Europäer was Besonderes, und für beide Seiten erfüllt das seinen Zweck.

In Ihrer Forschung stellen Sie japanische und europäische Konzeptionen von menschenähnlichen Robotern gegenüber. Wie wird in den jeweiligen Diskursen „Menschlichkeit“ bei KI definiert, bzw. kristallisieren sich wesentliche konzeptionelle Unterschiede heraus?

Bei vergleichender Forschung muss man schon sehr aufpassen, nicht Geschichten über das exotische Land im fernen Osten weiterzuerzählen, gerade wenn man selbst mit europäischen Augen auf diese Phänomene blickt. Beliebt ist ja zum Beispiel, für das japanische Verhältnis zu technischen Artefakten immer den Shintoismus zu bemühen: Für die Japaner ist alles beseelt, da macht es dann keinen großen Unterschied ob Roboter oder Mensch. Diese holzschnittartige Betrachtung ist dann doch etwas einfach. Natürlich gibt es hier ganz eigene ideengeschichtliche Kontexte, und es lassen sich auch unterschiedliche Muster im Umgang mit Robotern erkennen. Neben den Imaginationen über Roboter wird dies auch in der Interaktion mit ihnen deutlich. Ein Entwickler hat mir einmal erzählt, dass es da doch schon einen Unterschied macht, wem er seine Roboter präsentiert. Während Personen aus Japan vor allem ein Vergnügen an der Interaktion mit der Maschine haben, wollen Europäer dem Roboter und seinem Entwickler möglichst schnell nachweisen, dass die Maschine doch nicht wirklich intelligent ist, kein Bewusstsein hat, nichts empfindet usw. Dieser Reflex hat sicherlich mit einem europäischen Verständnis darüber zu tun, wie der Mensch begriffen wird, nämlich als ein rationales, empfindungsfähiges, unteilbares, aber eben auch besonderes Individuum mit Autonomie und einzigartigem Bewusstsein. Viele in Europa formulierten Ängste und Unsicherheiten rühren vermutlich auch von diesem bestimmten Menschenbild her. Wenn man so möchte, ist die japanische Haltung da inklusiver, weniger auf die Einzigartigkeit des Menschen aus. Diese vielen Bedeutungsebenen sind eine große Herausforderung für die Forschung: Was meint KI in unterschiedlichen Kulturen? Welche Interpretationen werden ganz gezielt lanciert, und für wen erfüllen welche Bilder von KI welchen Nutzen? Das zu unterscheiden, ohne selbst kulturelle Unterschiede zu konstruieren, ist enorm schwierig.


Frau Dr. NAGAI, Sie forschen zur Kognition von Robotern und Menschen. Was genau ist Ihr Thema?

Ziel ist, das Entwicklungsprinzip menschlicher kognitiver Fähigkeiten zu verstehen und daraufhin ein Unterstützungssystem für Menschen mit Entwicklungsstörungen zu entwerfen. Ein Mensch erwirbt in den ersten Lebensjahren seine kognitiven Fähigkeiten, doch wie sich Gehirn und Körper diese aneignen, ist kaum bekannt. Im Gegensatz zur künstlichen Intelligenz (KI) ist die menschliche Intelligenz „open ended“. Kooperativ und kontinuierlich eignet sie sich kognitive Fähigkeiten an, was zu einer individuellen und kollektiven Diversität führt. Anhand eines Lernexperiments mit einem humanoiden Roboter, dem ein neuronales Schaltkreismodell des menschlichen Gehirns eingebaut war, habe ich nachgewiesen, auf welchem neuronalen Fundament diese Kontinuität und Diversität entstehen. Da die Unterstützung von Menschen mit Entwicklungsstörungen bislang nur auf empirischen Fakten basierend fallbezogen entwickelt wurde, könnte meine Forschung hier zum Einsatz kommen.

Wie hängen Kognition von Menschen und von Robotern zusammen? Welche Erkenntnisse haben Sie gewonnen?

Anhand prädiktiver Kodierungstheorie des Gehirns konnte ich die Entwicklung kognitiver Fähigkeiten als eine Einheit erklären. Das Gehirn ist eine „Vorhersagemaschine“, die prädikative Signale – die aus auf früheren Erfahrungen und Kenntnissen basierenden internen Modellen stammen – mit sensorischen Signalen kombiniert, wobei bestimmte kognitive Fähigkeiten zur Minimierung der Abweichung zwischen den beiden Signalen (Vorhersagefehler) wirken. Meine Annahme war, dass durch diesen Minimierungsprozess weitere kognitive Fähigkeiten wie Selbstwahrnehmung, Nachahmung oder altruistisches Verhalten erworben werden. Dies habe ich mit dem o. g. Roboterexperiment verifiziert. Ferner fand ich heraus, dass durch eine Unausgewogenheit bei der Kombination der beiden Signale Entwicklungsstörungen entstehen können. Diese Ergebnisse zeigen, dass Kontinuität und Diversität auf Grundlage der prädiktiven Kodierungstheorie als eine Einheit erklärbar sind und einen wichtigen Hinweis für künftige Entwicklungs(störungs)forschung darstellen.

Wie wird sich die Mensch-Roboter-Beziehung im Zuge des technologischen Fortschritts entwickeln?

Durch Entwicklung von KI und Robotern, die menschliche kognitive Fähigkeiten nachahmen, bekommen wir ein besseres Verständnis der menschlichen Intelligenz. In den späten 1990er Jahren war das Konzept der Neurodiversität weit verbreitet, wonach eine Entwicklungsstörung eine normale Veränderung des neuronalen Fundaments ist. Insbesondere Menschen mit Entwicklungsstörungen haben Probleme, ihre eigenen kognitiven Eigenschaften richtig zu verstehen. Wenn wir einen Roboter hätten, der sich wie ein Mensch entwickelt und lernt, könnten wir menschliche kognitive Eigenschaften reproduzieren und erfassen, und somit via Roboterintelligenz auch die menschliche Intelligenz verstehen. Wenn eine derartige KI-Technologie entwickelt wird, wäre eine symbiotische Mensch-Roboter-Gesellschaft realisierbar, in der jeder seine Individualität entfalten kann.

> Informationen zur Konferenz

Text aus der Ausgabe des jdzb echo Nr. 138, März 2022
Bild: Copyright KUSAMA Yayoi

Dr. Thomas Christian Bächle

Dr.
Thomas Christian
BÄCHLE

Profil der Autorin/des Autors

Thomas Christian BÄCHLE ist Medienwissenschaftler und leitet das Forschungsprogramm Die Entwicklung der digitalen Gesellschaft am Humboldt Institut für Internet und Gesellschaft (HIIG). Von Januar bis Oktober 2020 war er Research Fellow am Cognitive Science Lab der Waseda-Universität in Shinjuku, Tokio. In seinem Habilitationsprojekt arbeitet er an einer Medientheorie des humanoiden Roboters und vergleicht dazu japanische und europäische Deutungen der Künstlichen Intelligenz. Zu seinen Forschungsschwerpunkten zählen die Zusammenhänge zwischen Körper, Identität und Technologie, Mensch/Maschine-Interaktion und Interfaces, Robotik, affective computing, Simulationstechnologien, mobile Medien sowie Techniken und Praktiken der Überwachung. > HIIG Profil

 

Nagai Yukie

Dr.
NAGAI
Yukie

Profil der Autorin/des Autors

Dr. NAGAI Yukie erforscht zugrundeliegenden neuronalen Mechanismen für die soziale kognitive Entwicklung. Sie entwirft neuronale Netzwerkmodelle für Roboter, die auf der Grundlage der Theorie der prädiktiven Kodierung lernen, kognitive Funktionen wie Selbst-Andere-Kognition, Einschätzung der Absichten und Emotionen anderer, Altruismus etc. zu erwerben. Der von ihrer Gruppe entwickelte Simulator, der die atypische Wahrnehmung bei Autismus-Spektrum-Störungen (ASD) nachbildet, hat große gesellschaftliche Relevanz, da er Menschen mit und ohne ASD ermöglicht, mögliche Ursachen für soziale Schwierigkeiten besser zu verstehen. Sie wurde 2019 in die Liste der "30 Women in Robotics you need to know about" und 2020 in die Liste der "World's 50 Most Renowned Women in Robotics" aufgenommen. Seit Dezember 2016 bzw. Oktober 2021 ist sie die leitende Forscherin des JST CREST "Cognitive Mirroring" und CREST "Cognitive Feeling". > CDR Profil