Author Archives: isabellahermann

Science-Fiction auf dem KI Camp – mit Radio-Intervention

Auf dem KI-Camp des Bundesministeriums für Bildung und Forschung und der Gesellschaft für Informatik am 5. Dezember 2019 sprach ich passenderweise in einem kleinen Kino zur Darstellung von Künstlicher Intelligenz in der Science-Fiction – bzw. zur aktuellen Fehldeutung der in Filmen dargestellten bewussten Computersysteme und menschlichen Robotern.

Am Rande des KI-Camps gab es die Aufzeichnung der Deutschen Welle “New Peers Review” zum Thema Artificial Intelligence – zum Nachhören hier.

Stanley Kubrick auf dem VDE Hauptstadtforum

Am 25. November 2019 hielt ich die Keynote auf dem VDE Hauptstadtforum mit dem auf Stanley Kubricks “2001: A Space Odyssey” verweisenden Titel “It can only be attributable to human error”. Unten ein Ausschnitt aus der Event-Zusammenfassung, die sich hier komplett nachlesen lässt.

‘Nach der Begrüßung durch die Berliner VDE-Repräsentatin Sabine Schattke stellte die Politik-Wissenschaftlerin Dr. Isabella Hermann, die in der BBAW die Interdisziplinäre Arbeitsgruppe „Verantwortung: Maschinelles Lernen und Künstliche Intelligenz“ koordiniert, die Herausforderungen dar, die die Fortschritte der Künstliche Intelligenz an die Ethik der Forscher und Ingenieure sowie den Regulierungsbedarf durch die Politik stellen. Das Spannungsfeld zwischen Mensch und zunehmend autonom agierender Maschine hatte Frau Hermann unter ein Zitat aus dem Science Fiction-Film von Stanley Kubrick „2001- Odysee im Weltraum“ gestellt. „Es kann sich nur um einen menschlichen Fehler handeln“, diagnostiert darin der Supercomputer „Hal 9000“, als im Raumschiff ein technisches Problem auftritt. Da die Störung tatsächlich aber auf einer Fehlfunktion der Rechners beruht, agiert die Maschine mit ihrer verdrängenden Schuldzuweisung eher wie ein Mensch. KI-Spezialistin Hermann führte eine Reihe von Beispielen an, wie in der heutigen KI viele menschliche Annahmen stecken, die mitunter zu fatalen Ergebnissen führen. So etwa bei der Klassifizierung der Fotos von Menschen mit dunkler Hautfarbe als „Gorillas“, was letztlich auf einem zweideutigen Code der Programmierer beruhte, die „Menschen“ mit „weiße Hautfarbe“ gleichsetzten „Technik ist immer in einem sozialen Kontext eingebettet“, erklärte die BBAW-Referentin.’

AI, Art and Nature

Am 4. November 2019 ko-moderierte ich das Event “AI, Art and Nature” der Berlin-Brandenburgischen Akademie der Wissenschaften. Wir luden die KI-Künstler Anna Dumitriu, Alex May und Peter Freund ein (auch Adam Harvey, der leider wegen einer Erkrankung nicht teilnehmen konnte), um mit den Medien- und Kunstwissenschaftlern Nausikaä El-Mecky, Ingeborg Reichle und Thomas Bächle ins Gespräch zu kommen. Dafür wählten wir ein dynamisches Konzept von Break-Out-Sessions, die in verschiedenen Konstellation immer wieder einen anderen Künstler mit einem anderen Wissenschaftler zusammenbrachten

Isabella Hermann, Peter Freund, Alex Max, Anna Dumitriu, Friederike Krippner (v.l.n.r.)

Im Deutschlandfunk Kultur sprach ich im Interview vor der Veranstaltung.

Nausikaä El-Mecky, Peter Freund, Isabella Hermann (v.l.n.r.)

KI und Ethik auf dem ASQF Quality Day

Beim 6. Quality Day des Arbeitskreises Software-Qualität und -Fortbildung e.V. (ASQF), der beim Fraunhofer Fokus am 19. November 2019 in Berlin stattfand, sprach ich über KI und Ethik. Fazit: Inhärent ethische Maschinen gibt es nicht, weil Ethik zu komplex ist, um sie “von” oben in Maschinen zu programmieren oder “von unten” durch Mustererkennung aus Daten zu “erlernen”. Im Nachgang gab ich dem SQ Magazin ein Interview zu KI und Verantwortung.

Weltraumutopien auf dem Science&Fiction Festival in München

Am 19. Oktober 2019 war ich auf dem Science&Fiction Festival von Ronit Wolf ins Deutsche Museum nach München für meinen ersten Science Slam eingeladen – das Thema: “Dare Utopia Outer Space” über die Möglichkeiten und Unmöglichkeiten utopischer Vorstellungen in Science-Fiction-Filmen im Weltraum…

Auch in ferner utopischer Zukunft geben ältere weiße Männer im Erstkontakt mit Außerirdischen den Ton an 😉

Künstliche Intelligenz*innen

Am 10. Oktober 2019 gab ich einen Impuls zu KI und Ethik auf der Veranstaltung „Künstliche Intelligenz*innen – Die Vorurteile der lernenden Maschine” des Futuriums zusammen mit dem Weizenbaum Institut. In verschiedenen Vorträgen und Performances ging es um Diskriminierung und Bias von KI-Systemen. Auf der Website des Bundesministeriums für Bildung und Forschung gibt es eine Zusammenfassung der Veranstaltung.

Mankind is no longer alone…

Im Philosophieblog praefaktisch.de veröffentlichte ich meinen Beitrag “Mankind is no longer alone – Über den Sinn und Unsinn der Asimov’schen Roboter-Gesetze”. Dort lege ich dar, dass Asimovs berühmte drei bzw. vier Grundregeln keine Orientierung für den ethischen Einsatz von Künstlicher Intelligenz oder Roboter geben können, weil die Gesetze in den Robotergeschichten gerade nicht funktionieren – sie sind ein erzählerisches Mittel für spannende Geschichten.

DFG Future Research

Am 1. Oktober hielt ich eine Key Note auf dem Future Research Workshop der Deutschen Forschungsgesellschaft (DFG) in Berlin über das Thema “Was uns Science-Fiction über internationale Politik verrät”.

Mit vielen Filmausschnitten zeigte ich zum Beispiel wie der Film “Valerian and the City of a Thousand Planets”, der recht poppig und modern daher kommt, eher rückwärtsgewandt als progressiv ist und überkommene Wertvorstellungen weiterträgt. Die zukünftige Kooperation mit vielen verschiedenen Alienrassen klappt nur, weil sich diese einem weißen Patriarchat unterordnen – rassistisches Gedankengut wird durch eine Hierarchie kultureller Unterschiede ersetzt.

… und es schloss sich eine kleine Twitter-Diskussion über die Definition von Science-Fiction und Fantasy an…

https://twitter.com/Kai_Gaertner/status/1182038502361505792

Science-Fiction und KI auf dem DHZB Lange Symposium

Auf dem DHZB Lange Symposium 2019 des Deutschen Herzzentrums am 21./22. September hielt ich eine Keynote zum Thema Künstliche Intelligenz in der Medizin am Beispiel von Science-Fiction-Filmen. Insbesondere verwendete ich die in der Science-Fiction häufig gebrauchte Trope der “Autonomous Medical Pods” um an Filmbeispielen zu zeigen, dass es sich um eine metaphorische Darstellung von menschlichem Wunschdenken handelt, und nicht um den realen Entwicklungsstand der Technik.