Künstliche Intelligenz (KI) verspricht vieles – auch für Menschen mit Behinderungen. Doch die Verbindung zwischen Technologie und Behinderung birgt problematische Annahmen. Der Artikel beleuchtet die Herausforderungen des "Techno-Ableismus" und wie betroffene Communities dem entgegenwirken.

Künstliche Intelligenz (KI) gehört spätestens seit ChatGPT zum gesellschaftlichen Alltag. Von Suchanfragen bis hin zu Beiträgen auf Podiumsdiskussionen begleitet KI als neue Technologie die Lebenswelt vieler Menschen. Dabei gilt diese Technologie bereits jetzt als Heilsversprechen für behinderte Menschen. Ob als Emotionserkennungs- und Regulationstool für Autist*innen oder etwa in der Diagnostik von Hautkrebs bis hin zur Behandlung von Depression. Im Feld der Nutzung von KI durch behinderte Menschen ist sogar ein eigener Terminus entstanden: assistierende Technologie.
Wem assistiert Google Maps nicht bei der Navigation?
Und hier fangen die Problematiken an, denn nicht nur der Name ist irreführend. Assistierende Technologie beschreibt im KI-Bereich eine Technologie, welche den behinderten Menschen hilft, alltägliche Dinge zu tun, wie z. B. schreiben, sprechen oder auch nur eine barrierearme Route durch den Stadtverkehr zu finden. So weit, so klar. Doch es wird schnell paternalistisch. Denn wo liegt der Unterschied zur Techniknutzung durch nicht behinderte Menschen? Wen assistiert Google Maps nicht bei der Navigation? „Assistiv“ deutet hier schon auf zwei ableistische Grundannahmen innerhalb der Beziehung zwischen KI und Behinderung hin, nämlich:
- Behinderte Menschen brauchen / benutzen andere Technik, als nicht behinderte Personen, weil sie, so die Annahme, im Gegensatz zu nicht behinderten Menschen individuellen Assistenzbedarf hätten.
- Diese Technologien würden behinderten Menschen assistieren. Folglich machen sie behinderte Menschenzu passiven Objekten, anstatt sie als Nutzer*innen und auch Produzent*innen dieser Technologien sichtbar werden zu lassen.
In diesem Artikel soll es deshalb um die spezifische Verbindung von Behinderung und KI gehen, vor allem um die dahinterliegenden Machtverhältnisse. Dafür soll zuerst in das grundlegende Konzept des Techno-Ableismus eingeführt werden und auf spezifische Beispiele dieser Diskriminierungsform im KI-Kontext eingegangen werden. Anschließend wird auch auf die community-orientierten Gegenstrategien eingegangen. Denn behinderte Communitys entwickeln widerständige Praxen für gerechtere Technologien für alle, die helfen, KI demokratischer zu denken und zu produzieren als bisherige Versuche.
Techno-Ableismus
Ableismus beschreibt eine Diskriminierung von behinderten Personen, die unbewusst oder bewusst geschehen kann. Diese Diskriminierung strukturiert unsere Welt. Ableismus spiegelt sich beispielsweise in Architektur wider, wenn es keine Rampen oder nur Treppen in öffentlichen Gebäuden gibt. Dabei erhält Ableismus den Status quo und verfestigt die Exklusion behinderter Menschen durch etablierte soziale Normen, wie z. B. dem Sonderschulsystem in Deutschland.
Techno-Ableismus verfestigt somit die Prämisse, dass Behinderung etwas Unerwünschtes ist und behoben gehört.
Eine spezifische Form ist dabei der Techno-Ableismus. Laut der Soziologin Ashley Shew ist die Grundannahme hinter Techno-Ableismus, dass behinderte Menschen durch Technik empowert werden. Dabei wird Behinderung jedoch zu einem Problem stilisiert, welches sich durch Technologie angeblich lösen lässt. Techno-Ableismus verfestigt somit die Prämisse, dass Behinderung etwas Unerwünschtes ist und behoben gehört. Dazu kommen ableistische Rahmenbedingungen, wie z. B. fehlende diverse Design-Teams bzw. keine behinderten Menschen in Design-Teams. (vgl. Shew 2020)
In Bezug auf KI können dabei zwei herausstechende techno-ableistische Motive ausgemacht werden: Erstens die ableistische KI an sich und zweitens die Gleichsetzung von Behinderung und Alter in Bezug auf KI.
Ableistische KI
„KI ist diskriminierend.“ Diese Aussage wird von verschiedensten Wissenschaftler*innen bestätigt, insbesondere wenn es sich um Fälle von rassistischer, sexistischer und transphober Diskriminierung handelt. So fanden beispielsweise Joy Buolamwini und Timnit Gebru in einer vielbeachteten Studie mit dem Titel „Gender Shades“ heraus, dass automatisierte Gesichtserkennungsanwendungen schwarze Frauen signifikant schlechter klassifizieren als weiße Männer (vgl. Buolamwini & Gebru 2018).
Diese Diskriminierung entspringt dabei der sozio-technischen Funktionsweise von KI, also dem Zusammenspiel von menschlichen Design-Entscheidungen und mathematischen Grundlagen von KI.
Moderne KI beruht auf maschinellem Lernen, einem statisch geführten Verfahren, welches aufgrund großer Datenmengen Muster herausfiltert. Im Beispiel der Gesichtserkennungs-Software wird die Anwendung also mit sehr vielen Bildern von menschlichen Gesichtern gefüttert, um diese dann im tatsächlichen Anwendungsfall zu „erkennen“. Oftmals sind die verwendeten Datensets jedoch sehr homogen und enthalten überproportional häufig Bilder von weißen Menschen und Männern im Vergleich zu BIPoC, Transpersonen und Frauen. Dadurch etabliert sich ein Standard, der dazu führt, dass weiße Männer einfacher in großen Datensets entdeckt werden, da die KI auf sie trainiert ist. Eine große Forderung von feministischen Datenwissenschaftler*innen ist deshalb, diversere Datensets zu implementieren, damit der etablierte Standard eben auch andere Bevölkerungsgruppen abdeckt. In Bezug auf Behinderung fehlen solche flächendeckenden Untersuchungen (vgl. D'Ignazio & Klein 2020).
Die erste Untersuchung zeigte, dass das Fahrzeug die rollstuhlfahrende Person überfahren würde.
Oftmals ist der Ansatz von diverseren Datensets gerade in Bezug auf Behinderung auch keine praktische Lösung für Techno-Ableismus. Ein prominentes Beispiel ist die smarte Software für selbstfahrende Autos. Die Wissenschaftlerin Jutta Treviranus untersuchte beispielsweise eine dieser Anwendungen und erprobte, inwiefern automatisierte Fahrzeuge auf nicht erwartbare Daten wie Fußgänger*innen und eine rückwärtsfahrende Person im Rollstuhl reagieren. Die erste Untersuchung zeigte, dass das Fahrzeug die rollstuhlfahrende Person überfahren würde. Daraufhin trainierte die Forscherin die Anwendung mit mehr Daten von rückwärts im Rollstuhl fahrenden Personen. Dabei kam jedoch heraus, dass je mehr diverse Daten das Programm bekam, desto eher fuhr das autonome Auto in der Simulation die behinderte Person um. Hier führten diversere Daten zu einer Etablierung eines Standards, der auf nicht rollstuhlfahrende Personen ausgelegt war. Das liegt daran, dass KI, wenn sie auf statistischen Modellen beruht, statistische Ausreißer (in diesem Fall die behinderte Person) herausrechnet.
Hier wird die strukturelle Dimension von Techno-Ableismus deutlich. Es geht nicht nur darum, Artefakte diverser oder inklusiver zu gestalten. Da ihre Grundlagen bzw. statistischen Modelle inhärent ableistisch sind, müssen hingegen diese grundlegend verändert werden, um behinderten Menschen nicht zu schaden, sondern ihnen auch nützlich zu sein (vgl. Whittaker et al. 2019).
Behinderung = Alt sein
Eine wichtige Trope rund um Behinderung und KI betrifft vor allem die Verbindung von Alter und Behinderung. Dies erscheint sinnvoll, da jede Person mit dem Alter immer wahrscheinlicher eine altersbedingte Behinderung erfährt, sei es z. B. durch Herzschäden, Mobilitätseinschränkungen oder geistige Verfasstheit. Dabei soll KI im Falle der digitalen Transformation den demografischen Wandel begleiten. KI kann beispielsweise in Pflegerobotern verarbeitet werden (und wird es bereits), um älteren Menschen Einsamkeitsgefühle zu nehmen oder sie geistig anzuregen, wie z. B. der Pflegeroboter Paro, der als niedliche Robbe bei demenzkranken Menschen eingesetzt wird. Zudem soll KI auch den Pflegenotstand beheben und Pflegeroboter könnten die Heimüberwachung ermöglichen, sodass alte Menschen kostengünstig und mit weniger menschlicher Arbeitskraft versorgt werden könnten (vgl. Shew 2020).
Behinderung wird so zu einem individuellen Problem und nicht zu einem politischen Thema.
Hierbei spielen mehre technoableistische Narrative eine Rolle. Behinderung wird mit einer Last gleichgesetzt, die es zu verringern gilt. Die Lösung wird auf der individuellen Ebene der betroffenen Person gesucht, indem diese Person technisch versorgt wird, anstatt gesellschaftliche Veränderung im Pflegebereich wie bessere Bezahlung, Arbeitszeitreduzierung, bessere Versicherungsleistung etc. umzusetzen. Behinderung wird so zu einem individuellen Problem und nicht zu einem politischen Thema.
Dabei wird Behinderung als eine Kategorie missbraucht, die Menschen unabhängig ihrer gesellschaftlichen Lebensrealität gleichsetzt. So brauchen 14-jährige behinderte Personen höchstwahrscheinlich keinen Paro-Roboter sondern Applikationen, die beim Bewältigen pubertärer Veränderungen helfen. Auch ein Mehr an Privatheit kann für jugendliche behinderte Menschen vorteilhaft sein. Dies gilt besonders, wenn sie im Sonderschulheimsystem untergebracht sind und oftmals wenig Privatsphäre oder sexuelle Selbstbestimmung genießen können. Verschärft wird die Situation zusätzlich, wenn sie beispielsweise auf Assistenz angewiesen sind und sich das Geschlecht dieser Personen auf Grund von Personalmangel nicht aussuchen können. Hierbei müsste KI andere Bedürfnisse erfüllen als sie beispielsweise ältere, isolierte behinderte Personen haben. Doch mit einer Gleichsetzung geraten gerade junge behinderte Menschen aus dem Bewusstsein der Entwickler*innen von KI und erleben Technik, die nicht für sie, sondern für Menschen, die mindestens zwei Generationen älter sind, designt wurde.
Crip counter Hacking
Dennoch haben behinderte Menschen ein ambivalentes Verhältnis zu Technologie, da sie uns auch am Leben hält und wichtige Innovationen wie bessere Insulingeräte, automatische Rollstühle und tragbare Beatmung ermöglicht. In der behinderten Aktivist*innen-Community gibt es deshalb seit Jahrzenten eigenständige Hacking- und Tinkering-Praktiken, die Technologien sowohl an gelebte behinderte Realitäten anpassen als auch oftmals kostenfrei zugänglich sind bzw. das Wissen für die Hacks von Technologien kostenfrei zugänglich machen.
Im Fokus steht dabei immer ein emanzipatorischer Gedanke, der es ermöglicht, sich als Community und somit als politische Subjekte zu organisieren
So nutzte etwa die schwarze Sozialarbeiterin und Aktivistin Vilissa Thompson soziale Medien und kreierte im Mai 2016 den Hashtag DisabilityTooWhite. Damit ermöglichte sie Aktivist*innen of Color, auf ihre Lebensrealität aufmerksam zu machen, sich politisch zu organisieren und globalen Erfahrungsaustausch zu realisieren (vgl. Thompson 2019).
Im Fokus steht dabei immer ein emanzipatorischer Gedanke, der es ermöglicht, sich als Community und somit als politische Subjekte zu organisieren. So entwickelten die Designer*innen Georgina Kleege und Scott Wallin das sogenannte „participatory description” – eine gruppenbasierte Methode zur Audiodeskription von visuellem Content, welcher auch politische Interpretation und Ästhetik mit berücksichtig. Hier wird eine bewusste Abkehr von einer neutralen und zumeist maschinell produzierten, audiovisuellen Umgebung vollzogen. Diese ermöglicht es, Umwelt als soziale Realität zu erleben; angreifbar, aber auch veränderbar. (vgl. Hamraie & Fritsch 2019)
Behinderte Menschen sehen sich somit zwar immer wieder technoableistischen Strukturen ausgesetzt, dennoch ermöglicht ihr politischer Aktivismus gesellschaftlichen Wandel, aber eben auch neue Formen von Technologie für eine gerechtere Zukunft.