Künstliche Intelligenz gehört nicht verboten, sondern reguliert

Ob KI uns ins Verderben treibt, haben wir selbst in der Hand. Es braucht Mut, sich die neuen technischen Möglichkeiten zunutze zu machen, und die nötige Skepsis, um die Gefahren nicht zu ignorieren.

Der Bundesdatenschutzbeauftragte Ulrich Kelber hält eine Sperrung des auf künstlicher Intelligenz (KI) basierenden Chatbots ChatGPT in Deutschland für denkbar. “Grundsätzlich ist ein entsprechendes Vorgehen (…) in Deutschland möglich”, sagte eine Sprecherin von Kelber dem “Handelsblatt”, verwies aber auf die Zuständigkeit der Landesdatenschutzbehörden.

Hintergrund ist die von der italienischen Datenschutzbehörde Garante verfügte Sperre der Dienste des kalifornischen Unternehmens OpenAI in Italien. Das betrifft vor allem das Sprachmodell ChatGPT. Garante wirft OpenAI vor, die Daten italienischer User unrechtmäßig zu sammeln und zu speichern. Dem Unternehmen wurden 20 Tage Zeit gegeben, um zu reagieren und die Vorwürfe auszuräumen. Andernfalls drohen Strafzahlungen.

Moratorium soll KI aufhalten

Der deutsche Ethikrat setzt sogar noch einen drauf: Künstliche Intelligenz (KI) solle lediglich unsere Fähigkeiten erweitern, heißt es in einer Stellungnahme des Ethikrates. Es gelte, jede “Verselbständigungstendenz” frühzeitig zu erkennen und die Ersetzung des Menschen zu verhindern. Die Vorsitzende des Deutschen Ethikrates, Alena Buyx, hält es deshalb für sinnvoll, die Entwicklung von Künstlicher Intelligenz mit einem Moratorium zu bremsen, weil damit Risiken verbunden seien, sagte sie dem Radiosender “MDR Aktuell”.

Die deutsche Hackervereinigung Chaos Computer Club fordert derweil laut einem Bericht der “Funke Mediengruppe”, die EU müsse “den ethisch nicht vertretbaren Anwendungen von KI einen Riegel vorschieben”. Die jetzige Herangehensweise weise “große Lücken” auf beim “effektiven Schutz von Grundrechten”. Die KI-Kompetenz in der Gesellschaft müsse deshalb ausgebaut werden. Eine ausschließlich technische Regulierung von KI reiche nicht aus.

Nach der anfänglichen Euphorie über den Sprachbot, der Jura-Abschlussprüfungen problemlos bestehen kann, Gedichte schreibt, programmieren kann und sogar das Risiko einer Krebserkrankung vorhersagen, machen sich auch bei vielen Experten aus ganz unterschiedlichen Fachrichtungen Zweifel breit. Sie sprechen von unvorhersehbaren Gefahren für den Arbeitsmarkt, von Falschinformationen durch künstlich erzeugte Bilder und vom ultimativen Kontrollverlust. “Die KI-Experimente müssen gestoppt werden!”, verlangte das gemeinnützige US-Institut Future of Life deshalb jüngst in einem offenen Brief.

Künstliche Intelligenz löst Unbehagen aus

Künstliche Intelligenz spaltet die Gesellschaft in Befürworter, die Chancen erkennen und in Künstlicher Intelligenz die Lösung für viele aktuelle Probleme wie beispielsweise den Fachkräftemangel sehen, und andere, die der Computerintelligenz mit großem Unbehagen und Skepsis begegnen. Für die eingangs erwähnte Kritik ist aber nicht die Künstliche Intelligenz an sich das Problem – der möglicherweise fehlende Datenschutz ist der Grund für das Misstrauen und Bedenken, ob in Deutschland oder Italien oder in Brüssel. Es ist völlig unstrittig: Der Datenschutz muss nachweislich gesichert werden. Deshalb sind nicht vorschnelle Verbote erforderlich – der Ruf nach einem Verbot von ChatGPT ist vermutlich mehr der Verunsicherung geschuldet und dem meilenweiten technologischen Vorsprung, den US-amerikanische und chinesische KI-Firmen haben.

Die laufende Debatte über KI hat aber noch eine andere Dimension: Mich erinnert das Misstrauen gegenüber technologischer Entwicklung an die Eisenbahnkrankheit – eine Diagnose, die ab der Mitte des 19. Jahrhunderts mit der Erfindung des neuen Fortbewegungsmittels populär wurde. „Das Nervensystem ist verletzt, und die Probanden verlieren Gewicht”, beschreibt der französische Arzt Hubert de Martinet an der Pariser Académie des sciences im Jahr 1857 die Symptome der sogenannten Eisenbahnkrankheit. “Der Körper wird durch regelmäßige Krämpfe heimgesucht, durch die die Intelligenz vermindert wird.“

Wegen der ungefilterten Kohleverbrennung und der harten Schläge aufgrund fehlender Stoßdämpfer und schlecht gefederter Waggons mag die Diagnose der Ärzte nicht ganz aus der Luft gegriffen sein – es zeigt sich aber eine grundsätzliche Skepsis gegenüber neuen Technologien, die auch mit Blick auf KI um sich greift.

KI schafft den Menschen nicht ab

KI-Systeme schaffen den Menschen nicht ab – so wenig wie der Mensch die Fähigkeit des Rechnens mit der Erfindung des Taschenrechners verloren hat und so wenig Bahnfahren Menschen geisteskrank macht. Ja, KI wirft viele Fragen auf – digitale Abstinenz ist sicher keine gute Antwort. Wie muss das Bildungswesen auf Chat GPT reagieren? Wer hat das Urheberrecht für die von Chat GPT verfassten Texte? Macht sich Chat GPT des Plagiats schuldig, wenn es Texte fremder Autoren zitiert? Wer trägt die Verantwortung für Fehler, die der Chatbot macht? Wir werden auf alle diese Fragen Antworten finden müssen.

Bis dahin gilt: Neue Technologie ist an ihrem Potenzial zu messen – im Guten wie im Schlechten. Um es an einem Beispiel klar zu machen: Mit der Atomspaltung hatte die Kernphysik die Energieversorgung auf ein neues Fundament gestellt – gleichzeitig drohte mit ihr die Auslöschung der gesamten Menschheit. Weder das eine noch das andere ist jedoch eingetreten: Kernspaltung als Energieträger ist zwar bis heute weltweit umstritten – aber die Menschheit ist nicht ausgelöscht. Doch hätte sich die Menschheit ihre Auslöschung nicht vorgestellt, weiter geforscht, entwickelt und gegengesteuert, gäbe es uns vielleicht nicht mehr.

Mehr Mut und Skepsis

Genau das brauchen wir auch für die Bewertung von KI, ihrer Potenziale und Gefahren. Wir brauchen den Mut, KI einzusetzen, wo sie uns lästige und stumpfe Arbeit abnimmt – aber auch das Misstrauen. Um die Chancen der KI kümmern sich die Schöpfer der Künstlichen Intelligenz, das können sie gut und verweisen darum entzückt auf KI, die nach einem virtuellen Blick in den Kühlschrank ein Menü fürs Abendessen vorschlägt oder Programmierfehler entdeckt.

Nicht so gut sind viele IT-Forscher darin, die Gefahren ihrer Erfindung zu sehen. Darum ist die Debatte durchaus zu begrüßen, weil in der Breite und nicht hysterisch über KI, über deren Potenziale und auch Risiken diskutiert wird. Der Gesetzgeber sollte den Faden aufnehmen, indem er reguliert, die Justiz, indem sie urteilt. Und ja, auch die Wissenschaft, indem sie erforscht, wie sich die neue Technologie einhegen lässt und den Menschen vor Gefahren schützt.

Ultimate PR PlanKI lässt sich nicht aufhalten

Zuversichtlich stimmt mich die oben erwähnte Eisenbahnhysterie: Im deutschen Sprachraum berühmt ist die folgende Geschichte: Als die Lok „Adler“ 1835 erstmals zwischen Nürnberg und Fürth verkehren sollte – mit 30 Kilometer pro Stunde –, soll ein Gutachter des Bayrischen Medizinalkollegiums gesagt haben, dass die Geschwindigkeit „bei den Passagieren die geistige Unruhe, ,Delirium furiosum‘ genannt“, hervorrufe. Selbstverständlich könne sich jeder freiwillig dieser Gefahr aussetzen – aber die Zuschauer müssten geschützt werden, und zwar durch eine sechs Fuß (zwei Meter) hohe Schranke auf beiden Seiten der Bahn. Das Gutachten wird allenthalben zitiert – gefunden wurde es in keinem Archiv.

Und doch erfasste das „Delirium Furiosum“ schließlich doch noch Europa – wenn auch in einem ganz anderen Sinne: Vor allem der Adel entdeckte bald den Reiz höherer Reisegeschwindigkeit. Und schon wenige Wochen nach der Erstlingsfahrt des „Adlers“ wurden zur Belustigung des Publikums Schnellfahrten von 70 km/h angeboten. Manches lässt sich nicht aufhalten.

Das könnte Sie auch interessieren: