KI birgt existentielle Risiken. Wir Menschen haben nur schon Mühe damit, einfache rationale Entscheidungen zu treffen. Daher brauchen wir für das Handling dieses hochkomplexen Themas dringend Leitplanken in Form einer global verbindlichen Regulierung.
Die (Weiter-)Entwicklung einer neuen Technologie birgt neben erheblichen Chancen oftmals auch ernsthafte Risiken. Doch bei der Weiterentwicklung von Künstlicher Intelligenz (KI) sollten wir uns einer Tatsache bewusst sein: Dieses Mal sind die Risiken anders und zwar grundlegend. Denn bei der KI geht es nicht wie bei vielen bisherigen Errungenschaften darum, menschliche Muskelkraft zu ersetzen. Ihr Ziel liegt darin, menschliche Gehirnleistungen nachzubilden und abzulösen. Dabei sind analytische, redaktionelle, kreative und weitere Fähigkeiten des menschlichen Gehirns im „Visier der KI“, resp. ihrer Entwickler*innen.
Was bei der Weiterentwicklung von KI auf dem Spiel steht
Liebe Leser*innen, machen wir uns hierbei bitte nichts vor. KI soll die Fähigkeiten von uns Menschen nicht nur nachbilden, sondern vielmehr – möglichst weit – übertreffen und zwar in dem Bereich, der uns bisher zur dominanten Spezies auf diesem Planeten gemacht hat. Die Digitalisierung verfügt bereits heute über eine enorme Bedeutung in unserem Wirtschaftssystem, unserem Alltag, ja unserer gesamten Gesellschaft und sie gewinnt laufend an Relevanz hinzu. Das Internet der Dinge (IoT) verbindet dabei auch immer mehr physische Gegenstände mit der digitalen Welt. Sollten wir bei der Weiterentwicklung von KI also wirklich so weit gehen, das Risiko eines Kontrollverlusts in diesem mittlerweile (über-)lebenswichtigen Gebiet für uns Menschen einzugehen?
Wir Menschen haben‘s leider nicht so mit den Risiken
Menschen haben immer wieder Mühe damit, rational zu entscheiden. Dabei werden wir vor besonders grosse Probleme gestellt, wenn Risiken vorliegen, deren Eintrittswahrscheinlichkeiten schwer einschätzbar sind und/oder vernachlässigbar scheinen.
Verstärkt wird dieser Effekt meist noch, wenn Chancen auf kurzfristige Gewinne bestehen, während die Risiken sozialisiert und damit auf die Gesellschaft übertragen werden können. In den Wirtschaftswissenschaften ist dieses Phänomen hinlänglich unter Moral hazard bekannt. Beispiele für dieses unzureichende Risikomanagement mit katastrophalen Folgen gibt es leider reichlich, wobei sich zuletzt in den Jahren 2007/2008 im Finanzbereich sowie 2011 in Fukushima ausserordentlich unrühmliche Fälle zugetragen haben.
Der Klassiker: Die Risiken werden verharmlost oder ignoriert
Auch bei der Entwicklung von KI leuchten in den Augen vieler Anleger*innen bereits Währungssymbole auf. Dabei wird vielfach darauf hingewiesen, dass die Risiken unter Kontrolle seien. Noch schlimmer allerdings ist, wenn sie einfach ignoriert oder kleingeredet werden. Solche Verharmlosungen sind nicht neu und wurden schon vor – zu – vielen Katastrophen geäussert.
Aufgrund der Zielsetzung von KI sind sie gleichermassen unglaubwürdig wie blauäugig. Neu und zwar grundlegend neu bei der KI ist allerdings ein besonders gravierenderes Risiko: Erstmals überhaupt besteht die Möglichkeit, dass eine Technologie einen Zustand erreichen kann, bei dem nicht mehr die Menschheit sondern die Technologie selbst die Kontrolle über ihre weitere Entwicklung innehat. Die Rede ist natürlich von der Singularität.
Solch grundlegende Risiken lassen nur ein Fazit zu
Da KI in der digitalen Welt zuhause ist, wird sich früher oder später unweigerlich die Frage nach der Kontrolle über diese Welt stellen. Hierzu erlaube ich mir die folgende These: „Kontrolle hat, wer nicht zulässt, dass jemand – oder etwas – anderes sie bekommen kann.“ Daher ist eine weltweit verbindliche und effektive Regulierung dringend erforderlich, damit wir diesen existentiellen Risiken begegnen und die Kontrolle in unseren eigenen Händen behalten können. Gute, aber unverbindliche Ansätze dafür sind bereits vorhanden. Diese reichen allerdings bei weitem nicht aus. Die digitale Welt ist eine äusserst wertvolle und vielversprechende Errungenschaft, aber sie ist ganz bestimmt kein risiko- und rechtsfreier Raum!
Weiterführende Links zum Thema
- Umgang mit KI durch Behörden & multinationale Organisationen:
- Künstliche Intelligenz:
- Wikipedia Definition
- OECD: Zusammenfassung zu Künstliche Intelligenz in der Gesellschaft
- Wahrscheinlichkeiten & Risikomanagement:
- Nassim Nicholas Taleb, Der Schwarze Schwan, 2007 (Erstveröffentlichung)
- Risikowahrnehmung