Die Anwendung von KI bedarf Ethik-Prinzipien

Es braucht Leitlinien (Guardrails), um den Faktor Ethik bei der Nutzung von Künstlicher Intelligenz intelligent einzubinden. Die ethische Debatte ist nicht neu. Von Microsoft über IBM beschäftigen sich einige Unternehmen mit dieser Debatte. Auch die Hochschule Luzern bietet bereits einige Weiterbildungen an, die die Künstliche Intelligenz tangieren.
Die Entwicklung und Anwendung von künstlicher Intelligenz (KI) birgt sowohl Chancen als auch Risiken für Menschen und Firmen.

 

Was ist künstliche Intelligenz (KI)  und welche Formen gibt es?

KI bzw. KI-Systeme sind letztendlich nur Algorithmen. Bekommen diese Zugang zu Daten, können sie diese evaluieren und dem Menschen in Form von Sprachassistenten (Siri, Cortana, Alexa) zur Verfügung stehen. Andere Beispiele findet man in Sozialen Medien (Plattformen vie X (ehem. Twitter), Instagram) oder Online-Suchmaschinen (Google, Bing).  Hier redet man von schwacher KI. Wir Menschen nutzen diese bereits seit Jahren bzw. tagtäglich. Sie schüchtert uns auch nicht ein. Im Gegenteil sie ist uns recht nützlich.

Interessant ist der Einsatz im Finanzwesen. Hier können mittels KI-Systemen potenzielle Betrugsversuche erkannt werden, aber auch mit Fokussierung auf den Kunden (customer centricity), bestmögliche auf diesen zugeschnittene Anlageprodukte vermittelt werden. Es geht letztendlich um Kundenbindung  und Neukundenanwerbung.

Spätestens seit OpenAI sein ChatGPT auf die Menschheit losgelassen hat, stellen wir uns die Frage, ob unsere Jobs von KI übernommen werden und wir uns nicht weiter in den jetzigen Jobs verwirklichen können. Welche Jobs sollen wir zukünftig machen?

Auch in Bezug auf Datenschutz und Transparenz verlangt es Standards der Ethik.
Mit Tesla ist «autonomes Fahren» bei uns angekommen. Online-Shopping und «Medizinische Bildgebung», um noch weitere Themenfelder zu nennen. Es ist doch bemerkenswert, wie KI-Systeme Röntgenaufnehmen, MRT’s und CT-Scans analysieren können und dementsprechend Empfehlungen aussprechen können. Watson von IBM entwickelt sich selbständig weiter. Das nennt man Deep Learning.

 

Die Risiken

Einige Beispiele zu positiver Einbringung von KI sind bereits genannt worden. Schauen wir uns nun die potenziellen Risiken in Bezug zur Ethik an.
Ki-Systeme, um möglichst effizient zu arbeiten, benötigen eine Menge Daten. Daten beinhalten oftmals Kundenidentifizierende Daten. Daten sind das «Gold» von heute.
Diese gilt es angemessen zu schützen. Cyberkriminelle können erfinderisch sein, um Schaden anzurichten. Identitätsdiebstahl kann eine Person derart kompromittieren, sodass der verursachte Schaden, die Lebensexistenz nehmen kann. Von den höchst unmoralischen Aspekten ganz zu schweigen. Es braucht Werte zum Schutz des menschlichen Individuums. Womöglich braucht es sogar eine Direktive zum Schutze einer KI, damit auch diese nicht für unlautere Tätigkeiten von Cyberkriminellen missbraucht wird.

Schon von Fake News gehört? Diese Unwahrheiten nennt man auch Deepfakes und machen in Wahlperioden häufig Furore. Das Jahr 2024 ist wieder so ein Wahljahr. Zeit sich bewusst zu machen, dass nicht alles was man liest und hört der Wahrheit entspricht bzw. die Informationen zu hinterfragen sind.

Es liegt an uns Menschen, die Leitlinien dieser KI-Systeme zu setzen. Wie kann sichergestellt werden, dass KI-Systeme mit repräsentativen und unvoreingenommenen Datensätzen trainiert werden? Eine KI ist eine KI und kein Mensch. Sie versteht es Daten auszulesen, zusammenzuführen und zur Verfügung zu stellen. Was sie nicht kann, sind Nuancen und Texte im Kontext zu verstehen. Dies kann  zu falschen Schlussfolgerungen führen.

 

Prinzipien nach denen KI funitionieren kann 
  1. Diskriminierungsfreiheit
    • KI sollte alle Menschen fair behandeln. Die Datenbasis für das Training der KI muss ausreichend breit und divers sein. Hier geht es um „unconscious bias“ Verhalten, d.h. um unbewusste Verzerrungen.
  2. Zuverlässigkeit
    • KI sollte zuverlässig und sicher sein. Etliche Funktionen werden unser Leben angenehmer machen, wenn KI unsere Termine nach unseren Wünschen organisiert, uns Filme oder Veranstaltungen empfiehlt und nach dem Konzert direkt noch ein Tisch im Lieblingsrestaurant reserviert. Die Sicherheit von KI ist entscheidend für ihre Akzeptanz.
  3. Schutz der Privatsphäre
    • KI soll Datenschutz und Datensicherheit gewährleiten. KI dringt in immer mehr Lebensbereichen ein. Im Gesundheitsbereich sind das sogar Daten aus unserer Intimsphäre. KI darf personenbezogene Daten nur in Übereinstimmung mit geltenden Datenschutzstandards verwenden und die Privatsphäre muss gewahrt werden.
  4. Barrierefreiheit
    • KI soll allen Menschen zugutekommen. Sie sollten auf Barrierefreiheit und Inklusion ausgerichtete Designprinzipien folgen, um potenzielle Barrieren zu erkennen.
  5. Transparenz
    • KI muss uns ihre Entscheidungen erklären. Beim Training füttern wir KI-Systeme mit Daten, doch welche Schlüsse die KI daraus zieht, nach welcher Logik sie dann entscheidet, ist für Menschen noch undurchschaubar.
  6. Verantwortlichkeit
    • KI darf nur den Einfluss haben, den wir ihr zugestehen. Es ist an uns, Menschen, dafür zu sorgen, dass KI so arbeitet, wie wir es wollen – und nicht wir, wie KI es will.

 

Empfehlungen, Ideen 

Es braucht vor allem Courage, Neues zu erlernen. Empfehlenswert ist die Einführung von Unterrichtsstunden, Freizeitprogrammen zu Künstlicher Intelligenz und Machine Learning bereits ab dem Primarschulalter. Ähnlich dem «Young Talents Challenge Programm», welches Lego für Kinder in den Schulferien anbietet. Nach dem Prinzip spielerisch Neues erlernen.
Darüber hinaus braucht es Weiterbildungsprogramme für Erwachsene und Lehrer, damit sie mit der neuen digitalen Welt zurechtkommen, und die Kinder und junge Erwachsene zeitgemäss unterrichten/leiten können. Hier könnten Micromodule zur Verfügung gestellt werden.

Die Kinder sind die Entwickler, die Unternehmer und die CEO’s der Zukunft, ihrer und unserer!

Die Generation Gen-Alpha wächst weitestgehend bereits mit Notepads, mobilen Geräten und Social Media auf. ChatGPT Version 4 rollt bereits auf sie zu und die passende Brille von Apple gibt es auch schon auf dem Markt.

Weiterführende Links:

 

Beitrag teilen

Lídia Bonifácio

Lídia Boniácio ist als IT Projektleiterin, Scrum Master/Team Coach und Product Owner zertifiziert und arbeitet seit 23 Jahren in der IT. Sie ist sehr an Fortschritt in der IT und dem digitalen Wandel interessiert.

Alle Beiträge ansehen von Lídia Bonifácio →

Schreibe einen Kommentar