Die Texte in diesem Artikel wurden teilweise mit Hilfe künstlicher Intelligenz erarbeitet und von uns korrigiert und überarbeitet. Für die Generierung wurden folgende Dienste verwendet:
Wie wir maschinelles Lernen bei der Erstellung unserer Artikel einsetzenIn unserem letzten Beitrag zur Arbeit mit generativen Texten haben wir bereits auf erste ethische Bedenken im Zusammenhang mit dem Einsatz von künstlicher Intelligenz hingewiesen. In diesem Beitrag möchten wir daher auf diese Bedenken näher eingehen und verschiedene Perspektiven im Hinblick auf den Einsatz von künstlicher Intelligenz aufzeigen.
Dabei geht es nicht um eine grundsätzliche Einordnung dieser Technologie als positiv oder negativ, sondern um die Entwicklung einer ganzheitlichen Sichtweise und die Beleuchtung der Auswirkungen auf die verschiedenen Bereiche.
Personen, Unternehmen und Gesellschaft
Insbesondere für Arbeitnehmer:innen ist künstliche Intelligenz ein zweischneidiges Schwert. Auf der einen Seite steht, wie der EP Think Tank berichtet, die Produktivitätssteigerung durch die Automatisierung trivialer Aufgaben, die den Einzelnen mehr Zeit für die Arbeit an kreativeren und qualitativ hochwertigeren Inhalten und Produkten einräumt.
11 %-37 % Geschätzter Anstieg der Arbeitsproduktivität im Zusammenhang mit KI bis 2035 (EP Think Tank 2020)
Auf der anderen Seite führt dieselbe Automatisierung zum Verlust von Arbeitsplätzen. Künstliche Intelligenz muss nicht zwangsläufig einen Beruf komplett ersetzen, sondern kann ihn sogar unterstützen und fördern, wie der Think Tank Denkfabrik Digitale Arbeitsgesellschaft berichtet. Welche Auswirkungen dies auf den Arbeitsmarkt haben könnte, ist Gegenstand einer Prognose des Think Tanks der Europäischen Union:
14 % der Arbeitsplätze in den OECD-Ländern sind hochgradig automatisiert, und weitere 32 % könnten erhebliche Veränderungen erfahren (Schätzung, EP Think Tank 2020)
In diesem Zusammenhang darf nicht übersehen werden, dass sich die Arbeitslandschaft nachhaltig verändern wird und neue Tätigkeiten entstehen werden. Ob diese in der Lage sein werden, die zunehmende Arbeitsplatzunsicherheit der Erwerbsgesellschaft zu kompensieren, bleibt abzuwarten.
Datenschutz, Urheberrecht und Sicherheit
Dass der Datenschutz ein grundsätzliches Konfliktpotenzial mit künstlicher Intelligenz birgt, ist spätestens seit dem kurzzeitigen Verbot von OpenAI’s ChatGPT in Italien bekannt.
Zu einer ähnlichen Einschätzung des Konfliktpotenzials kommt auch die Landesbeauftragte für den Datenschutz (LfD) Niedersachsen, Barbara Thiel, in einem kürzlich veröffentlichten Beitrag von BigData-Insider:
Der Einsatz von KI-Systemen bedeutet in der Regel einen tiefen Eingriff in die Grundrechte und Freiheiten der betroffenen Personen, da hierbei häufig massenhaft Daten verarbeitet und automatisierte Entscheidungen getroffen werden (Barbara Thiel 2023, über BigData-Insider)
GitHub Copilot zeigt hierbei exemplarisch den Konflikt zwischen personenbezogenen Daten und deren Nutzung für künstliche Intelligenz. Der KI-Code-Assistent wurde mit öffentlichen Repositories von Entwickler:innen und Unternehmen trainiert und sorgte kurz nach der Veröffentlichung für Furore.
Wie die Online-Publikation Bleeping Computer einem ausführlichen Beitrag berichtet, sei es vermehrt zu Verletzungen von Lizenzen und Unternehmensgeheimnissen gekommen.
So seien bei der Generierung von Code-Snippets durch GitHub Copilot die Autor:innen und die mit den Repositories verbundenen Lizenzen ignoriert worden. Des Weiteren sei von verschiedenen Nutzer:innen berichtet worden, dass GitHub Copilot auch API-Zugänge aus öffentlichen Repositories auf Anfrage aufliste.
Anzumerken ist, dass der Verlust dieser API-Zugängen in erster Instanz eine Folge der Nachlässigkeit der betroffenen Entwickler:innen und Unternehmen ist, die nicht im Sinne der operativen Sicherheit gehandelt haben.
Ethik, Verantwortung und Erfolg
Um die ethischen Bedenken aus unserem letzten Beitrag aufzugreifen: Künstliche Intelligenz kann nur dann zum Wohle aller entwickelt werden, wenn ein transparenter und respektvoller Umgang mit den verarbeiteten Daten und deren Produkten gewährleistet ist.
Dies erfordert nicht nur die Berücksichtigung der oben genannten Punkte, sondern stellt auch neue Herausforderungen an die Entwicklung künstlicher Intelligenz. Eine dieser Herausforderungen wird der neue Rechtsrahmen für den Einsatz künstlicher Intelligenz sein. Seit dem 21. April 2021 arbeitet das Europäische Parlament an dem von der Kommission vorgelegten Vorschlag für ebendiese Rahmenbedingungen. Ziel sei eine
Dabei ginge es auch darum, Rechtssicherheit für Unternehmen zu schaffen sowie die Bürger:innen und das geistige Eigentum zu schützen. Zudem gelte es zu regulieren, inwieweit automatisierte Systeme in das tägliche Leben der EU-Bürger:innen eindringen und dieses beeinflussen.
Mit dem kommenden Rechtsrahmen werden nicht nur die Verantwortlichkeiten im Umgang mit künstlicher Intelligenz klarer definiert, sondern auch den Unternehmen und einzelnen Bürger:innen individuelle Rechte eingeräumt, mit ihren Produkten, Daten und ihrem geistigen Eigentum umzugehen.
Unter diesen Voraussetzungen kann der Einsatz künstlicher Intelligenz nicht nur sicher, sondern auch erfolgreich sein. Das bedeutet, dass künstliche Intelligenz einen Mehrwert für die Bürger:innen und die Gesellschaft schafft, ohne dabei ethische Prinzipien oder Grundrechte zu verletzen. Um dies zu erreichen, müssen künstliche Intelligenz und ihre Anwendungen transparent, zuverlässig, sicher und verantwortungsvoll gestaltet werden.
TL;DR
Künstliche Intelligenz bietet Chancen und Risiken für verschiedene Lebensbereiche. Neben den unterschiedlichen Aspekten wird auch die aktuelle Rechtslage beleuchtet.