Verantwortungsvolle Künstliche Intelligenz in Bezug auf generative KI
Die Fortschritte im Bereich der Künstlichen Intelligenz (KI), insbesondere im Kontext generativer KI, haben in den letzten Jahren völlig neue Handlungsfelder eröffnet, die zuvor nicht realisierbar waren. Die Möglichkeit, natürlichsprachliche Interaktionen mit KI-Modellen zu führen, hat die Zugänglichkeit von KI für die Gesellschaft erheblich verbessert. Selbst Personen ohne vorherige Erfahrung mit KI können nun diese Modelle anwenden und dabei auf neue Anwendungsszenarien stoßen.
In der Praxis wurden bereits zahlreiche Lösungen mithilfe generativer KI-Modelle entwickelt. Ein Beispiel hierfür ist das Pharmazieunternehmen Boehringer Ingelheim, das eine eigens entwickelte Wissensmanagement-Lösung einsetzt, um seine Wissenschaftler bei der Erforschung neuer Medikamente zu unterstützen. Die Forscher nutzen den Azure OpenAI Service, um wissenschaftliche Dokumente in ihrer Datenbank zu durchsuchen und zu vergleichen. Dadurch konnten sie innerhalb von 70 Tagen beeindruckende 150.000 Arbeitsstunden einsparen, die wiederum in die Medikamentenforschung investiert werden konnten.
Leitfaden für KI
Es ist erfreulich zu sehen, dass die breite Öffentlichkeit zunehmend die <a href="https://www.taod.de/ai-potenzialanalyse-mit-data-thinking-workshop" data-webtrackingID="blog_content_link" > Potenziale erkennt, die KI </a> für unsere Gesellschaft bereithält. Allerdings dürfen wir dabei nicht die potenziellen Risiken und Gefahren aus den Augen verlieren, die mit dem Einsatz von KI einhergehen. Im Jahr 2019 hat Microsoft sechs grundlegende Prinzipien zur verantwortungsvollen Entwicklung von KI-Systemen formuliert und einen Leitfaden veröffentlicht, der als Orientierung für Entwickler und Organisationen dient.
Diese Prinzipien umfassen:
- Fairness: KI-Systeme sollten fair und diskriminierungsfrei sein. Es ist wichtig, sicherzustellen, dass KI-Anwendungen keine bestehenden Voreingenommenheiten verstärken oder neue schaffen.
- Zuverlässigkeit und Sicherheit: Das System sollte in verschiedenen Anwendungsszenarien zuverlässig funktionieren, auch für solche, für die es ursprünglich nicht vorgesehen war.
- Datenschutz und Sicherheit: Der Schutz personenbezogener Daten steht an erster Stelle. KI-Systeme müssen sicher und datenschutzkonform entwickelt werden. Daten dürfen nicht nach außen dringen oder offengelegt werden.
- Inklusion: Das System sollte Personen mit unterschiedlichen Fähigkeiten einschließen. Um dies zu erreichen, sollten Minderheiten bei der Planung, dem Testen und der Entwicklung von KI-Systemen involviert sein.
- Transparenz: Diejenigen, die KI-Systeme entwickeln, sollten offen darüber sprechen, wie und warum sie KI einsetzen und die Grenzen des Systems kommunizieren. Außerdem sollte die Funktionsweise von KI-Modellen transparent sein. Nutzer und Nutzerinnen sollten nachvollziehen können, wie Entscheidungen getroffen wurden.
- Verantwortung / Accountability: Entwickler und Entwicklerinnen von KI-Lösungen müssen sich ihrer Verantwortung bewusst sein und sicherstellen, dass KI-Systeme ethisch und verantwortungsvoll eingesetzt werden.
Um die Umsetzung dieser Prinzipien zu unterstützen, wurden bereits in der Vergangenheit zahlreiche Tools und Prozesse entwickelt. Generative KI stellt dabei eine besonders faszinierende Technologie dar, da sie in der Lage ist, völlig neue Inhalte zu generieren und somit kreativ tätig zu werden. Dieses neue Handlungsfeld bringt jedoch auch eine Vielzahl von Herausforderungen mit sich, insbesondere im Hinblick auf die Umsetzung der genannten Prinzipien.
Generative KI stellt eine besonders faszinierende Technologie dar.
RAG gegen Halluzinationen
Eine davon betrifft die Nicht-Determinismus-Eigenschaft dieser Technologie. Generative KI-Modelle liefern Informationen ohne Confidence Scores, eine herkömmliche Methode zur Bewertung von Ergebnissen von Machine-Learning-Modellen. Dies verändert die Schritte zur Sicherstellung der Prinzipien von Transparenz und Fairness.
Wenn ein großes Sprachmodell fehlerhafte Aussagen trifft, spricht man von „Halluzinationen“. Dabei gibt das Modell Informationen wieder, die auf den ersten Blick plausibel und nachvollziehbar klingen. Um diesem Problem entgegenzuwirken, kann das Konzept der „Retrieval Augmented Generation“ (RAG) eingesetzt werden. Bei RAG wird nicht auf das bestehende Wissen des Modells zurückgegriffen. Stattdessen nutzt man lediglich die Fähigkeit des Modells, natürliche Sprache zu verstehen und zu generieren.
Der Ansatz kombiniert das Beste aus zwei Welten: Informationssuche und kreative Textgenerierung. Der Prozess beginnt mit der Informationssuche. Dabei wird nach bereits vorhandenen Informationen gesucht, die zur spezifischen Anfrage passen. Dieses „Rohmaterial“ kann aus einer Datenbank, einem Textkorpus oder sogar dem Internet stammen. Anschließend erfolgt die Generierung. Wurden relevante Informationen gefunden, findet ein kreativer Ansatz Verwendung, um daraus eine zusammenhängende Antwort zu generieren. Dabei werden eigene Worte hinzugefügt, der Text strukturiert und an den Kontext angepasst.
Aktiver Prozess
In der Tat sind mit der Entwicklung generativer KI neue Herausforderungen im Bereich der verantwortungsvollen KI entstanden. Gleichzeitig eröffnen sich jedoch auch vielfältige Chancen. Die Möglichkeit, in natürlicher Sprache mit generativen KI-Modellen zu interagieren, macht KI für alle zugänglicher, die zuvor keine direkten Berührungspunkte mit dieser Technologie hatten. Immer mehr Menschen können nun KI nutzen und Teil von Entwicklungsteams für <a href="https://www.taod.de/services/artificial-intelligence" data-webtrackingID="blog_content_link" > KI-Lösungen </a>werden, die auf fundiertem Anwendungswissen basieren, weniger auf rein technologischem Know-how.
Ein weiterer Vorteil liegt darin, dass KI auch für Personen ohne langjährige Programmiererfahrung zugänglich ist. Durch Code-Generierung mithilfe von GitHub Copilot können sie Programmcode erstellen oder bestehenden Code besser verstehen. KI ist nicht länger ein Nischenthema für Technologieexperten, sondern ein relevantes und greifbares Feld für jeden.
Der verantwortungsvolle Umgang mit KI ist ein kontinuierlicher Prozess.
Abschließend möchte ich betonen, dass der verantwortungsvolle Umgang mit KI ein kontinuierlicher Prozess ist, an dem Unternehmen aktiv mitwirken sollten. Da sich <a href="https://www.taod.de/company/partner-technologies" data-webtrackingID="blog_content_link" > Technologien </a> ständig weiterentwickeln, müssen auch unsere Kontrollmechanismen entsprechend erweitert und angepasst werden. Wir sollten neue Technologien mit offenen Armen begrüßen und gleichzeitig sicherstellen, dass sie verantwortungsbewusst eingesetzt werden. Nur so können wir das volle Potenzial der KI nutzen und gleichzeitig ethische Standards wahren.
Dieser Artikel erschien in ähnlicher Form erstmalig in <a href="https://www.taod.de/data-magazin" data-webtrackingID="blog_content_link" > Ausgabe 01/24 </a> von data! Alle Ausgaben und Artikel unseres halbjährlich erscheinenden Magazins findest du hier:
<a href="https://www.taod.de/data-magazin" data-webtrackingID="blog_content_link" > data! Magazin: Cloud Services, Data Analytics & AI | taod </a>
Du möchtest KI in deinem Unternehmen implementieren?
Über Sophia Cullen
Sophia Cullen ist Solution Architect für künstliche Intelligenz bei Microsoft. Sie arbeitet eng mit Microsoft Partnern zusammen, um KI-Projekte für gemeinsame Kunden umzusetzen. Mit umfassender Erfahrung in diesem Bereich hat sie bereits zahlreiche Projekte erfolgreich betreut. Ihr vorrangiges Ziel ist es, Kunden zu ermutigen, neue Handlungsfelder zu erkunden und innovative Lösungen zu identifizieren. Als Mitglied des Responsible AI V-Teams bei Microsoft trägt sie dazu bei, das Bewusstsein für ethisch verantwortungsvolle KI innerhalb der Organisation zu fördern.