Konzentrieren Sie sich statt auf KI-Sensibilität auf die aktuellen Risiken großer Sprachmodelle

Startseite » Konzentrieren Sie sich statt auf KI-Sensibilität auf die aktuellen Risiken großer Sprachmodelle
Konzentrieren Sie sich statt auf KI-Sensibilität auf die aktuellen Risiken großer Sprachmodelle

Wir freuen uns, Transform 2022 am 19. Juli persönlich und vom 20. bis 28. Juli virtuell zurückzubringen. Schließen Sie sich führenden KI- und Datenexperten an, um eingehende Diskussionen und spannende Networking-Möglichkeiten zu erhalten. Registrieren Sie sich heute!


Kürzlich ein Google-Ingenieur sorgte international für Schlagzeilen als er behauptete, dass LaMDA, ihr Chatbot-Erstellungssystem, empfindungsfähig sei. Seit seinem ersten Beitrag wird in der Öffentlichkeit darüber diskutiert, ob künstliche Intelligenz (KI) ein ebenso intensives Bewusstsein zeigt und Gefühle erlebt wie der Mensch.

Während das Thema zweifellos faszinierend ist, überschattet es auch andere, dringendere Risiken wie die Ungerechtigkeit und den Verlust der Privatsphäre, die von Large Scale Language Models (LLMs) ausgehen, insbesondere für Unternehmen, die bestrebt sind, diese Modelle in ihre Produkte und Dienstleistungen zu integrieren. Diese Risiken werden durch die Tatsache noch verstärkt, dass Unternehmen, die diese Modelle einsetzen, häufig keine Kenntnisse über die spezifischen Daten und Methoden haben, die zu ihrer Erstellung verwendet werden, was zu Sicherheitsproblemen führen kann. Vorurteile, Hassreden und Stereotypen.

Was sind LLMs?

LLMs sind massive neuronale Netzwerke, die aus riesigen Korpora von Freitext lernen (denken Sie an Bücher, Wikipedia, Reddit usw.). Obwohl sie zum Generieren von Text konzipiert sind, z. B. zum Zusammenfassen langer Dokumente oder zum Beantworten von Fragen, haben sie sich bei einer Vielzahl anderer Aufgaben als hervorragend erwiesen Erstellen von Websites zum Verschreiben von Arzneimitteln zur Grundrechenart.

Es ist diese Fähigkeit, auf Aufgaben zu verallgemeinern, für die sie ursprünglich nicht entwickelt wurden, die LLMs zu einem wichtigen Forschungsgebiet gemacht hat. Die Kommerzialisierung erfolgt in allen Branchen, indem grundlegende Modelle, die von anderen (z. B. OpenAI, Google, Microsoft und anderen Technologieunternehmen) erstellt und trainiert wurden, an spezifische Aufgaben angepasst werden.

Forscher in Stanford prägte den Begriff „fundamentale Modelle“, um die Tatsache zu charakterisieren, dass diese vortrainierten Modelle unzählige andere Anwendungen untermauern. Leider sind diese massiven Modelle auch mit erheblichen Risiken verbunden.

Die Kehrseite von LLMs

An erster Stelle dieser Risiken stehen die Umweltauswirkungen, die enorm sein können. Ein gut zitierter Artikel aus dem Jahr 2019 heraus, dass das Training eines einzigen großen Modells so viel Kohlenstoff produzieren kann wie fünf Autos in ihrem Leben – und die Modelle sind seitdem nur noch größer geworden. Diese Umweltbilanz hat direkte Auswirkungen auf die Fähigkeit eines Unternehmens, seine Nachhaltigkeitsverpflichtungen und im weiteren Sinne seine ESG-Ziele zu erfüllen. Selbst wenn sich Unternehmen auf Modelle verlassen, die von anderen trainiert wurden, kann der CO2-Fußabdruck des Trainings dieser Modelle nicht ignoriert werden, im Einklang mit der Art und Weise, wie ein Unternehmen Emissionen in seiner gesamten Lieferkette verfolgen sollte.

Dann gibt es noch das Problem der Voreingenommenheit. Es wurde festgestellt, dass Internetdatenquellen, die üblicherweise zum Trainieren dieser Modelle verwendet werden, Vorurteile gegenüber einer Reihe von Gruppen enthalten, darunter Menschen mit Behinderungen und Frauen. Sie überrepräsentieren auch junge Benutzer aus entwickelten Ländern und verewigen diese Weltanschauung und die Auswirkungen unterrepräsentierter Bevölkerungsgruppen abmildern.

Dies wirkt sich direkt auf die DEI-Verpflichtungen der Unternehmen aus. Ihre KI-Systeme könnten weiterhin Vorurteile aufrechterhalten, selbst wenn sie daran arbeiten, diese Vorurteile an anderer Stelle in ihrem Betrieb zu korrigieren, beispielsweise in ihren Einstellungspraktiken. Sie können auch kundenorientierte Anwendungen erstellen, die keine konsistenten oder zuverlässigen Ergebnisse über Regionen, Altersgruppen oder andere Kundenuntergruppen hinweg liefern.

LLMs können auch unvorhersehbare und beängstigende Ergebnisse haben, die echte Gefahren darstellen können. Nehmen Sie zum Beispiel den Künstler, der einen LLM benutzte, um seinen imaginären Freund aus Kindertagen nachzubilden, nur um von seinem imaginären Freund darum gebeten zu werden Steck deinen Kopf in die Mikrowelle. Obwohl dies ein extremes Beispiel sein mag, können Unternehmen diese Risiken nicht ignorieren, insbesondere in Fällen, in denen LLMs in von Natur aus risikoreichen Bereichen eingesetzt werden. wie Gesundheitsvorsorge.

Diese Risiken werden durch die Tatsache noch verstärkt, dass es möglicherweise an Transparenz bei allen Zutaten mangelt, die in die Schaffung eines modernen, produktionstauglichen KI-Systems einfließen. Dazu können Datenpipelines, Modellinventare, Optimierungsmetriken und breitere Designentscheidungen für die Interaktion von Systemen mit Menschen gehören. Unternehmen sollten vortrainierte Modelle nicht blindlings in ihre Produkte und Dienstleistungen integrieren, ohne deren Verwendungszweck, Quelldaten und die unzähligen anderen Überlegungen, die zu den zuvor beschriebenen Risiken führen, sorgfältig zu berücksichtigen.

Das Versprechen von LLMs ist aufregend und unter den richtigen Umständen können sie beeindruckende Geschäftsergebnisse liefern. Das Streben nach diesen Vorteilen kann jedoch nicht bedeuten, die Risiken zu ignorieren, die zu Kunden- und Gesellschaftsschäden, Rechtsstreitigkeiten, Verstößen gegen Vorschriften und anderen geschäftlichen Auswirkungen führen können.

Das Versprechen einer verantwortungsbewussten KI

Ganz allgemein sollten Unternehmen, die KI betreiben, über ein solides Responsible AI (RAI)-Programm verfügen, um sicherzustellen, dass ihre KI-Systeme an ihren Unternehmenswerten ausgerichtet sind. Es beginnt mit einer übergreifenden Strategie, die Prinzipien, Risikotaxonomien und eine Definition der KI-spezifischen Risikobereitschaft umfasst.

In einem solchen Programm ist es auch wichtig, Governance und Prozesse zur Identifizierung und Minderung von Risiken einzurichten. Dazu gehören eine klare Verantwortlichkeit, Eskalation und Aufsicht sowie die direkte Integration in umfassendere Risikomanagementfunktionen.

Gleichzeitig sollten Mitarbeiter über Mechanismen verfügen, um ethische Bedenken ohne Angst vor Vergeltungsmaßnahmen zu äußern, die dann klar und transparent bewertet werden. Ein kultureller Wandel, der dieses RAI-Programm an der Mission und den Werten der Organisation ausrichtet, erhöht die Erfolgschancen. Schließlich können auch zentrale Produktentwicklungsprozesse (KPIs, Portfolioüberwachung und -steuerung, Programmsteuerung und -design) die Erfolgschancen erhöhen.

In der Zwischenzeit ist es wichtig, Prozesse zu entwickeln, um verantwortungsbewusstes KI-Know-how in die Produktentwicklung zu integrieren. Dazu gehört ein strukturierter Risikobewertungsprozess, bei dem Teams alle relevanten Stakeholder identifizieren, Auswirkungen zweiter und dritter Ordnung berücksichtigen, die unbeabsichtigt auftreten können, und Minderungspläne entwickeln.

Angesichts des soziotechnischen Charakters vieler dieser Probleme ist es auch wichtig, RAI-Experten in von Natur aus risikoreiche Bemühungen einzubinden, um bei diesem Prozess zu helfen. Teams benötigen auch neue Technologien, Tools und Frameworks, um ihre Arbeit zu beschleunigen und sie gleichzeitig in die Lage zu versetzen, Lösungen verantwortungsvoll zu implementieren. Dazu gehören Software-Toolkits, Handbücher für verantwortungsbewusste Entwicklung und Dokumentationsvorlagen, um Auditing und Transparenz zu ermöglichen.

Führen Sie mit RAI von oben

Führungskräfte müssen bereit sein, ihr Engagement und ihre RAI-Prozesse intern und extern zu kommunizieren. Zum Beispiel die Entwicklung eines KI-Verhaltenskodex, der über die Grundsätze auf hoher Ebene hinausgeht, um ihren Ansatz für eine verantwortungsbewusste KI zu artikulieren.

Neben der Vermeidung von unbeabsichtigtem Schaden für Kunden und allgemein für die Gesellschaft im Allgemeinen kann RAI eine echte Wertquelle für Unternehmen sein. Führungskräfte, die für KI verantwortlich sind Bericht größere Kundenbindung, Marktdifferenzierung, beschleunigte Innovation und verbesserte Mitarbeiterrekrutierung und -bindung. Die externe Kommunikation über die RAI-Bemühungen eines Unternehmens trägt dazu bei, die Transparenz zu schaffen, die erforderlich ist, um das Vertrauen der Kunden aufzubauen und diese Vorteile zu realisieren.

LLMs sind leistungsstarke Tools, die es sind bereit, unglaubliche geschäftliche Auswirkungen zu erzielen. Leider bergen sie auch reale Risiken, die identifiziert und gemanagt werden müssen. Mit den richtigen Schritten können Führungskräfte Vorteile und Risiken gegeneinander abwägen, um transformative Wirkung zu erzielen und gleichzeitig das Risiko für Kunden, Mitarbeiter und die Gesellschaft zu minimieren. Wir dürfen jedoch nicht zulassen, dass die Diskussion über empfindungsfähige KI davon ablenkt, sich auf diese wichtigen und aktuellen Themen zu konzentrieren.

Steven Mills ist der AI ​​Ethics Lead und Abhishek Gupta ist der Lead AI Lead und Experte bei BCG.

DatenEntscheider

Willkommen in der VentureBeat-Community!

DataDecisionMakers ist der Ort, an dem Experten, einschließlich Datentechniker, Dateneinblicke und Innovationen austauschen können.

Wenn Sie mehr über neueste Erkenntnisse und aktuelle Informationen, Best Practices und die Zukunft von Daten und Datentechnologie erfahren möchten, besuchen Sie uns bei DataDecisionMakers.

Vielleicht erwägen Sie sogar, einen eigenen Artikel zu schreiben!

Erfahren Sie mehr über DataDecisionMakers