May 17, 2023
Fragen und Antworten: Experten sagen, dass es weder möglich noch wünschenswert ist, KI zu stoppen
Von
Von Lucas Mearian
Leitender Reporter, Computerworld |
Während sich generative KI-Tools wie ChatGPT von OpenAI und Bard von Google rasant weiterentwickeln und Fragen zur Vertrauenswürdigkeit und sogar zu Menschenrechten aufwerfen, überlegen Experten, ob und wie die Technologie verlangsamt und sicherer gemacht werden kann.
Im März veröffentlichte das gemeinnützige Future of Life Institute einen offenen Brief, in dem es zu einer sechsmonatigen Pause bei der Entwicklung von ChatGPT, dem KI-basierten Chatbot des von Microsoft unterstützten OpenAI, aufrief. In dem inzwischen von mehr als 31.000 Menschen unterzeichneten Brief wurde betont, dass leistungsstarke KI-Systeme erst dann entwickelt werden sollten, wenn ihre Risiken beherrschbar sind.
„Sollten wir nichtmenschliche Geister entwickeln, die uns irgendwann zahlenmäßig übertreffen, überlisten, obsolet machen und ersetzen könnten? Sollten wir riskieren, die Kontrolle über unsere Zivilisation zu verlieren?“ fragte der Brief.
Apple-Mitbegründer Steve Wozniak und Elon Musk, CEO von SpaceX und Tesla, stimmten zusammen mit Tausenden anderen Unterzeichnern darin überein, dass KI „erhebliche Risiken für die Gesellschaft und die Menschheit birgt, wie umfangreiche Untersuchungen zeigen und von führenden KI-Laboren anerkannt werden“.
Im Mai veröffentlichte das gemeinnützige Center for AI Safety einen ähnlichen offenen Brief, in dem es erklärte, dass KI ein globales Aussterberisiko darstelle, das mit Pandemien und Atomkrieg vergleichbar sei. Zu den Unterzeichnern dieser Erklärung gehörten viele der KI-Wissenschaftler und Führungskräfte, die generative KI der breiten Masse zugänglich gemacht haben.
Es wird erwartet, dass auch Arbeitsplätze durch generative KI ersetzt werden – viele Arbeitsplätze. Im März veröffentlichte Goldman Sachs einen Bericht, in dem geschätzt wurde, dass generative KI und ihre Fähigkeit, Aufgaben zu automatisieren, Auswirkungen auf bis zu 300 Millionen Arbeitsplätze weltweit haben könnten. Und Anfang Mai kündigte IBM an, die Pläne zur Besetzung von rund 7.800 Stellen zu pausieren, und schätzte, dass einem Bloomberg-Bericht zufolge innerhalb von fünf Jahren fast drei von zehn Back-Office-Jobs durch KI ersetzt werden könnten.
Während frühere industrielle Revolutionen Aufgaben automatisierten und Arbeitskräfte ersetzten, schufen diese Veränderungen auch mehr Arbeitsplätze als sie beseitigten. Beispielsweise benötigte die Dampfmaschine Kohle, um zu funktionieren – und Menschen, um sie zu bauen und zu warten.
Generative KI ist jedoch kein Äquivalent zur industriellen Revolution. KI kann sich selbst beibringen und hat bereits die meisten von Menschen erstellten Informationen aufgenommen. Bald wird KI beginnen, menschliches Wissen durch eigenes zu ergänzen.
Geoff Schaefer, Leiter Responsible AI, Booz Allen Hamilton
Geoff Schaefer ist Leiter der Abteilung „Responsible AI“ bei Booz Allen Hamilton, einem auf Geheimdienste spezialisierten US-Regierungs- und Militärauftragnehmer. Susannah Shattuck ist Produktleiterin bei Credo AI, einem SaaS-Anbieter für KI-Governance.
Computerworld sprach kürzlich mit Schaefer und Shattuck über die Zukunft der KI und ihre Auswirkungen auf Arbeitsplätze und die Gesellschaft insgesamt. Im Folgenden finden Sie Auszüge aus diesem Interview.
Welche Risiken birgt generative KI?Shattuck: „Algorithmische Voreingenommenheit. Das sind Systeme, die Vorhersagen auf der Grundlage von Mustern in Daten treffen, auf denen sie trainiert wurden. Und wie wir alle wissen, leben wir in einer voreingenommenen Welt. Die Daten, auf die wir diese Systeme trainieren, sind oft falsch.“ Wir sind voreingenommen, und wenn wir nicht sorgfältig und überlegt vorgehen, wie wir diesen Systemen das Erkennen von Mustern in Daten beibringen oder trainieren, können wir ihnen unbeabsichtigt beibringen oder sie trainieren, voreingenommene Vorhersagen zu treffen.
„Erklärbarkeit. Viele der komplexeren [großen Sprach-]Modelle, die wir heutzutage erstellen können, sind für uns ziemlich undurchsichtig. Wir verstehen nicht ganz genau, wie sie eine Vorhersage treffen. Und so, wenn man in einer Hochphase arbeitet.“ -Vertrauen oder eine sehr sensible Entscheidungsumgebung: Es kann schwierig sein, einem KI-System zu vertrauen, dessen Entscheidungsprozess Sie nicht vollständig verstehen. Und deshalb sehen wir eine zunehmende Regulierung, die sich auf die Transparenz von KI-Systemen konzentriert.
„Ich gebe Ihnen ein sehr konkretes Beispiel: Wenn ich ein KI-System in einem medizinischen Gesundheitsszenario einsetze, in dem dieses System einem Arzt auf der Grundlage von Patientendaten bestimmte Empfehlungen geben soll, dann ist die Erklärbarkeit gegeben.“ Es wird wirklich entscheidend sein, dass dieser Arzt bereit ist, dem System zu vertrauen.
„Das Letzte, was ich sagen möchte, ist, dass sich die KI-Risiken mit der Weiterentwicklung der Technologie ständig weiterentwickeln. Und [es gibt] eine neue Reihe von KI-Risiken, mit denen wir bisher nicht wirklich zu kämpfen hatten – zum Beispiel das Risiko von Halluzinationen.“ . Diese generativen KI-Systeme können sehr überzeugend Informationen generieren, die real aussehen, aber überhaupt nicht auf Fakten basieren.“
Auch wenn wir nicht alle künftigen Risiken vorhersagen können, was ist Ihrer Meinung nach am wahrscheinlichsten?Schaefer: „Diesen Systemen wird nicht die Fähigkeit zugeschrieben, all die Dinge zu tun, zu denen sie jetzt in der Lage sind. Wir haben GPT-4 nicht darauf programmiert, Computerprogramme zu schreiben, aber es kann das, insbesondere wenn es mit anderen Fähigkeiten kombiniert wird.“ wie Code-Interpreter und andere Programme und Plugins. Das ist aufregend und ein wenig entmutigend. Wir versuchen, die Risikoprofile dieser Systeme in den Griff zu bekommen. Die Risikoprofile, die sich buchstäblich täglich weiterentwickeln.
„Das bedeutet nicht, dass alles ein Nettorisiko ist. Es gibt auch Nettovorteile, auch im Sicherheitsbereich. Ich denke, dass [KI-Sicherheitsforschungsunternehmen] Anthropic ein wirklich interessantes Beispiel dafür ist, wo sie einige wirklich interessante Sicherheitstests durchführen.“ Arbeiten, bei denen sie von einem Modell verlangen, dass es weniger voreingenommen sein soll, und bei einer bestimmten Größe haben sie herausgefunden, dass es buchstäblich eine Ausgabe erzeugt, die weniger voreingenommen ist, indem sie einfach danach fragen. Ich denke, wir müssen uns also ansehen, wie wir einige dieser neuen Fähigkeiten nutzen können um das Risiko dieser Systeme selbst sowie das Risiko dessen, was aus diesen neuen Fähigkeiten resultiert, zu bewältigen.“
Wir bitten es also nur, dass es einfach schöner wird?Schaefer: „Ja, im wahrsten Sinne des Wortes.“
Diese Systeme werden in kurzer Zeit exponentiell intelligenter und entwickeln sich immer schneller weiter. Können wir sie zu diesem Zeitpunkt überhaupt zügeln?Schaefer: „Ich bin ein KI-Optimist. Es einzudämmen ist meiner Meinung nach weder möglich noch wünschenswert. Aus Sicht der KI-Ethik denke ich viel darüber nach. Was ist Ethik? Was ist der Anker? Was ist.“ unser moralischer Kompass für dieses Forschungsgebiet usw. Und ich wende mich an die klassischen Philosophen, und sie beschäftigten sich nicht hauptsächlich mit richtig und falsch per se, wie wir es normalerweise unter Ethik verstehen. Sie beschäftigten sich hauptsächlich damit, was es bedeutete Lebe ein gutes Leben... Aristoteles nannte dies Eudaimonia, was menschliches Glück, menschliches Gedeihen bedeutet, eine Art einzigartige Kombination dieser beiden Dinge.
„Und ich denke, wenn wir diese … Perspektive jetzt auf KI-Systeme anwenden, würde das, was wir als ethisch und verantwortungsvoll betrachten würden, ganz anders aussehen. Ich denke, wir sollten die KI-Systeme in Betracht ziehen, die das meiste menschliche Gedeihen und Glück hervorbringen.“ verantwortungsvoll und ethisch. Und ich denke, ein Hauptbeispiel dafür ist das AlphaFold-System von [Google] DeepMind. Sie kennen dieses Modell wahrscheinlich, es hat die größte Herausforderung in der Biologie gemeistert, Proteinfalten zu entschlüsseln, die die moderne Medizin hier und heute verändern wird in die Zukunft. Wenn das zu großen Ergebnissen für den Patienten führt, ist das gleichbedeutend mit menschlichem Gedeihen.
„Deshalb denke ich, dass wir uns genauso darauf konzentrieren sollten, wie diese leistungsstarken KI-Systeme genutzt werden können, um die Wissenschaft auf eine Art und Weise voranzubringen, wie wir es vorher buchstäblich nicht konnten. Von der Verbesserung der Dienstleistungen, die die Bürger täglich erleben, bis hin zu so langweiligen Dingen wie der Post.“ Dienst so spannend wie das, was NOAA im Bereich Klimawandel tut.
„Im Internet mache ich mir also weniger Sorgen als vielmehr Angst.“
Susannah Shattuck, Produktleiterin, Credo AI
Shattuck: „Ich bin auch ein Optimist. [Aber] ich denke, dass der menschliche Faktor immer eine große Risikoquelle für unglaublich leistungsstarke Technologien darstellt. Wenn ich darüber nachdenke, was an der generativen KI wirklich transformativ ist, denke ich, dass eines der transformativsten Dinge ist dass die Schnittstelle, über die ein KI-System etwas für Sie tun kann, heute eine universelle menschliche Schnittstelle aus Text ist. Während es sich bei KI-Systemen früher um Dinge handelte, bei denen man wissen musste, wie man sie programmiert, um sie richtig aufzubauen, und die man anleiten musste, damit sie Dinge tun konnten Sie. Nun, buchstäblich jeder, der tippen, Text schreiben oder sprechen kann und mit einem sehr leistungsstarken KI-System interagieren und es etwas für sich tun lassen kann, und ich denke, das birgt ein unglaubliches Potenzial.
„Auch ich bin in vielerlei Hinsicht ein Optimist, aber [diese einfache Schnittstelle] bedeutet auch, dass die Eintrittsbarriere für böswillige Akteure unglaublich niedrig ist. Das bedeutet, dass die Eintrittsbarriere für den bloßen irrtümlichen Missbrauch dieser Systeme sehr niedrig ist. Ich denke, dass es umso wichtiger ist, Leitplanken zu definieren, die sowohl den absichtlichen als auch den unbeabsichtigten Missbrauch oder Missbrauch dieser zu definierenden Systeme verhindern.
Wie wird sich generative KI auf Arbeitsplätze auswirken? Wird dies wie bei früheren industriellen Revolutionen sein, die viele Arbeitsplätze durch Automatisierung vernichteten, aber durch qualifizierte Positionen neue Berufe hervorbrachten?Schaefer: „Ich nehme die Analyse von Leuten wie Goldman Sachs ziemlich ernst – [KI] wirkt sich in gewisser Weise und bis zu einem gewissen Grad auf über 300 Millionen Arbeitsplätze aus. Ich denke, das stimmt. Es ist nur eine Frage, wie diese Auswirkungen tatsächlich aussehen, und.“ Wie wir in der Lage sind, den Wandel zu vollziehen und uns weiterzuentwickeln. Ich denke, darüber ist sich die Entscheidung noch nicht einig. Das ist etwas, wofür wir jetzt planen müssen, anstatt davon auszugehen, dass es sich wie bei jedem früheren technologischen Wandel dahingehend verhält, dass dadurch neue Arbeitsplätze entstehen. Ich weiß nicht, Ich weiß nicht, dass das garantiert ist.
„Das ist insofern neu, als die Arbeitsplätze, auf die es sich auswirken wird, von einem anderen sozioökonomischen Typ sind, eine breitere Grundlage haben und, wenn man so will, größere Auswirkungen auf das BIP haben. Und ehrlich gesagt wird dies Märkte, Branchen und ganze Bildungsbereiche verändern.“ auf eine Art und Weise, wie es die industrielle Revolution zuvor nicht getan hat. Daher denke ich, dass es sich hier um eine grundlegend andere Art von Veränderung handelt.“
Shattuck: „Mein früherer Arbeitgeber [IBM] sagt, dass sie nicht die [tausenden] Ingenieure und Softwareentwickler einstellen werden, die sie ursprünglich einstellen wollten. Sie haben … Erklärungen abgegeben, dass diese KI-Systeme es ihnen im Grunde ermöglichen, das zu bekommen.“ dieselbe Art von Ausgabe [mit weniger Software-Ingenieuren]. Und wenn Sie eines dieser Tools zur Codegenerierung verwendet haben, ist das meiner Meinung nach wahrscheinlich das perfekte Beispiel dafür, wie diese Systeme den Menschen bereichern [und] wirklich drastische Veränderungen bewirken können die Anzahl der Personen, die Sie zum Erstellen von Software benötigen.
„Das andere Beispiel, das sich gerade abspielt, ist, dass es in Hollywood einen Schriftstellerstreik gibt. Und ich weiß, dass eines der Themen, die derzeit auf dem Tisch liegen, einer der Gründe, warum die Schriftsteller streiken, darin besteht, dass sie … Wir befürchten, dass ChatGPT [und andere generative KI-Systeme] zunehmend als Ersatz für Autoren eingesetzt werden. Eines der Arbeitsprobleme, die derzeit auf dem Tisch liegen, ist eine Mindestanzahl an Autoren, Sie wissen schon, menschliche Autoren, die es sein muss Ich bin mit der Arbeit an einer Show oder einem Film beauftragt. Ich denke, das sind sehr reale Arbeitsprobleme, die sich derzeit abzeichnen.
„Welche Vorschriften werden am Ende verabschiedet, um menschliche Arbeitskräfte zu schützen? Ich denke, wir werden zunehmend feststellen, dass es ein Spannungsverhältnis zwischen menschlichen Arbeitskräften und ihren Rechten und den wirklich unglaublichen Produktivitätssteigerungen gibt, die wir durch diese Werkzeuge erzielen.“
Reden wir über die Herkunft. Generative KI-Systeme können einfach geistiges Eigentum und urheberrechtlich geschützte Werke stehlen, da es derzeit keine automatisierte, standardisierte Methode gibt, um zu erkennen, was KI generiert und was von Menschen geschaffen wurde. Wie schützen wir Originalwerke der Urheberschaft?Shattuck:" Wir haben bei Credo viel darüber nachgedacht, weil dies ein sehr wichtiges Risiko für unsere Kunden ist und Sie wissen, dass sie nach Lösungen suchen, um es zu lösen. Ich denke, es gibt ein paar Dinge, die wir tun können. Es gibt, wenn man so will, mehrere Stellen, an denen man direkt in den KI-Workflow eingreifen kann. Ein Ort, an dem man eingreifen kann, ist genau dort, wo das KI-System einen Output erzeugt. Wenn Sie die Ausgaben von KI-Systemen effektiv mit der Welt des urheberrechtlich geschützten Materials vergleichen können, um festzustellen, ob eine Übereinstimmung vorliegt, können Sie generative KI-Ausgaben effektiv blockieren, die das Urheberrecht einer anderen Person verletzen würden.
„Ein Beispiel wäre, wenn Sie ein generatives KI-System verwenden, um Bilder zu generieren, und dieses System ein Bild generiert, das wahrscheinlich das am meisten urheberrechtlich umstrittene Bild der Welt enthält – die Mickey-Mouse-Ohren –, das möchten Sie automatisch.“ Blockieren Sie diese Ausgabe, weil Sie nicht möchten, dass Disney Sie schnappt, wenn Sie sie versehentlich irgendwo auf Ihrer Website oder in Ihren Marketingmaterialien verwenden. Die Möglichkeit, Ausgaben zu blockieren, weil festgestellt wird, dass sie bereits gegen bestehende Urheberrechte verstoßen, ist eine Ihrer Schutzmaßnahmen könnte eingerichtet werden, und dies ist wahrscheinlich am einfachsten für Code.
„Dann gibt es noch eine weitere Interventionsebene, die meiner Meinung nach mit Wasserzeichen zusammenhängt. Dabei geht es darum, wie wir Menschen dabei helfen, Entscheidungen darüber zu treffen, welche generierten Inhalte verwendet werden sollen und welche nicht. Und so in der Lage zu sein, zu verstehen, dass ein KI-System einen Inhalt zuverlässig generiert hat.“ , durch Wassermarkierung, ist sicherlich eine Möglichkeit, dies zu erreichen. Ich denke, im Allgemeinen wird es wirklich entscheidend sein, den Menschen Werkzeuge zur Verfügung zu stellen, mit denen sie generative KI-Ergebnisse besser anhand einer Vielzahl unterschiedlicher Risiken bewerten können, um Menschen in die Lage zu versetzen, sie sicher zu nutzen generative KI in einer Reihe verschiedener Szenarien.“
Welche Risiken birgt generative KI? Auch wenn wir nicht alle künftigen Risiken vorhersagen können, was ist Ihrer Meinung nach am wahrscheinlichsten? Wir bitten es also nur, dass es einfach schöner wird? Diese Systeme werden in kurzer Zeit exponentiell intelligenter und entwickeln sich immer schneller weiter. Können wir sie zu diesem Zeitpunkt überhaupt zügeln? Wie wird sich generative KI auf Arbeitsplätze auswirken? Wird dies wie bei früheren industriellen Revolutionen sein, die viele Arbeitsplätze durch Automatisierung vernichteten, aber durch qualifizierte Positionen neue Berufe hervorbrachten? Reden wir über die Herkunft. Generative KI-Systeme können einfach geistiges Eigentum und urheberrechtlich geschützte Werke stehlen, da es derzeit keine automatisierte, standardisierte Methode gibt, um zu erkennen, was KI generiert und was von Menschen geschaffen wurde. Wie schützen wir Originalwerke der Urheberschaft? "