Zeit der Entscheidung: Vorsicht vor dem Hype um generative künstliche Intelligenz

03. Mai 2023


Blog

Die Tatsache, dass die neueste Version von ChatGPT in Sekundenschnelle juristische Prüfungen bestehen, bahnbrechende Medikamente entwickeln, Spiele erfinden und vieles mehr kann, hat verständlicherweise Scharen von Wirtschaftsführern zur generativen künstlichen Intelligenz hingezogen. 

Doch so wundersam und verlockend diese neue Art der KI auch ist, die Entscheidungsträger in den Unternehmen müssen sich fragen: Brauchen wir sie wirklich? Oder handelt es sich nur um ein hilfreiches Spielzeug und nicht um ein bahnbrechendes Geschäftsinstrument? Das bedeutet, dass man verstehen muss, welche Leistungssteigerung mit den Anwendungen von KI-Chatbots erreicht werden kann.

Während die Führungskräfte scheinbar gebannt sind, ist der Einsatz von KI nur um der KI willen kontraproduktiv und kostspielig. Außerdem wird durch das Testen, Verwenden und Kaufen von generativen KI-Lösungen das Tier gefüttert, das wahrscheinlich größer als die Menschheit werden wird.

Experten gehen davon aus, dass die sogenannte künstliche allgemeine Intelligenz (AGI) - im Grunde ein Computersystemtem, dasdas in der Lage ist, neue wissenschaftliche Erkenntnisse zu generieren und alle menschlichen Aufgaben zu erledigen - näher denn je. Einige glauben, dass dies innerhalb eines Jahrzehnts geschehen könnte.

Im Moment sind viele Menschen mit den Freemium-Versionen der generativen KI-Tools zufrieden. Aber im Geschäftsleben gibt es nichts umsonst. Die von ihnen erstellten Suchanfragen und Ergebnisse werden verwendet, um Unternehmen wie ChatGPT zu helfen's OpenAI, zu bestimmen, für welche Anwendungsfälle und Anwendungen Unternehmen zahlen und welche Fähigkeiten sie verbessern und entwickeln wollen.

In der Zwischenzeit wird der lange Schatten der AGI immer größer. Seit ChatGPT im November der Öffentlichkeit zugänglich gemacht wurde, ist eine Flut von Investitionen und Talenten in die AGI-Forschung geflossen. Plötzlich sind wir von einem einzigen AGI-Startup, Deepmind, das 2012 eine Finanzierung von 23 Millionen Dollar erhielt, zu acht oder mehr Organisationen aufgestiegen, die in diesem Bereich tätig sind und in diesem Jahr insgesamt 20 Milliarden Dollar an Investitionen aufgebracht haben.

Es'Es lohnt sich, daran zu denken, dass neben den privaten Investitionen auch die Nationalstaaten an diesem Wettlauf teilnehmen. Schließlich tragen Verbesserungen in der KI dazu bei, Zivilisten und Militärs besser zu bedienen. Es ist auch wichtig zu wissen, dass eine KI, die beim Schreiben von Software übermenschliche Leistungen erbringt, beispielsweise Cyberwaffen entwickeln könnte. Vor drei Jahren besiegte ein KI-Programm einen erfahrenen US-Militärpiloten in einem simulierten Luftkampf.

 

Den Fortschritt aufhalten

Kein Wunder also, dass Elon Musk und fast 4.000 hochkarätige Unterzeichner, darunter Ingenieure von Amazon, DeepMind, Google, Meta und Microsoft, Ende März in einem offenen Brief versuchten, die schwindelerregende Beschleunigung der generativen KI aufzuhalten offenen Brief.

Sie lautete: "In den letzten Monaten haben sich die KI-Labors in einem unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe befunden, die niemand - nicht einmal ihre Erfinder - verstehen, vorhersagen oder zuverlässig kontrollieren kann." Der Brief fuhr fort: "Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind."

Wir alle sollten aufhorchen, wenn die klügsten menschlichen - nicht maschinellen - Gehirne fordern, den Fortschritt aufzuhalten. Aber die Befürchtung ist, dass der Bot bereits abgehauen ist. Angesichts der potenziellen Wettbewerbsvorteile, die sich ergeben, wenn die Konkurrenten solche KI-Tools ablehnen, wird die Versuchung für die Unternehmensführer zu groß sein, die Grenzen der Technologie über ihre derzeitigen Grenzen hinaus zu verschieben?

Letztendlich, so warnte der Technologe James Bridle in einem kürzlich veröffentlichten Essay in der Zeitung The GuardianKI "von Natur aus dumm" ist. Er schrieb: "Sie hat den größten Teil des Internets gelesen und weiß, wie menschliche Sprache klingen sollte, aber sie hat keinerlei Bezug zur Realität."

Bridle rief dazu auf, eine ambivalente Haltung gegenüber ChatGPT und KI im Allgemeinen einzunehmen. Außerdem glaubt er, dass es sich "kenntnisreich oder sinnvoll [sei] aktiv gefährlich", fügte er hinzu. "Es besteht die Gefahr, dass der Brunnen des kollektiven Denkens und unserer Fähigkeit, überhaupt zu denken, vergiftet wird.

Er wies darauf hin, dass das Vertrauen in die KI Unternehmen dazu verleiten könnte, Abkürzungen zu nehmen und, was noch schlimmer ist, den Menschen aus dem Kontrollbereich zu verdrängen. Wenn ein Unternehmensleiter beschließt, dass der Einsatz und die Finanzierung von KI-Projekten sinnvoll ist, wird er immer ein gewisses Maß an menschlicher Filterung benötigen.

 

Die Menschen in der Verantwortung lassen

KI könnte mehr Einblicke in ein Unternehmen geben'Portfolio eines Unternehmens, seine Kunden, Verbrauchergewohnheiten usw. liefern. Aber wenn es darum geht zu entscheiden, welches Produkt auf den Markt gebracht werden soll, müssen die Führungskräfte die letzte Entscheidung treffen. Es'Es ist ein bisschen so, als würde man Waze auf einer Autofahrt benutzen - man hat vielleicht die Wahl zwischen zwei Routen, und es'und der Fahrer muss entscheiden, welche er nehmen will.

Professor Erik Brynjolfsson, Direktor des Digital Economy Lab am Stanford Institute for Human-Centered AI, führt diese Analogie weiter und verweist auf Waymo'die Experimente von Waymo mit selbstfahrenden Fahrzeugen hin. "Es funktioniert zu 99,9 % der Zeit, aber es gibt einen menschlichen Sicherheitsfahrer, der das System überwacht, und einen zweiten Sicherheitsfahrer für den Fall, dass der erste einschläft". sagte er kürzlich in einem Interview. "Menschen, die sich gegenseitig überwachen, sind nicht der Weg zu fahrerlosen Autos."

Alternativ dazu hat das Toyota Research Institute "umgedreht", so Brynjolfsson, so dass der Mensch am Steuer sitzt und die Entscheidungen trifft, während die KI "als Schutzengel" agiert, der nur eingreift, wenn unsichtbare oder übersehene Gefahren lauern. "Ich denke, das ist ein gutes Modell, nicht nur für das selbstfahrende Auto, sondern auch für viele andere Anwendungen, bei denen Menschen und Maschinen zusammenarbeiten", fügte Brynjolfsson hinzu.

Ich stimme dieser Analyse zu. Der Mensch muss beim Fahrer bleiben's seat oder Pilot's chair. Und in einem Unternehmen muss die Führungskraft im Mittelpunkt des Entscheidungsprozesses stehen und dennoch von der KI mit einer besseren Sichtbarkeit als dem menschlichen Auge informiert werden.

  • Autor(en)


Tasten teilen: E-Mail linkedin twitter