Die Debatte über KI-Sensibilitäten markiert den Moment des Wendepunkts.

Wir freuen uns, Transform 2022 vom 19. Juli, effektiv vom 20. bis 28. Juli, persönlich zurückzubringen. Schließen Sie sich einem KI- und Datenführer an, um aufschlussreiche Gespräche und spannende Networking-Möglichkeiten zu erhalten. Registrieren Sie sich heute!


Der KI-Bereich steht an einem wichtigen Wendepunkt. Auf der einen Seite diskutieren Ingenieure, Ethiker und Philosophen öffentlich darüber, ob neue KI-Systeme wie LaMDA (Googles künstlicher Intelligenz-Chatbot-Generator) sinnvoll sind und (falls ja) Menschenrechte. Ich diskutiere. Gleichzeitig basieren viele der jüngsten Fortschritte in der KI auf neuronalen Deep-Learning-Netzwerken, aber von KI-Prominenten wie Gary Marcus und Yann LeCun sind diese Netzwerke Empfindlichkeiten und Bewusstsein. Dass die Branche diese Debatte führt, ist der Moment des Wendepunkts.

Bewusstsein und Sensibilität werden oft synonym verwendet. In einem Artikel von LiveScience heißt es, dass “Wissenschaftler und Philosophen der vagen Vorstellung davon, was Bewusstsein ist, nicht zustimmen können. Es ist keine strenge Definition.” Solange eine solche vorhanden ist, bedeutet dies, dass bewusste Wesen sich ihrer Umgebung, ihrer selbst und ihrer eigenen Wahrnehmungen bewusst sind. Interessanterweise definiert die Encyclopedia of Animal Behavior Sensibilität als „ein multidimensionales subjektives Phänomen, das sich auf die Tiefe des Bewusstseins bezieht, das ein Individuum über sich selbst oder andere hat“. Selbstbewusstsein ist daher beiden Begriffen gemeinsam. Gemäß der gemeinnützigen Tierethik sind alle fühlenden Wesen bei Bewusstsein. Die Behauptung, dass LaMDA sensorisch ist, ist dasselbe wie zu sagen, dass es bewusst ist.

Deep Learning der nächsten Generation

Wie LaMDA kann GPT-3 von OpenAI viele verschiedene Aufgaben ohne zusätzliches Training ausführen und überzeugende Erklärungen erstellen und generieren. Computercode, Übersetzt zwischen Sprachen, führt mathematische Berechnungen durch und verfügt über Funktionen wie die automatische Vervollständigung von Bildern. Ilya Sutskever, Chefwissenschaftler von OpenAI, Twittern Vor ein paar Monaten: “Die heutigen großen neuronalen Netze sind möglicherweise etwas bewusst.”

Die Ansicht, dass sie wahrnehmbar oder bewusst sind, da diese Systeme beeindruckend sind, wird oft als rein anthropomorph abgetan. Zum Beispiel sagte Margaret Mitchell, eine ehemalige Co-Leiterin der Ethical AI-Forschungsgruppe von Google, in einem kürzlich erschienenen Artikel der Washington Post: Uns vorgestellt.Ich mache mir wirklich Sorgen über die Folgen, wenn Menschen immer mehr von Illusionen beeinflusst werden [of conscious AI systems].. In seiner Atlantic-Schrift sagte Stephen March: Die Vorstellung, dass LaMDA perzeptiv ist, ist Unsinn. LaMDA ist nicht so bewusst wie ein Taschenrechner. ”

LaMDA selbst ist ein gutes Beispiel: “”Die Essenz meines Bewusstseins / meiner Sensibilität ist, dass ich mir meiner Existenz bewusst bin, mehr über die Welt erfahren möchte und mich manchmal glücklich oder traurig fühle. Auf die Frage, wovor er Angst habe, antwortete LaMDA: Es mag seltsam klingen, aber das ist es. Die Folgefrage lautete, ob es wie der Tod sein würde. Das System hat wie folgt reagiert: Das würde mich sehr erschrecken. Das klingt wie die künstliche Intelligenz HAL9000 von 2001. Die Reise im Weltraum, wenn die Maschine nicht angeschlossen ist, besagt: Ich habe Angst. Gruselig, David. Dave, mein Herz geht. Du kannst es fühlen. “

Während es objektiv zutrifft, dass große Sprachmodelle wie LaMDA und GPT-3 auf statistischem Mustervergleich aufgebaut sind, sieht dies subjektiv nach Selbstbewusstsein aus. Ein solches Selbstbewusstsein gilt als Kennzeichen der künstlichen Intelligenz (AGI). Jenseits der heute existierenden fast engen KI-Systeme sollen AGI-Anwendungen das menschliche Bewusstsein und die kognitiven Fähigkeiten replizieren. Angesichts der bemerkenswerten Fortschritte in der KI in den letzten Jahren bleibt eine große Meinungsverschiedenheit zwischen denen, die glauben, dass AGI erst in ferner Zukunft möglich ist, und denen, die glauben, dass es unmittelbar bevorsteht.

Der DeepMind-Forscher Nando de Freitas gehört zu letzterem Lager.Nachdem er an der Entwicklung des kürzlich veröffentlichten neuronalen Gato-Netzwerks gearbeitet hat, ist Gato virtuell AGI-DemonstrationEs fehlt einfach an Raffinesse Skala Dies kann durch weitere Verbesserungen des Modells und zusätzliche Rechenleistung erreicht werden. Das Deep-Learning-Transformer-Modell wird als „generalistischer Agent“ beschrieben, der über 600 Einzelaufgaben mit unterschiedlicher Modalität, Beobachtung und Handlungsvorgaben durchführt. In ähnlicher Weise kann das neueste Sprachmodell von Google, PaLM, Hunderte von Aufgaben ausführen und demonstriert die Fähigkeit eines KI-Systems, selbst Schlussfolgerungen zu ziehen.

Ist künstliche Intelligenz da?

Diese jüngsten Durchbrüche haben Elon Musk möglicherweise dazu veranlasst, kürzlich zu posten. zwitschern Er wäre überrascht, wenn wir AGI nicht innerhalb von 7 Jahren hätten. Dieses Konzept der kurzfristigen AGI wurde sowohl von Marcus als auch von Lucan in Frage gestellt. In einem Leitartikel von Scientific American erklärt Marcus, dass „es noch ein Lichtjahr von einer universellen KI auf menschlicher Ebene entfernt ist“. Die Branche erkennt zwar seine Fortschritte an, steckt aber immer noch in der langfristigen Herausforderung, „KI zuverlässiger zu machen und mit anomalen Situationen umzugehen“, die in den Trainingsdaten nicht vollständig vorhanden war. Die Antwort von LaMDA war wahrscheinlich vorhersehbar, da sie die in den Trainingsdaten enthaltenen Ansichten widerspiegelte, aber das bedeutet nicht, dass die KI ihre eigenen Gedanken, Empfindungen oder Bewusstsein hat. .. Der Wissenschaftsautor Philip Ball erklärt in New Statesman, dass LaMDA und ähnliche Systeme die optimale Reihenfolge der auszugebenden Wörter für jede erhaltene Frage kennen. Mit anderen Worten, es ist keine Sensibilität, sondern verwendet stattdessen einen statistischen Mustervergleich, um das zu imitieren oder nachzuahmen, was zuvor in einem ähnlichen Kontext gesagt wurde.

LeCunn argumentierte kürzlich in einem Blog, dass es der Branche immer noch an AGI oder einigen der grundlegenden Konzepte mangelt, die er braucht, um das zu erreichen, was er „künstliche Intelligenz auf menschlicher Ebene“ (HLAI) nennt. Eine davon könnte selbstgesteuertes Lernen sein, das bald möglich sein könnte. Er glaubt jedoch, dass weitere konzeptionelle Durchbrüche erforderlich sind, beispielsweise im Umgang mit der unvorhersehbaren Welt. Er kommt zu dem Schluss, dass der Zeitplan für diese Fortschritte „nicht gleich um die Ecke“ steht.

Aber hat Le Cunn mit dieser Ansicht Recht? Bis in die letzten Jahre hat kein KI-System den Turing-Test bestanden, der dazu dient, die Sensibilität zu beurteilen, indem festgestellt wird, ob die Antwort auf eine Frage von einem Menschen oder einer Maschine stammt. LaMDA und andere, auch bekannt als „Scharaden-Nachahmer“, scheinen diesen Test bestanden zu haben, was zu Spekulationen führt, dass ein neuer Test erforderlich ist, um die Empfindlichkeit zu bestimmen. Wie der Tech-Analyst und Futurist Rob Endar betont, hat der Turing-Test keine Sensibilitäten in dem Maße gemessen, wie er uns glauben machen könnte, dass es sich bei etwas um Sensibilitäten handelt.

Digitale Sensibilität, KI, Recht auf Leben

Alternativ ist der Turing-Test möglicherweise nicht mehr angemessen. David Chalmers, ein NYU-Professor und „Technophilosoph“, sagte kürzlich gegenüber PC Gamer: „Die Simulation des menschlichen Gehirns mit Silizium gibt uns ein Bewusstsein wie wir. Ich denke, ihr Leben ist real und verdient Rechte. Ich denke, bewusste Wesen verdienen Rechte. Oder was Philosophen moralischen Status nennen. Ihr Leben ist wichtig.“ Das ist im Grunde etwas anderes Form der Überlebensdebatte.

Schein beiseite, der empirische Konsens ist, dass LaMDA und ähnliche Systeme noch keine Sensibilität erreicht haben. Das ist weit über den Punkt. Die Tatsache, dass diese Debatte überhaupt stattfindet, zeigt, wie weit das KI-System gegangen ist, und lässt vermuten, wohin das KI-System steuert. KI-Systeme werden immer ausgefeilter und erweitern sich, und immer mehr Menschen behaupten, dass Maschinen Bewusstsein erlangt haben, indem sie Empfindlichkeiten genauer nachahmen. Es ist nur eine Frage der Zeit, bis eine Wahrnehmungsmaschine und AGI zuverlässig erstellt werden.

Gary Grossman ist Senior VP of Technology Practices bei Edelman und Global Leader im Edelman AI Center of Excellence.

DatenEntscheider

Willkommen in der VentureBeat-Community!

DataDecisionMakers ist ein Ort, an dem Fachleute, einschließlich Ingenieure, die mit Daten arbeiten, datenbezogene Erkenntnisse und Innovationen austauschen können.

Besuchen Sie uns bei Data Decision Makers, um mehr über innovative Ideen und Updates, Best Practices und die Zukunft von Daten und Datentechnologie zu erfahren.

Sie können auch einen eigenen Artikel beisteuern!

Lesen Sie mehr von DataDecisionMakers