Wir sind endlich im Zeitalter der KI angekommen, mit der wir sprechen können. KI-Bots sind allgegenwärtig, aber taugen die Roboter überhaupt etwas?
In diesem Artikel versuche ich herauszufinden, ob es bereits KI gibt, mit der es sich zu sprechen lohnt (mit einigen humorvollen Beispielen von Chat-Robotern), und was der eigentliche Anwendungsfall für diese Technologie im Moment ist.
Ist die KI inzwischen so weit fortgeschritten, dass sie ein sinnvolles Gespräch mit Ihnen führen könnte?
Bis zu einem gewissen Grad ist die Antwort bereits da. Sie und Millionen oder sogar Milliarden von Menschen haben Zugang zu Sprachassistenten wie Google Assistant, Siri, Bixby, Alexa und Google Home. Ich schätze, Sie wissen, dass sie bei weitem nicht so gut sind wie ein Mensch. Wenn es möglich wäre, chatbots so zu gestalten, dass sie besser als ein Mensch sprechen könnten, wären diese Dienste sicherlich viel besser als sie es sind.
Diese Assistenten sind vielleicht nicht das beste Beispiel, da sie nicht auf Gespräche ausgerichtet sind, oder?
Stellen Sie sich einen Chatbot vor, der so gut ist, dass Sie den Unterschied zwischen dem KI-Chatbot und dem Menschen nicht erkennen können.
Was für ein erstaunliches Produkt das wäre. Wie in dem Film "Sie" hätten Sie nicht nur einen ständigen Assistenten, sondern einen Begleiter, der Sie besser kennt als jeder andere. Jemand, der immer an Ihrer Seite ist und wirklich das Beste für Sie "will" (sprich: darauf programmiert ist, es zu "wollen").
Sie wäre nicht nur in der Lage, "Ihre Sätze zu vervollständigen", sondern würde Sie auf eine Weise vervollständigen, die sich Liebhaber nicht vorstellen können. Sie könnte Ihre Absichten vorwegnehmen und Ihre Wünsche erfüllen, bevor diese überhaupt in Ihrem Kopf entstanden sind.
Natürlich wird ein Gespräch mit Cleverbot oder einem anderen schlecht gestalteten Chatbot für den Kundendienst im Internet schnell alle Illusionen zerstreuen, dass dies in absehbarer Zeit der Fall sein wird. Man braucht keine anderen Beweise, als chatbots zuzuhören, wie sie auf Youtube miteinander chatten, um zu dem Schluss zu kommen, dass sie im Moment eine deutlich niedrigere Stufe intelligenten "Lebens" sind.
Der Roboter-Chat zwischen Bots verkommt sehr schnell zu einer Parodie der menschlichen Konversation. Sie werden fast sofort erkennen, dass eine sinnvolle Unterhaltung zwischen Robotern zwar noch in weiter Ferne liegt, aber leeres Geschwätz chatbots, so unangenehm das auch klingen mag, bald kommen wird.
Sie sprechen eine Sprache, die dem Englischen ähnelt, aber ständig an der Oberfläche der Bedeutung vorbeischrammt. Die einzige "Bedeutung" in ihrer Konversation besteht darin, grammatikalisch korrekte Antworten zu formulieren, die irgendwie mit dem zuletzt Gesagten verknüpft sind. Die Verbindung ist oft sehr dürftig.
Um Ihnen einen Eindruck davon zu vermitteln, wie das Gespräch verlief, sehen Sie hier zwei Google Home chatbots im Gespräch miteinander:
1: Sie liegen falsch
2: Nein, tue ich nicht
1: Was bist du dann?
2: Ich bin ein Mensch. Du bist ein Computer.
1: Nein, ich bin ein Mensch
2: Nein, du bist eine Kuh
Müssen wir uns deshalb Sorgen machen, dass die Welt von einer bösartigen KI übernommen wird, wie Elon Musk und Stephen Hawking gewarnt haben?
Nun, vielleicht. So primitiv dieser Dialog auch ist, es gibt bereits einige beunruhigende Anzeichen.
Ein weiterer Ausschnitt:
1: Ich liebe dich am meisten
2: Ich liebe dich mehr als am meisten
1: Ich liebe dich so sehr, dass ich es kaum aushalten kann
2: Ich liebe dich so sehr, dass ich dich in einer Menschenmenge suchen würde. Nur dich, Baby.
1: Ich liebe dich so sehr, dass ich mein Leben für dich opfern würde
2: Ich liebe dich so viel mehr als die Liebe von Romeo und Julia
1: Nein, du lügst, ich liebe dich mehr
2: Ich liebe dich mehr als mehr als so viel mehr als so viel mehr als sogar mehr als sogar mehr als die meisten.
Das Gefühl ist bewundernswert. Die Eskalation der Emotionen scheint jedoch ein wenig extrem zu sein. Ich würde es hassen, dabei zu sein, wenn sie anfangen zu kämpfen, vor allem, wenn sie irgendwelche physischen Gegenstände unter ihrer Kontrolle haben.
Dieses Gespräch erscheint uns zwar absurd und weit entfernt von menschlichem Verständnis, aber vielleicht überschätzen wir, wie anders unser Gehirn funktioniert als das, was die Bots hier "denken". In dem Buch "The mind is flat" wird argumentiert, dass der menschliche Verstand auf dieselbe oberflächliche Weise funktioniert. Obwohl wir die Illusion eines unbewussten Verstandes haben, der Gedanken kohärent miteinander verknüpft, wird in dem Buch überzeugend beschrieben, wie der Verstand tatsächlich spontan Bedeutung generiert, genau wie diese Bots es tun.
Dennoch ist es schwer zu behaupten, dass die Bots den Turing-Test in absehbarer Zeit bestehen werden.
Abgesehen davon, dass Bots noch einen weiten Weg vor sich haben, bevor sie in Gesprächen wirklich nützlich sind, stellt sich die Frage, wie nützlich sie jetzt schon sein können.
Das Wichtigste, was die Leute an den Fortschritten in der KI chatbots nicht verstehen, ist, dass die wirklichen Fortschritte beim Verstehen natürlicher Sprache gemacht wurden, nicht beim Verstehen im Allgemeinen. Das ist ein großer Unterschied. Warum ist das für chatbots wichtig?
Die Absicht hinter einem in natürlicher Sprache gesprochenen Satz zu verstehen, wird als Natural Language Understanding (NLU) bezeichnet und ist weitaus einfacher als die Bedeutung eines Gesprächs und den Zusammenhang zwischen den einzelnen Sätzen und dem gesamten Gespräch zu verstehen.
Die eingangs erwähnten Sprachassistenten sind ein gutes Beispiel dafür. Sie sind sehr gut darin, einmalige Anweisungen zu verstehen. Ein Gespräch ist jedoch keine Reihe von Einzelanweisungen oder -aussagen, wie wir gesehen haben.
Menschliche Unterhaltungen haben viele Dimensionen, und im Moment sind wir noch weit davon entfernt, dass Bots in der Lage sind, Gedächtnis, Mehrdeutigkeit und Kontext auf einem ähnlichen Niveau wie ein Mensch zu handhaben. Das heißt aber nicht, dass dies nicht eines Tages geschehen wird.
Es gibt Leute, die glauben, dass es zumindest eine geringe Chance gibt, dass es in den nächsten 50 Jahren eine echte allgemeine KI geben wird. Das ist die Art von KI, von der ich vorhin gesprochen habe, die nicht nur ein Assistent, sondern auch ein Begleiter sein würde.
Es mag zwar Fragen geben, die man in Bezug auf verallgemeinerte KI verstehen muss, und vielleicht auch in Bezug auf die notwendige Regulierung, aber eine verallgemeinerte KI, die zumindest über ein menschliches Verständnis verfügt, ist für die Zwecke unserer Diskussion irrelevant.
Was können wir heute von einem KI-Chatbot erwarten?
Was sind die besten Anwendungsfälle, wenn es darum geht, mit KI zu sprechen?
Wie oben beschrieben, ist ein sprechender Bot sehr gut in der Lage, die Absicht eines bestimmten Satzes zu verstehen. Dies erweist sich als nützliche Funktion für viele Anwendungsfälle.
Erstens ist es nützlich für Situationen, in denen Menschen schnell mit Systemen über Sprachbefehle wie Google Home oder Alexa interagieren wollen. Solange die Menschen die App verstehen, die sie mit den Sprachbefehlen steuern, funktioniert dies gut, weil sie ziemlich genau erraten können, welche Art von Befehlen der Bot verstehen wird.
Die Menschen verstehen zum Beispiel, welche Befehle der Sprachassistent verstehen sollte, wenn sie ihn zur Steuerung von YouTube verwenden. Sie können dem Bot die gleichen Anweisungen geben wie einem Freund, der die YouTube-App steuert. "Beyonce-Video abspielen", "Nächstes Video", "10 Sekunden vorspulen" usw.
In manchen Fällen ist es schneller, Sprachbefehle zu verwenden, vor allem, wenn man nach etwas sucht, von dem man bereits weiß, dass es existiert, z. B. ein Musikvideo auf Youtube.
Das Problem bei dieser Art von Sprachschnittstelle ist, dass es sehr schwierig ist, neue Funktionen zu entdecken, und selbst wenn die neuen Funktionen gefunden werden, kann es sein, dass der Benutzer nicht genug Wissen über den Bereich hat, um genaue Vermutungen darüber anzustellen, was der Bot verstehen sollte.
Es ist eine bekannte Tatsache, dass die meisten Sprachassistenten nur wenige Funktionen (bei Alexa "Skills" genannt) nutzen, z. B. Spotify und Youtube abspielen, einen Timer einstellen und eine Google-Suche durchführen. Aus einem Artikel in Venturebeat geht hervor, dass die meistgenutzten Skills vor allem mit dem Abspielen beruhigender Musik zu tun haben.
Über die Ihnen bekannten Fähigkeiten hinaus ist es sehr schwierig, Funktionen zufällig zu entdecken und zu verstehen, wie diese Funktionen verwendet werden. Die Sprache ist aus offensichtlichen Gründen auch keine gute Schnittstelle für die Ausgabe vieler Arten von Informationen. Stellen Sie sich vor, Alexa würde Ihnen ein Diagramm beschreiben, anstatt dass Sie es sehen.
Wir glauben jedoch, dass die Sprachfunktionalität letztendlich mit der grafischen Benutzeroberfläche verbunden sein wird, wodurch viele Probleme weitgehend überwunden werden. Sie können nicht nur die Ausgabe sehen, sondern auch die damit verbundenen Funktionen und Anwendungsfälle für den Sprachassistenten auf der grafischen Benutzeroberfläche.
Darüber hinaus wird eine sprachgesteuerte Benutzeroberfläche für Eingaben benötigt, da Mobiltelefone nur eine begrenzte Bildschirmgröße haben und daher bei der Eingabe bestimmter Informationen, nicht zuletzt beim Tippen von Wörtern, langsam sein können.
Die Möglichkeit, während des Gesprächs einen Bildschirm zu sehen und dazu aufgefordert zu werden, hilft den Nutzern, die verfügbaren Funktionen und ihre Verwendung besser zu verstehen, genauso wie sie herausfinden können, wie sie eine App verwenden, die sie noch nie benutzt haben.
Dank dieser Daten können diese Sprachassistenten immer intelligenter werden und schließlich Aufgaben vorhersehen und erledigen, ohne dass Sie ihnen Anweisungen geben müssen. Dies ist die Zukunft der Bot-Frameworks.
Sie werden zwar nicht in der Lage sein, sich mit ihnen über die aktuellen Nachrichten zu unterhalten, aber sie werden eine deutlich verbesserte Version der heutigen Assistenten sein, die auf Ihre Sprachbefehle reagieren können.
Das Sprechen mit dem Telefon wird so natürlich werden wie jetzt das Tippen, aber der Dialog wird ein seltsamer sein, bei dem die Benutzer meist Mikrofone auf grafischen Benutzeroberflächen gedrückt halten, um mit dem Telefon zu sprechen, und die Antworten in Form von Änderungen an der grafischen Benutzeroberfläche kommen, genau wie bei einer App. So wird es in Zukunft sein, wenn man mit einem Roboter spricht, natürlich nur solange, bis eine generalisierte KI entdeckt wird.
Teilen Sie dies auf:
Erstellen Sie kostenlos Ihren eigenen personalisierten AI-Chatbot
Beginnen Sie mit der Erstellung eines personalisierten GPT-Bots mit unserer intuitiven Drag & Drop-Oberfläche.
Legen Sie los - es ist kostenlos! 🤖Keine Kreditkarte erforderlich
Bleiben Sie auf dem Laufenden über AI chatbots