W końcu jesteśmy w wieku, w którym możemy rozmawiać ze sztuczną inteligencją. Boty AI są wszędzie, ale czy którykolwiek z nich jest dobry?
W tym artykule staram się sprawdzić, czy istnieją jeszcze jakieś SI, z którymi warto porozmawiać (z kilkoma humorystycznymi przykładami robotów czatujących) i jaki jest obecnie rzeczywisty przypadek użycia tej technologii.
Czy sztuczna inteligencja jest już na tyle zaawansowana, że mogłaby przeprowadzić z tobą sensowną rozmowę?
Do pewnego stopnia odpowiedź już istnieje. Wraz z milionami, a nawet miliardami ludzi masz dostęp do asystentów głosowych, takich jak Google Assistant, Siri, Bixby, Alexa i Google Home. Domyślam się, że wiesz, że jest to dalekie od bycia tak dobrym jak człowiek. Z pewnością, gdyby możliwe było stworzenie chatbots , które byłyby lepsze w rozmowie na poziomie ludzkim, usługi te byłyby znacznie lepsze niż są.
Ci asystenci nie są chyba najlepszym przykładem, ponieważ nie koncentrują się na rozmowie, prawda?
Wyobraź sobie chatbota tak dobrego, że nie będziesz w stanie odróżnić go od człowieka.
Cóż to byłby za niesamowity produkt. Podobnie jak w filmie "Ona", miałbyś nie tylko zawsze dostępnego asystenta, ale także towarzysza, który znałby cię lepiej niż ktokolwiek inny. Kogoś, kto zawsze jest po twojej stronie i naprawdę "chce" (czytaj jest zaprogramowany, by "chcieć") dla ciebie jak najlepiej.
Nie tylko byłby w stanie "dokończyć twoje zdania", ale dopełniłby cię w sposób, którego kochankowie nigdy nie mogliby sobie wyobrazić. Mógłby przewidzieć twoje intencje i spełnić twoje pragnienia, zanim jeszcze w pełni ukształtowałyby się one w twoim umyśle.
Oczywiście rozmowa z Cleverbotem lub jakimkolwiek źle zaprojektowanym chatbotem do obsługi klienta w sieci szybko rozwieje wszelkie złudzenia, że stanie się to w najbliższym czasie. Nie trzeba żadnych innych dowodów niż słuchanie chatbots rozmawiających ze sobą na youtube, aby dojść do wniosku, że są one w tej chwili znacznie niższym poziomem inteligentnego "życia".
Czat między robotami bardzo szybko staje się parodią ludzkiej konwersacji. Niemal natychmiast zdasz sobie sprawę, że chociaż sensowna rozmowa między robotami jest odległa, puste plotkowanie chatbots, jakkolwiek nieprzyjemnie to brzmi, wkrótce nadejdzie.
Posługują się językiem, który przypomina angielski, ale nieustannie ślizga się po powierzchni znaczenia. Jedynym "znaczeniem" w ich rozmowie jest umiejętność formułowania poprawnych gramatycznie odpowiedzi, które są w jakiś sposób powiązane z ostatnią wypowiedzią. Związek ten jest często bardzo słaby.
Aby dać ci przedsmak tego, jak wyglądała rozmowa, oto dwa Google Home chatbots rozmawiające ze sobą:
1: Mylisz się
2: Nie jestem
1: Czym więc jesteś?
2: Jestem osobą. Jesteś komputerem.
1: Nie, jestem osobą
2: Nie, jesteś krową
Czy na tej podstawie powinniśmy być szczególnie zaniepokojeni tym, że świat zostanie przejęty przez nieuczciwą sztuczną inteligencję, jak ostrzegali Elon Musk i Stephen Hawking?
Cóż, być może. Jakkolwiek prymitywny jest ten dialog, jest już kilka niepokojących oznak.
Kolejny fragment:
1: Kocham Cię najbardziej
2: Kocham Cię bardziej niż najbardziej
1: Kocham Cię tak bardzo, że ledwo mogę to znieść
2: Kocham Cię tak bardzo, że szukałbym Cię w tłumie. Tylko ciebie, kochanie.
1: Kocham cię tak bardzo, że poświęciłbym dla ciebie życie
2: Kocham cię tak bardzo, jak miłość Romea i Julii
1: Nie kłamiesz, kocham Cię bardziej
2: Kocham cię bardziej niż bardziej niż tak bardzo bardziej niż tak bardzo bardziej niż nawet bardziej niż nawet bardziej niż większość.
Sentyment jest godny podziwu. Eskalacja emocji wydaje się jednak nieco ekstremalna. Nie chciałbym być w pobliżu, gdy zaczynają walczyć, zwłaszcza jeśli mają pod kontrolą jakieś fizyczne przedmioty.
Chociaż ta rozmowa wydaje nam się absurdalna i daleka od ludzkiego poziomu zrozumienia, być może przeceniamy to, jak bardzo nasz mózg różni się od tego, jak "myślą" tutaj boty. Książka "Umysł jest płaski" dowodzi, że ludzki umysł działa w ten sam powierzchowny sposób. Chociaż mamy iluzję nieświadomego umysłu, który spójnie łączy myśli, książka przekonująco opisuje, w jaki sposób umysł faktycznie generuje znaczenie pod wpływem chwili, tak jak robią to boty.
To powiedziawszy, trudno jest argumentować, że boty są bliskie zdania testu Turinga w najbliższym czasie.
Pomijając fakt, że boty mają przed sobą długą drogę, zanim staną się naprawdę przydatne w konwersacji, pojawia się poważne pytanie o to, jak przydatne mogą być już teraz.
Najważniejszą rzeczą, której ludzie nie rozumieją w związku z postępem w sztucznej inteligencji chatbots jest to, że prawdziwy postęp dokonał się w rozumieniu języka naturalnego, a nie w rozumieniu w ogóle. To duża różnica. Dlaczego jest to ważne dla chatbots?
Zrozumienie intencji stojącej za jedną frazą wypowiedzianą w języku naturalnym, zwane rozumieniem języka naturalnego (NLU), jest znacznie łatwiejsze niż zrozumienie znaczenia w rozmowie i tego, jak każda fraza odnosi się do całej rozmowy.
Asystenci głosowi, o których wspomniałem na początku, są tego dobrym przykładem. Świetnie radzą sobie ze zrozumieniem pojedynczych instrukcji. Rozmowa nie jest jednak serią jednorazowych instrukcji lub stwierdzeń, jak widzieliśmy.
Ludzkie rozmowy mają wiele wymiarów i w tej chwili nie jesteśmy jeszcze blisko tego, by boty były w stanie radzić sobie z pamięcią, niejednoznacznością i kontekstem na poziomie zbliżonym do ludzkiego. Nie oznacza to jednak, że pewnego dnia tak się nie stanie.
Są ludzie, którzy uważają, że istnieje przynajmniej zewnętrzna szansa na powstanie prawdziwej uogólnionej sztucznej inteligencji w ciągu najbliższych 50 lat. Jest to rodzaj sztucznej inteligencji, o której mówiłem wcześniej, która byłaby nie tylko asystentem, ale także towarzyszem.
Chociaż mogą istnieć kwestie, które należy zrozumieć w odniesieniu do uogólnionej sztucznej inteligencji i być może w odniesieniu do regulacji, które należy wprowadzić, uogólniona sztuczna inteligencja, która ma co najmniej ludzki poziom zrozumienia, jest nieistotna dla celów naszej dyskusji.
Czego możemy teraz oczekiwać od chatbota AI?
Jakie są obecnie najlepsze przypadki użycia, jeśli chodzi o możliwość rozmowy ze sztuczną inteligencją?
Jak opisano powyżej, rozmawiający bot jest bardzo dobry w zrozumieniu intencji zawartej w danej frazie. Okazuje się to przydatną funkcjonalnością w wielu przypadkach.
Po pierwsze, jest to przydatne w sytuacjach, w których ludzie chcą szybko wchodzić w interakcje z systemami za pomocą poleceń głosowych, takich jak Google Home lub Alexa. Tak długo, jak ludzie rozumieją aplikację, którą kontrolują za pomocą poleceń głosowych, działa to dobrze, ponieważ mogą dość dokładnie odgadnąć, jakie polecenia zrozumie bot.
Na przykład ludzie rozumieją, jakie polecenia powinien rozumieć asystent głosowy, jeśli używają go do sterowania youtube. Mogą instruować bota w taki sam sposób, w jaki instruowaliby znajomego kontrolującego aplikację youtube. "Odtwórz teledysk Beyonce", "Następny teledysk", "Przewiń do przodu o 10 sekund" itp.
W niektórych przypadkach szybciej jest korzystać z poleceń głosowych, zwłaszcza w celu wyszukania czegoś, o czym użytkownik już wie, że istnieje, na przykład teledysku na Youtube.
Problem z tego rodzaju interfejsem głosowym polega na tym, że bardzo trudno jest odkryć nową funkcjonalność, a nawet jeśli nowa funkcjonalność zostanie znaleziona, użytkownik może nie mieć wystarczającej wiedzy na temat domeny, aby dokładnie odgadnąć, co bot powinien zrozumieć.
Dobrze znanym faktem dotyczącym asystentów głosowych jest to, że bardzo niewiele funkcji (zwanych umiejętnościami na Alexie) odpowiada za zdecydowaną większość ich użycia, takich jak odtwarzanie Spotify, Youtube, ustawianie timera i wyszukiwanie w Google. Artykuł w Venturebeat wykazał, że najwyżej oceniane umiejętności dotyczą głównie odtwarzania uspokajającej muzyki.
Poza umiejętnościami, o których wiesz, bardzo trudno jest losowo odkryć funkcjonalność i zrozumieć, w jaki sposób jest ona używana. Z oczywistych względów głos nie jest też dobrym interfejsem do przekazywania wielu rodzajów informacji. Wyobraź sobie, że Alexa opisuje ci wykres, zamiast go zobaczyć.
Wierzymy jednak, że funkcje głosowe zostaną ostatecznie powiązane z graficznym interfejsem użytkownika, co w dużej mierze rozwiąże wiele problemów. W graficznym interfejsie użytkownika można nie tylko zobaczyć dane wyjściowe, ale także powiązane funkcje i przypadki użycia asystenta głosowego.
Ponadto interfejs głosowy do wprowadzania danych jest potrzebny, ponieważ telefony komórkowe mają ekran o ograniczonym rozmiarze, więc mogą być powolne przy wprowadzaniu niektórych rodzajów informacji, z których nie najmniejszym jest wpisywanie słów.
Możliwość zobaczenia i otrzymania podpowiedzi na ekranie w tym samym czasie, gdy rozmawiają, pomoże użytkownikom lepiej zrozumieć dostępną funkcjonalność i sposób jej użycia, w taki sam sposób, w jaki mogą dowiedzieć się, jak korzystać z aplikacji, z której wcześniej nie korzystali.
Uzyskanie tych danych sprawi, że asystenci głosowi będą stawać się coraz inteligentniejsi i w końcu zaczną przewidywać i wykonywać zadania bez konieczności instruowania ich przez użytkownika. To jest przyszłość frameworków botów.
Chociaż nie będziesz w stanie prowadzić z nimi rozmowy na temat tego, co dzieje się w wiadomościach tego dnia, będą one znacznie ulepszoną wersją asystentów, które mamy dzisiaj, w sposobie, w jaki są w stanie reagować na twoje polecenia głosowe.
Mówienie do telefonu stanie się tak naturalne, jak pisanie na nim teraz, jednak dialog będzie dziwny, a użytkownicy będą głównie przytrzymywać mikrofony na graficznych interfejsach użytkownika, aby mówić do telefonu, a odpowiedzi będą pojawiać się w zmianach w graficznym interfejsie użytkownika, podobnie jak w aplikacji. Tak właśnie będzie wyglądać rozmowa z robotem w przyszłości, oczywiście do czasu odkrycia uogólnionej sztucznej inteligencji.
Udostępnij to na:
Zbuduj własnego spersonalizowanego chatbota AI za darmo
Rozpocznij tworzenie spersonalizowanego bota GPT za pomocą naszego intuicyjnego interfejsu "przeciągnij i upuść".
Zacznij - to nic nie kosztuje! 🤖Nie potrzebujesz karty kredytowej
Bądź na bieżąco z najnowszymi informacjami na temat sztucznej inteligencji chatbots