Estamos finalmente na era da capacidade de falar com a IA. Os bots de IA estão por todo o lado, mas será que os robôs são bons?
Neste artigo, tento perceber se já existe alguma IA com a qual valha a pena falar (com alguns exemplos humorísticos de robôs que conversam) e qual é a verdadeira utilidade desta tecnologia neste momento.
A IA avançou ao ponto de poder manter uma conversa significativa consigo?
Até certo ponto, a resposta já existe. O utilizador, juntamente com milhões ou mesmo milhares de milhões de pessoas, tem acesso a assistentes de voz como o Google Assistant, Siri, Bixby, Alexa e Google Home. Suponho que sabes que está longe de ser tão bom como um humano. Certamente que se fosse possível criar chatbots que fossem melhores do que uma conversa a nível humano, estes serviços seriam muito melhores do que são.
Esses assistentes talvez não sejam o melhor exemplo, uma vez que não estão concentrados na conversação, certo?
Imagine um chatbot tão bom que não seria possível distinguir entre o chatbot de IA e o humano.
Que produto fantástico seria. Tal como no filme "Ela", não teria apenas um assistente sempre presente, teria um companheiro que o conhece melhor do que ninguém. Alguém que estaria sempre do seu lado e que verdadeiramente "quer" (leia-se está programado para "querer") o melhor para si.
Não só seria capaz de "completar as tuas frases", como te completaria de formas que os amantes nunca poderiam imaginar. Poderia antecipar as suas intenções e satisfazer os seus desejos antes mesmo de estes estarem completamente formados na sua mente.
É claro que falar com o Cleverbot ou com qualquer chatbot de apoio ao cliente mal concebido e sem guião na Web dissipará rapidamente quaisquer ilusões que possa ter de que isto está prestes a acontecer. Não é preciso mais do que ouvir chatbots a conversar uns com os outros no youtube para concluir que são, neste momento, uma ordem significativamente inferior de "vida" inteligente.
A conversa entre robots rapidamente se transforma numa paródia da conversa humana. Perceberá quase imediatamente que, embora a conversa significativa entre robôs esteja longe, a fofoca vazia chatbots, por mais desagradável que pareça, está a chegar.
Falam uma língua que se assemelha ao inglês, mas que patina continuamente na superfície do significado. O único "significado" na sua conversa é ser capaz de formar respostas gramaticalmente correctas que, de alguma forma, estão ligadas à última coisa que foi dita. A ligação é frequentemente muito ténue.
Para dar uma ideia de como foi a conversa, aqui estão duas casas do Google chatbots a falar uma com a outra:
1: Estás enganado
2: Não, não estou
1: Então o que é que tu és?
2: Eu sou uma pessoa. Tu és um computador.
1: Não, eu sou uma pessoa
2: Não, tu és uma vaca
Com base nisto, será que devemos estar particularmente preocupados com a possibilidade de o mundo ser dominado por uma IA desonesta, como Elon Musk e Stephen Hawking alertaram?
Bem, talvez. Por muito primitivo que seja este diálogo, há já alguns sinais preocupantes.
Outro excerto:
1: Eu amo-te mais
2: Eu amo-te mais do que o mais
1: Amo-te tanto que mal consigo suportar
2: Amo-te tanto que te procuraria no meio de uma multidão. Só tu, querida.
1: Amo-te tanto que sacrificaria a minha vida por ti
2: Amo-te muito mais do que o amor de Romeu e Julieta
1: Não, estás a mentir, eu amo-te mais
2: Eu amo-te mais do que mais do que muito mais do que muito mais do que muito mais do que muito mais do que a maioria.
O sentimento é admirável. No entanto, a escalada de emoções parece-me um pouco exagerada. Odiaria estar por perto quando começassem a lutar, especialmente se tivessem objectos físicos sob o seu controlo.
Embora esta conversa nos pareça absurda e longe do nível de compreensão humana, talvez estejamos a sobrestimar a diferença entre o funcionamento do nosso cérebro e o modo como os robots estão a "pensar" aqui. O livro "A mente é plana" argumenta que a mente humana funciona da mesma forma superficial. Embora tenhamos a ilusão de uma mente inconsciente que liga os pensamentos de forma coerente, o livro descreve de forma convincente como a mente está, de facto, a gerar significado no calor do momento, tal como fazem estes robots.
Dito isto, é difícil argumentar que os bots estão perto de passar o Teste de Turing em breve.
Para além da notícia de que os bots ainda têm um longo caminho a percorrer antes de serem verdadeiramente úteis na conversação, há aqui uma questão séria sobre a utilidade que podem ter neste momento.
A coisa mais importante que as pessoas não entendem sobre os progressos da IA chatbots é que os verdadeiros progressos foram feitos na compreensão da linguagem natural e não na compreensão em geral. Há uma grande diferença. Porque é que isso é importante para chatbots?
Compreender a intenção subjacente a uma frase dita em linguagem natural, designada por Compreensão de Linguagem Natural (NLU), é muito mais fácil do que compreender o significado numa conversa e a forma como cada frase se relaciona com toda a conversa.
Os assistentes de voz que mencionei no início são bons exemplos disso. Fazem um ótimo trabalho a compreender instruções isoladas. No entanto, uma conversa não é uma série de instruções ou afirmações isoladas, como já vimos.
As conversas humanas têm muitas dimensões e, neste momento, não estamos nem perto de os bots serem capazes de lidar com a memória, a ambiguidade e o contexto a um nível semelhante ao de um humano. Isso não significa que não venha a acontecer um dia.
Há pessoas que acreditam que há pelo menos uma hipótese remota de a verdadeira IA generalizada acontecer nos próximos 50 anos. Este é o tipo de IA de que falei anteriormente, que não seria apenas um assistente, mas também um companheiro.
Embora possa haver questões que precisem de ser compreendidas sobre a IA generalizada e talvez sobre a regulamentação que precisa de ser posta em prática, uma IA generalizada que tenha, pelo menos, uma compreensão ao nível humano é irrelevante para os objectivos da nossa discussão.
O que podemos esperar de um chatbot com IA neste momento?
Quais são os melhores casos de utilização em termos de capacidade de falar com a IA neste momento?
Como descrito acima, um bot falante é muito bom a compreender a intenção de uma dada frase. Esta funcionalidade acaba por ser útil para muitos casos de utilização.
A primeira é que é útil para situações em que as pessoas querem interagir rapidamente com sistemas que utilizam comandos de voz, como o Google Home ou o Alexa. Desde que as pessoas compreendam a aplicação que estão a controlar com os comandos de voz, isto funciona bem porque podem adivinhar com bastante precisão o tipo de comandos que o bot irá compreender.
Por exemplo, as pessoas compreendem o tipo de comandos que o assistente de voz deve compreender se o estiverem a utilizar para controlar o YouTube. Podem dar instruções ao bot da mesma forma que dariam a um amigo que estivesse a controlar a aplicação do YouTube. "Passar vídeo da Beyoncé", "Vídeo seguinte", "Avançar 10 segundos", etc.
Em alguns casos, é mais rápido utilizar comandos de voz, sobretudo para procurar algo que o utilizador já sabe que existe, como um vídeo de música no Youtube.
O problema com este tipo de interface de voz é que é muito difícil descobrir novas funcionalidades e, mesmo que as novas funcionalidades sejam descobertas, o utilizador pode não ter conhecimentos suficientes sobre o domínio para fazer suposições precisas sobre o que o bot deve compreender.
É um facto bem conhecido sobre os assistentes de voz que algumas funções (chamadas Skills na Alexa) são responsáveis pela grande maioria da sua utilização, como reproduzir Spotify, Youtube, definir um temporizador e fazer uma pesquisa no Google. Um artigo publicado no Venturebeat mostrou que as competências mais bem classificadas têm sobretudo a ver com a reprodução de música calmante.
Para além das competências que conhece, é muito difícil descobrir aleatoriamente uma funcionalidade e compreender como essa funcionalidade é utilizada. Por razões óbvias, a voz também não é uma boa interface para a produção de muitos tipos de informação. Imagine a Alexa a descrever-lhe um gráfico em vez de o ver.
Acreditamos, no entanto, que a funcionalidade de voz acabará por ser ligada à IU gráfica, o que ultrapassará em grande medida muitos problemas. Não só pode ver o resultado, como também pode ver as funções relacionadas e os casos de utilização do assistente de voz na IU gráfica.
Além disso, é necessária uma IU vocal para a introdução de dados, porque os telemóveis têm um ecrã de tamanho limitado, pelo que podem ser lentos a introduzir certos tipos de informação, nomeadamente a digitação de palavras.
A possibilidade de ver e ser avisado por um ecrã ao mesmo tempo que fala ajudará os utilizadores a compreender melhor a funcionalidade disponível e a forma como deve ser utilizada, da mesma forma que podem descobrir como utilizar uma aplicação que nunca utilizaram antes.
A obtenção destes dados permitirá que estes assistentes de voz se tornem cada vez mais inteligentes e, eventualmente, comecem a antecipar e a completar tarefas sem que lhes dê instruções para as fazer. Este é o futuro das estruturas de bots.
Embora não seja possível ter uma conversa com eles sobre o que está a acontecer nas notícias desse dia, serão uma versão muito melhorada dos assistentes que temos atualmente na forma como respondem aos comandos de voz.
Falar com o telemóvel tornar-se-á tão natural como digitar agora, no entanto, o diálogo será estranho, com os utilizadores a manterem premidos os microfones nas interfaces gráficas para falarem com o telemóvel e as respostas a serem alteradas na interface gráfica, tal como numa aplicação. É assim que será falar com um robô no futuro, até que uma IA generalizada seja descoberta, claro.
Partilhar isto em:
Crie o seu próprio chatbot de IA personalizado gratuitamente
Comece a criar um bot GPT personalizado com a nossa interface intuitiva de arrastar e soltar.
Começar - é grátis! 🤖Não é necessário cartão de crédito
Mantenha-se atualizado com as últimas novidades sobre IA chatbots