Supercomputador da IBM consegue sentir tristeza ou alegria em seus textos

Rival do WhatsApp, Telegram alcança 100 milhões de usuários
23 de fevereiro de 2016
Fãs de MMA poderão se sentir dentro da luta com realidade virtual
25 de fevereiro de 2016

20160222212614_660_420

O Watson, o supercomputador da IBM, acaba de ganhar a capacidade de reconhecer emoções na sua voz. A empresa liberou duas APIs em fase beta para desenvolvedores, que permitem que a inteligência artificial da máquina seja usada para entender um pouco mais o comportamento humano.

As APIs que lidam com as emoções são especificamente o Tone Analyzer e o Emotion Analysis. A primeira delas vai ler o seu texto para detectar se você está passando sinais de sentimentos como alegria, medo ou tristeza. O recurso não é novo, mas agora é capaz de reconhecer uma gama maior de emoções, incluindo até mesmo tristeza. Além disso, o recurso também será capaz de olhar o contexto de uma frase inteira, e não apenas de palavras específicas, o que faz toda a diferença.

Já a segunda, a Emotion Analysis, funciona na via oposta, permitindo o reconhecimento das emoções da pessoa com quem o usuário está se comunicando. Boa parte das ferramentas são compartilhadas com o Tone Analyzer, mas permitindo que o usuário entenda melhor as outras pessoas. Esta função pode ser melhor usada para uma empresa analisar o tom dos e-mails dos clientes ou em uma sessão de bate-papo, ou medir a reação das mídias sociais a algo.

Junto das novas APIs, a IBM também que seu sistema que transforma texto em voz também ganha capacidade emocional e relançando-o com o nome Expressive TTS. Assim, o mesmo texto pode ser lido pela máquina com tom de “boas notícias”, “desculpas” e “incerteza” pela mesma voz digital, o que significa que a inteligência artificial também poderia responder com tom adequado a uma frase. Nos nossos testes, foi interessante observar a diferença na cadência e tom da voz. Você também pode fazer o teste neste link, mas por enquanto o recurso só funciona totalmente com o inglês.

A IBM também liberou uma terceira API, que é a Visual Recognition, que não tem muito a ver com emoções. Ela funciona no reconhecimento de imagens, mas diferente do que outras ferramentas fazem, ela não vê só um sapato e diz que é um sapato. Ela tenta identificar o modelo ao analisar os detalhes minuciosos da imagem.

 

http://goo.gl/cPngqf

Os comentários estão encerrados.