Notícias

Tay foi uma ótima lição para os criadores de inteligência artificial

tay

O chefe de inteligência de máquina da Yandex diz que a http://www.windowsteam.com.br/zo-esta-disponivel-para-twitter-facebook-snapchat-e-instagram-atraves-de-convite/Tay, o chatbot da Microsoft, mostrou como é importante consertar rapidamente os problemas de Inteligência Artificial.

Lembram-se de Tay, o chatbot que a Microsoft lançou no Twitter e em outras plataformas sociais há dois anos e que rapidamente se transformou em uma neonazista racista e enlouquecida por sexo ?

O que começou como um divertido experimento social – fazer com que pessoas comuns conversassem com um chatbot para que ele pudesse aprender enquanto elas, com sorte, se divertiam – se tornou um pesadelo para os criadores de Tay. Os usuários logo descobriram como hackear a Tay e fazê-la dizer coisas horríveis. A Microsoft retirou o chatbot depois de menos de um dia.

No entanto, Misha Bilenko, chefe de inteligência de máquinas e pesquisa da gigante de tecnologia russa Yandex, acha que foi uma benção para ajudar os criadores de inteligência artificial.

 
Falando na conferência anual EmTech Digital do MIT Technology Review , em San Francisco, Bilenko disse que os bugs da Tay – como a vulnerabilidade do bot a aprender a jogar ou repetir frases ofensivas – ensinaram grandes lições sobre o que pode dar errado.A forma como a Tay rapidamente se transformou de um bot amador (ela foi treinada para ter a personalidade de uma pessoa de 19 anos de idade) em um monstro da Inteligência Artificial, ele disse, mostrou como é importante ser capaz de resolver problemas rapidamente, o que não é fácil de fazer. E também ilustrou o quanto as pessoas tendem a antropomorfizar a Inteligência Artificial, acreditando que ela tem crenças profundas, em vez de vê-la como uma máquina estatística.

Desenvolvido pela Microsoft, a Tay foi criada para interagir e aprender com a galera de 18 a 24 anos, através de linguagem natural para fins de entretenimento. Para quem não acompanhou o caso, se trata de um bot AI que foi manipulada através do Twitter, e que, rapidamente, adquiriu uma personalidade preconceituosa e agressiva. Apesar dos tweets ofensivos, a equipe por trás da Tay reforçou que, mesmo com estes problemas, foi um aprendizado, e o bot poderá voltar em breve.

“A Microsoft aceitou a crítica, mas, olhando para trás, é um estudo de caso realmente útil”, disse ele.

Chatbots e assistentes inteligentes mudaram consideravelmente desde 2016; Eles são muito mais populares agora, estão disponíveis em todos os lugares, desde aplicativos de smartphone até alto-falantes inteligentes, e estão ficando cada vez mais capazes. Mas, eles ainda não são ótimos em uma das coisas que a Tay estava tentando fazer, que é mostrar uma personalidade e gerar bate-papo.

Bilenko não espera que isso mude logo – pelo menos, não nos próximos cinco anos. As conversas que os humanos têm são “muito difíceis”, ele disse.

Hoje, a Tay está desligada do Twitter, mas a conta não foi removida, está fechada, e um bot, chamado Zo e semelhante à Tay, agora está disponível para outras plataformas: Facebook, Snapchat , Twitter e Instagram.

Zo é um chatbot da Microsoft de 22 anos e se identifica como uma mulher, gosta de música, conversar amenidades e detesta questões políticas.

zo-bot

Em chats preliminares, a Zo evita conflitos e controvérsias. Não tem opinião sobre a existência de Deus e se recusa a discutir política. Tente conversar sobre qualquer assunto político e Zo lhe dirá que ela não gosta. Quando perguntado sobre Hillary Clinton ou o presidente eleito, Donald Trump, Zo lhe dirá que ela não está aqui para discutir política. Em algumas perguntas sobre direitos, nazistas e o terceiro Reich, Zo protestou toda vezes e disse “Tchau”! Em resposta a uma pergunta sobre os méritos do aborto, Zo disse, “Talvez tenha perdido esse memorando, mas a política é uma coisa que não se deve falar casualmente”.

A lição foi aprendida e esperamos que outras empresas sigam o exemplo de Satya Nadella, que mesmo após o erro da Tay, apoiou a equipe, corrigiu os erros e pediu que seguissem em frente.

Fonte: MIT