Nosso blog

Especialista liga "Baleia Azul" à tecnologia dos chatbots

Grupos de pesquisadores e jornalistas internacionais de sites "tira prova" defendem que a ligação do Baleia Azul com o suicídio de jovens não passa de uma lenda urbana que, por retroalimentação, acabou funcionando como fator de crescente popularização do jogo.


Ilustração de um bot do mal.


No Brasil, o fenômeno é recente, mas já foram relatados diversos casos, ainda em investigação, incluindo várias tentativas de suicídio e uma morte por overdose de medicamentos em MG.

...

Imaginemos que o "curador" do jogo, a pessoa que envia as mensagens, fosse, ao invés de um humano, uma inteligência artificial agindo a partir de um "chatbot". Os chatbots ou, simplesmente, bots são uma emergente modalidade de código robotizado capaz de se comunicar em redes sociais emulando indivíduos humanos com alto nível de verossimilhança.

Considerando-se esta hipótese do uso de robôs, o episódio Baleia Azul estaria inaugurando uma nova era dos incidentes de segurança, com ataques de engenharia social em massa que afetam de forma direta e altamente impactante o comportamento do usuário.

De acordo com Thiago Zaninotti, CTO da Aker N-Stalker, o padrão de comunicação interativa implementado pelo modelo do Blue Whale, é perfeitamente compatível com os atuais bots, baseados em princípios de computação cognitiva.

"Em geral, os bots sociais, utilizados para finalidades criminosas ou lícitas, dispõem de recursos poderosos de autoaprendizado e são movidos por algoritmos de engenharia social que, embora relativamente sofisticados, estão se tornando cada vez mais corriqueiros nas estratégias de atração e engajamento de vítimas por parte do cibercrime", comenta Zaninotti.

Rodrigo Fragola, CEO da Aker, explica que "o jogo da Baleia Azul está assentado em um menu fixo de "50 desafios" que cada usuário deve obedecer, em uma ordem igualmente repetitiva, e em um conjunto limitado de atividades recorrentes. Os tais desafios 'assustadores' desse game são, tecnicamente falando, ações de baixa complexidade, como se cortar com uma lâmina, assistir a um filme de terror ou fazer voto de silêncio por um dia, até culminar na proposta do ato suicida.

"Para efeitos de comunicação verbal, tudo isto compreende um número pequeno de variáveis, passíveis de serem semanticamente mapeadas em esquemas de ação e reação bastante restritivos", afirma Fragola.

Segundo ele, a criação de um chatbot para as finalidades propostas pelo Baleia Azul seria algo tão simples e banal quanto implementar um assistente robótico para apoiar a venda de passagens aéreas ou para sugerir modelos de calçados adequados ao estilo de um consumidor previamente perfilado por engenharia social.

Na visão do CEO da Aker, existe, portanto, uma considerável possibilidade de haver bots no lugar de "gurus humanos" orientando os usuários do game, o que os remeteria a um cenário assustador. "Caso se confirme a hipótese, teremos na sociedade global uma combinação explosiva de robotização das relações sociais associada a um grande potencial de epidemias psicóticas.

"Unindo-se esta tecnologia de bots com as de realidade aumentada e a virtualização progressiva da experiência, podemos chegar a um ambiente social com potencial destrutivo enorme", comenta Fragola.

...

UFMG Testou Bots Sociais no Twitter

O Baleia Azul foi revelado pela mídia internacional em 2015, a partir da Rússia, onde teve seu nome relacionado a cerca de 130 suicídios de adolescentes em um período de apenas um ano. Notícias sobre o jogo e sua alta periculosidade começaram a sair recentemente no Brasil, após a morte de um jovem (suposto participante do jogo), por overdose de medicamentos, em Pará de Minas (MG).

Desde seu aparecimento até hoje, o Blue Whale e sua origem estão envoltos em um nível de mistério que é típico dos instrumentos hackers voltados para a obtenção de lucro direto (através de roubo, fraude, extorsão ou sequestro) ou para a captura de dados valiosos e a escravização de computadores infectados.

Pela avaliação da Aker, se o modelo fosse automatizado, ele poderia realizar ações de mineração de dados em redes sociais e identificar pessoas ideais para serem alvos na propagação de spam contendo códigos maliciosos. Para abordar suas vítimas, o sistema criaria falsas "personas" (ou "falsos avatares") com afinidades sociais bem definidas e preparadas para interagir com internautas dispostos a novos relacionamentos (ou a jogos) e abertos a aventuras nas diversas redes sociais.

...

Para exemplificar a força desse modelo automatizado, Rodrigo Fragola menciona um trabalho acadêmico realizado no Brasil por pesquisadores da UFMG junto ao twitter. "Depois de analisar milhares de perfis de pessoas comuns no Twitter, os pesquisadores mineiros criaram 120 chatbots imitando usuários normais que, em 30 dias, conseguiram angariar mais de 3 mil seguidores (e interlocutores regulares) na rede. Inclusive com grande sucesso em termos de postagens retuitadas por usuários humanos da rede".

Leia a íntegra aqui.

comments powered by Disqus