Ano passado, dois cientistas de dados da empresa de segurança ZeroFOX conduziram um experimento para avaliar quem se sairia melhor ao forçar usuários do Twitter a clicar em links maliciosos, humanos ou uma inteligência artificial. Os pesquisadores ensinaram uma IA para estudar o comportamento de usuários de redes sociais, e então projetar e implementar uma isca de phishing própria. Nos testes, o hacker artificial foi substancialmente melhor que seus competidores humanos, compondo e distribuindo mais tweets com o link malicioso que os humanos, e com uma taxa de conversão muito melhor.
A inteligência, nomeada SNAP_R, enviou tweets de spear-phishing para mais de 800 usuários em uma média de 6,75 tweets por minuto, atraindo 275 vítimas. Já do lado humano, Thomas Fox-Brewster, redator da Forbes que participou do experimento, pode apenas enviar 1,075 tweets por minuto, em 129 tentativas e atraindo apenas 49 usuários.
Por sorte, este foi um mero experimento, mas a atividade expos como hackers já podem usar inteligências artificiais para fins nefastos. É possível, inclusive, que já as usem para isso, mas ainda é algo difícil de se provar. Em julho, durante a Black Hat USA 2017, centenas de especialistas de cibersegurança se juntaram em Las Vegas para discutir este problema e outras ameaças que possam surgir com tecnologias emergentes. Ao longo do evento, a Cylance, uma desenvolvedora de antivírus perguntou aos participantes se criminosos virtuais usariam IAs para fins ofensivos a partir do próximo ano e 62% respondeu que sim.
A era da inteligência artificial já está sobre nós, mas ainda assim um surpreendente número de profissionais de segurança da informação se recusa a admitir o potencial de inteligências artificiais em serem usadas como armas em nosso futuro imediato. É um posicionamento assustador, visto que muitos dos especialistas que conversamos afirmam que técnicas como o aprendizado de máquina já são usadas por hackers, e que estes criminosos usam a tecnologia emergente de uma maneira muito mais sofisticada do que podemos imaginar.
“Hackers tem usado a inteligência artificial como uma arma já há algum tempo”, diz Brian Wallace, cientista de segurança de dados dirigente da Cylance, para o Gizmodo. “E faz todo o sentido porque hackers tem um problema de escala, tentam atacar o máximo de pessoas que podem, atingindo o máximo de alvos que podem, tudo isso enquanto tentam não atrair riscos para si mesmos. Inteligência artificial, e ensinamento da máquina em particular, são ferramentas perfeitas para eles”. Essas ferramentas, diz Wallace, podem decidir o que atacar, quem atacar, quando atacar e por aí vai.
Escalas de inteligência
Marc Goodman, autor de Future Crimes: Everything Is Connected, Everyone Is Vulnerable and What We Can Do About It, diz que ele não está surpreso que muitos atendentes da Black Hat veem inteligência artificial como uma arma iminente, já que ela faz parte de ciberataques há anos.
“O que eu acho estranho é que 62% dos profissionais de segurança da informação façam essa previsão”, diz Goodman ao Gizmodo. “A inteligência artificial é definida por muita gente diferente e de diversas maneiras diferentes. Então eu precisaria de uma explicação mais clara do que especificamente eles entendem por inteligência artificial”.
E é possivelmente neste ponto que muitos especialistas comecem a divergir.
O que é curiosos sobre a inteligência artificial é que nossa concepção sobre ela muda conforme o tempo e conforme as tecnologias se igualam a inteligência humana em diversas outras maneiras. Em níveis mais fundamentais, inteligência descreve a habilidade de um agente, seja ela biológica ou mecânica, para resolver problemas complexos. Nós possuímos muitas ferramentas com essas capacidades, e as temos há um bom tempo, mas quase instantaneamente começamos a relevar a existência delas conforme elas vão se tornando comuns.
Séculos atrás, por exemplo, a possibilidade de uma máquina que faria cálculos milhões de vezes mais rápido que um ser humano seria considerada um avanço tecnológico radical, mas poucos hoje consideram uma simples calculadora como algo particularmente especial. Semelhantemente, a habilidade de ganhar no xadrez já foi um dia considerado um alto nível de inteligência humana, mas desde que o computador Deep Blue venceu Garry Kasparov em 1997, essa habilidade cognitiva perdeu um pouco do brilho. E este é o ciclo de cada avanço da inteligência artificial.
“Não se engane – ferramentas modernas como o aprendizado da máquina e redes neurais são formas de inteligência artificial, e acreditar no contrário é algo a se fazer por sua conta e risco”.
Hoje, desenvolvimentos rápidos de aprendizado da máquina (quando sistemas aprendem com base em dados e evoluem por experiência própria sem a necessidade de serem explicitamente programados), linguagem de processamento neural, redes neurais (sistemas modelados com base no cérebro humano) e muitos outros campos do tipo diminuem a nossa percepção do que consiste uma máquina inteligente. Em alguns anos, assistentes pessoais artificiais (como a Siri, da Apple, ou a Alexa, da Amazon), carros autônomos, e algoritmos de diagnostico de doenças vão perder, mesmo que de forma injusta, seu status de inteligência artificial. Vamos começar a tratar essas tecnologias como algo comum e as descreditá-las do restante das IAs por não serem perfeitamente humanas. Mas não se engane – ferramentas modernas como o aprendizado da máquina e redes neurais são formas de inteligências artificiais, e acreditar no contrário é algo a se fazer por sua conta e risco; se descartarmos ou ignorarmos o poder destas ferramentas, poderemos ser surpreendidos por aqueles que anseiam em explorar o potencial máximo destas inteligências, incluindo hackers.
Um problema relacionado é que o termo inteligência artificial invoca visões futuristas e fantasias de ficção cientifica que são bem remotas da nossa atual realidade.
“O termo IA é geralmente mal interpretado, pois muita gente pensa nos robôs de O Exterminador do Futuro caçando John Connor – mas não é disso que se trata a inteligência artificial”, diz Wallace. “Em vez disso, é um abrangente tópico de estudo sobre a criação de várias formas de inteligência que ocorrem de ser artificiais”.
Wallace diz também que existem muitos campos de IA, com o aprendizado de máquina sendo um subtópico particularmente importante da área no momento.
“Em nossa área de trabalho, usamos um restrito ensinamento de máquina – que é uma forma de inteligência artificial – quando temos de aplicar inteligência a um problema especifico”, diz ele ao Gizmodo. “Por exemplo, usamos ensinamento de máquina quando tentamos determinar se um arquivo ou processo é malicioso ou não. Não estamos tentando criar um sistema que vai se transformar na SkyNet. Inteligência artificial não é sempre o que é representado na mídia ou na ficção científica, e quando [profissionais de segurança da informação] falam sobre IA, falamos sobre abrangentes áreas de estudo que são muito mais simples e bem menos aterrorizantes”.
Intenções malignas
Essas ferramentas modernas podem até ser menos aterrorizantes que o clichê da visão do Exterminador, mas na mão dos indivíduos errados, elas podem ser bem assustadoras.
Deepak Dutt, fundador e CEO do Zighra, uma startup de segurança mobile, diz que existe uma grande possibilidade que sofisticadas inteligências artificiais sejam usadas em ciberataques em um futuro próximo, e é possível ainda que elas já estejam sendo usadas por Russia, China e países do Leste Europeu. Agora, em termos de como IAs poderiam ser usadas para o mal, Dutt não tem poucas ideias.
“Inteligência artificial pode ser usada para minerar grandes quantidades de domínios públicos e dados de redes sociais para extrair identificáveis informações pessoais como data de nascimento, gênero, local, números de telefones, endereços de email, entre outros, e tudo isso pode ser usado para invadir contas de usuários”, disse Dutt ao Gizmodo. “Elas também podem ser usadas para monitorar automaticamente e-mails e mensagens de texto, criando e-mails de phishing personalizados [golpes como estes são tentativas ilícitas de obter informações sensíveis de usuários desavisados]. A inteligência artificial pode ser usada para mutar malwares e ransomwares de maneira mais fácil, e para procurar de forma mais inteligente vulnerabilidades que podem ser exploradas em um sistema”.
Dutt suspeita que IAs já são usadas em ciberataques, e que criminosos já as usam de alguma maneira no aprendizado da máquina, por exemplo, para personalizar e-mails de phishing automaticamente.
“Mas o que é novo é a sofisticação de IAs em termos de novas técnicas de ensinamento da máquina, como o Deep Learning, que pode ser usado para alcançar cenários que acabei de mencionar com um nível alto de acurácia e eficiência”, ele diz. Deep Learning, também conhecido como aprendizado hierárquico, é um subcampo de aprendizado da máquina que geralmente utiliza grandes redes neurais. Já foi aplicado em visão computacional, reconhecimento de fala, filtros de redes sociais e muitas outras tarefas complexas, e, em muitas vezes, chega a produzir resultados superiores aos de especialistas humanos.
“Além disso, a disponibilidade de grandes bases de dados públicos e de redes sociais (Big Data) também ajuda. Técnicas avançadas de aprendizado de máquina, Deep Learning e ferramentas são facilmente acessíveis em plataformas de código aberto – combinar isso a relativamente barata infraestrutura computacional efetivamente permite ciberataques de alta sofisticação”.
Atualmente, grande número dos ciberataques são automatizados, de acordo com Goodman. É raro um hacker humano indo atrás de um alvo individual, e o ataque comum é automatizado com ferramentas de IA e aprendizado de máquina – tudo desde ataques DDoS a ransomwares, chatbots criminais, entre outros. Enquanto pode-se argumentar que automatização é fundamentalmente algo pouco inteligente (por outro lado, pode-se dizer que formas de automação, particularmente aquelas que envolvem grandes conjuntos de tarefas complexas, são, de fato, uma forma de inteligência), é a perspectiva da inteligência da máquina orquestrando essas funções autônomas que são particularmente alarmantes. Uma inteligência artificial pode produzir scripts complexos a uma velocidade e nível de sofisticação muito além de um hacker humano.
Inclusive, as possibilidades parecem infinitas. Além das atividades criminais já descritas, IAs podem fazer de alvo populações vulneráveis, performar ataques rápidos, desenvolver malwares inteligentes, entre outros.
Staffan Truvé, CEO do Instituto Sueco de Ciência da Computação (SICS) e Cientistas Diretor na Recorded Future diz que, conforme a inteligência artificial amadurece e se torna mais uma comodidade, os “bandidos”, como ele diz, começarão a usá-la para melhorar a performance de ataques, enquanto também cortam custos. No entanto, ao contrário de muitos de seus colegas, Truvé diz que a IA não é usada por hackers no momento, afirmando que o uso de algoritmos simples (como códigos que se auto modificam) e esquemas automatizados (que permitem golpes de phishing) já são o bastante para eles.
“Eu não acho que a inteligência artificial faz parte das ferramentas comuns dos bandidos”, diz Truvé ao Gizmodo. “Eu acho que a razão que ainda não vimos mais ataques de IA é porque os métodos tradicionais ainda funcionam – se você consegue resultados com um método brusco, por que você iria gastar tempo e dinheiro com algo novo?”.
IA por IA
Com a inteligência artificial se tornando uma ferramenta comum para o hacker moderno, defensores precisarão criar formas criativas de defender as vulnerabilidades dos sistemas. Por sorte, profissionais de segurança tem uma potente e óbvia medida de contra-ataque a disposição, a própria inteligência artificial. O problema é que isso pode criar uma corrida entre campos rivais. Nenhum lado tem uma escolha, já que a única maneira de contra-atacar é se tornando dependente de sistemas inteligentes.
“Depois de começar a lidar com um adversário, você não tem escolha a não ser se armar com inteligências artificiais”.
“Para especialistas em segurança, isso é um problema de Big Data – estamos lidando com toneladas de dados aqui – muito mais do que um humano poderia produzir”, diz Wallace. “Depois de começar a lidar com um adversário, você não tem escolha a não ser se armar com inteligências artificiais”.
Para se manter à frente, Wallace recomenda que empresas de segurança conduzam suas próprias pesquisas internas e desenvolvam as próprias ferramentas de ataques inteligentes para lutar e testar as próprias defesas. O setor de pesquisa avançada do Pentágono, DARPA, já adota esse tipo de abordagem, organizando desafios em que desenvolvedores de inteligência artificial colocam suas criações umas contra as outras em um jogo virtual de capturar a bandeira. O processo é bem darwiniano, e é reminiscente a outra abordagem em desenvolvimento de IA – algoritmos evolucionários. Para hackers e profissionais da segurança da informação, é a sobrevivência da inteligência artificial mais forte.
Goodman concorda, dizendo que “por necessidade” usaremos cada vez mais IAs. “Para tudo, desde a detecção de fraudes até a neutralização de ciberataques”. E, inclusive, muitas startups já fazem algo do tipo, por exemplo, parcerias com o Watson da IBM para combater ameaças cibernéticas, diz Goodman.
“Técnicas de AI são usadas hoje por defensores que buscam por padrões – companhias de antivírus fazem isso há décadas – e fazer detecção de anomalias é uma maneira de automaticamente detectar se um sistema foi atacado ou comprometido”, diz Truvé.
Em sua companhia, Recorded Futere, Truvé usa técnicas de inteligência artificial para fazer desde processamento de linguagem natural a, por exemplo, detectar automaticamente quando um ataque é planejado e discutido em fóruns criminosos, além também de prever ameaças futuras.
“Bandidos [com IAs] continuarão a usar os mesmos ataques de hoje, apenas de maneiras mais eficientes, e, portanto, mecanismos de defesa baseados em inteligência artificial sendo desenvolvidos agora serão, por extensão, possibilitados de serem usados contra ataques baseados em IA”, diz ele.
Dutt recomenda que equipes de segurança da informação continuem a monitorar ciberataques de hackers para aprender com eles a continuamente “inovar com a combinação de estratégias de defesa supervisionadas ou não supervisionadas para detectar e impedir ataques em seus primeiros sinais” e, como em uma guerra, adotar estratégias de defesa superiores.
O efeito observador
Assim, um admirável novo mundo de invasões por inteligência artificial nos aguarda, com criminosos se tornando cada vez mais capazes de direcionar seus ataques a usuários e sistemas vulneráveis. Empresas de segurança vão provavelmente se curvar a inteligências artificias em um incansável esforço para se manter atual. Eventualmente, estas ferramentas vão escapar da compreensão humana, trabalhando a velocidades cada vez mais rápidas em um emergente ecossistema digital. Chegamos ao ponto em que tanto hackers quanto profissionais da segurança da informação não terão escolha senão apertar o botão para ativar seus respectivos sistemas e apenas esperar pelo melhor. Uma das consequências da inteligência artificial é que os humanos estão sendo cada vez mais deixados de lado.
Fonte: GIZMODO Brasil
Fonte: GIZMODO Brasil
Comentários
Postar um comentário