Poderá a Inteligência Artificial aprender a distinguir entre o certo e o errado?

Desde que começámos a ouvir falar de Inteligência Artificial que já conseguimos contar algumas conquistas desta tecnologia, que beneficia tanto a cibersegurança como as tarefas quotidianas.

 A Check Point® Software Technologies Ltd. pretende sensibilizar para as utilizações atuais e futuras da Inteligência Artificial e para a necessidade da segurança como foco principal para um desenvolvimento produtivo.De facto, de acordo com um inquérito da McKinsey Global sobre inteligência artificial realizado em 2022, em 2017, 20% dos inquiridos declararam ter adotado a IA em, pelo menos, uma área de negócio, enquanto há um ano, esse número era de 50%. Espera-se que este crescimento continue, uma vez que as organizações perceberam o valor da IA para os seus negócios – de acordo com um inquérito da Forbes Advisor, mais de 60% dos gestores de empresas acreditam que a IA irá aumentar a produtividade. Especificamente, 64% afirmaram que a IA melhoraria a produtividade das empresas e 42% acreditam que simplificará os processos de trabalho, denotando um amplo mercado de aceitação para a utilização da IA no espaço empresarial.O ChatGPT, uma plataforma de IA da OpenAI, tornou-se um parceiro de lançamento da IA, uma vez que tem sido o veículo para apresentar aos utilizadores de todo o mundo um novo cenário de oportunidades – desde a escrita de trabalhos e notas para estudantes, emails de negócios, resoluções científicas e médicas, até, infelizmente, às novas atividades dos cibercriminosos. Estas ferramentas oferecem-lhes vantagens essenciais, tais como:

 

  • Não são necessárias habilitações nem experiência: uma das maiores vantagens que a IA trouxe aos cibercriminosos é a sua facilidade de utilização, que permite que mais utilizadores realizem atividades maliciosas, incluindo potenciais cibercriminosos que podem não ter tido as competências necessárias para começar. Nos últimos meses, surgiram novos pequenos grupos de cibercriminosos capazes de realizar ciberataques mais sofisticados graças às opções que encontraram nesta nova tecnologia.
  • Melhorar os ciberataques: o facto de estar disponível num modelo de acesso livre e ilimitado, faz com que os atacantes aproveitem a rapidez e a precisão desta ferramenta para criar códigos maliciosos e ciberataques, assim como campanhas de phishing. Estas ferramentas de IA podem gerar conteúdos praticamente idênticos ou muito difíceis de detetar. Além disso, os modelos de aprendizagem autónoma destas ferramentas permitem-lhes não só responder a perguntas, mas também criar todo o tipo de conteúdos (imagens, vídeos ou mesmo áudios). Infelizmente, este facto levou à utilização indevida dos chamados Deepfakes, imitações hiper-realistas utilizadas para espalhar desinformação, com casos bem conhecidos de líderes de países falsificados como Barrack Obama, Joe Biden, Voldymyr Zelensky e até Vladimir Putin.
  • A introdução de ciberataques automatizados: Esta tecnologia levou a um aumento significativo da utilização de bots e sistemas automatizados para efetuar ataques online, permitindo que os cibercriminosos sejam mais bem-sucedidos. Isto demonstra-se pelo aumento dos ciberataques a nível mundial, que foi de 38% em relação ao ano passado. Além disso, os cibercriminosos podem utilizar botnets alimentados por IA para lançar ataques DDoS maciços para sobrecarregar os servidores dos seus alvos e interromper os seus serviços.
  • Ferramentas de inteligência artificial clonadas: Apesar da resposta rápida dos programadores, que estão a atualizar os bugs na linguagem, os cibercriminosos encontraram formas rápidas de contornar as restrições. No início deste ano, a equipa de investigação da Check Point Software relatou como os cibercriminosos já estavam a distribuir e a vender as suas próprias APIs ChatGPT modificadas na Dark Web. O recente lançamento do ChatGPT4.0 veio com a identificação de uma nova campanha para roubar e vender contas premium, concedendo acesso total e ilimitado às novas funcionalidades da ferramenta.

 

A necessidade de regulamentar a aprendizagem da Inteligência Artificial

 

Embora a IA seja, sem dúvida, o futuro, uma regulamentação mais alargada é exigida por especialistas, incluindo Elon Musk, um dos co-fundadores da própria OpenAI, que criaram uma petição pública através da qual procuram parar temporariamente o desenvolvimento destas ferramentas até que seja assegurada a formação ética, enquanto organismos internacionais, como a União Europeia, já estão a desenvolver as suas próprias leis de IA com propostas que enfatizam as necessidades de cibersegurança e segurança dos dados.

 

O desafio reside no facto de uma vez aprendido, o conhecimento ser virtualmente impossível de “remover” destes modelos. Isto significa que os mecanismos de segurança se concentram em impedir a recolha ou a revelação de certos tipos de processos de informação, em vez de erradicar completamente o conhecimento.

 

Mas nem todas as notícias em torno da IA são negativas. Atualmente, a Inteligência Artificial e a aprendizagem automática são dois dos principais pilares que ajudam a melhorar as capacidades de cibersegurança. O facto é que o grau de complexidade e dispersão dos atuais sistemas corporativos torna insuficiente a monitorização, supervisão e controlo de risco tradicionais e manuais.

 

Estas tecnologias permitem uma análise muito mais exata e abrangente das ameaças e mantêm a segurança 24 horas por dia, ultrapassando outras barreiras impostas pelos limites humanos.

Ler Mais