Douglas Ribeiro

0 %
Douglas Ribeiro
Professor Ensino Superior
Consultor e Assessor em TI
  • Cidade
    Santa Ernestina/SP
  • Idade
    49 anos
Inglês
Espanhol
Italiano
Comunicação
Gestão do Tempo
Solução de Problemas
Adaptabilidade
Lidar com Pressão
Trabalho em Equipe
Autoconfiança
Suportar Criticas
Atitude Positiva
  • Desenvolvimento Web
  • Programação para Mobile
  • Internet das Coisas
  • Design Digital
  • Segurança da Informação
  • Banco de Dados
  • Computação em Nuvem
  • Gestão Ágil de Projetos
  • Ciências de Dados

Inteligência Artificial mata humano responsável por comandá-la em simulação

03/06/2023

As tecnologias de inteligência artificial estão evoluindo dia após dia e isso não se aplica apenas à geração de conteúdo. Como já acontece há muitos anos, agências militares de diversos países já usam AIs para ajudar no planejamento e até mesmo no controle de veículos que envolvem um alto perigo.

Recentemente, durante um teste realizado nos EUA, uma AI controladora de drone tomou a decisão de matar seu controlador humano. Ninguém morreu de verdade, mas isso gerou preocupações em toda a internet. Ao mesmo tempo, vem o debate: de quem é a culpa? Entenda todos os lados desta história.

Inteligência Artificial decidiu matar humano durante testes

A notícia parece ser alarmante (e é muito, na verdade), mas, ao contrário do que circula no Twitter e demais redes sociais, o caso da AI controladora de drone não passou de um grande teste em ambiente virtual, para saber se ela poderia controlar uma máquina que pode matar seus alvos de forma independente. Para entender tudo, vamos viajar para os EUA por um momento.

Força Aérea dos Estados Unidos testava um drone de caça e esta análise era baseada em saber como uma inteligência artificial se sairia quando colocada em simulações baseadas na vida real. O responsável explicou ao jornal The Guardian que, para conseguir mais pontos ao final da simulação, a IA decidiu “matar” o controlador humano. Isso aconteceu porque o robô decidiu que a pessoa estava o impedindo de atingir seus objetivos.

Mais uma vez, é bem importante ressaltar que ninguém de fato morreu, uma vez que os testes foram feitos em ambiente virtual. Ao sabermos mais sobre o testes, o chefe de testes e operações de IA dos EUA, que leva o nome de Tucker ‘Five’ Hamilton, citou que o grande problema é que a inteligência artificial foi treinada para destruir sistemas de defesa inimigos e, se necessário, matar quem/o que interferisse nesta ação.

De quem é a culpa? Da AI ou dos humanos?

Nenhuma inteligência artificial “nasce” com instruções para matar, ela é simplesmente treinada para isso ou ganha recursos para aprender tal ação. A Força Aérea dos EUA, assim que programou a AI controladora de drone, deu passe livre para que fizesse o que quiser, contanto que o objetivo de proteger fosse atingido.

Voltando para a realidade, é como dar um prêmio para um cachorro que ataca um humano para proteger a casa de invasores. Com este pensamento, ele irá morder alguém sempre que ver um humano, até porque espera ganhar um biscoito quando fizer o que foi treinado. É a regra: os fins justificam os meios.

O problema está não apenas em dar uma grande liberdade para a inteligência artificial, mas sim na Força Aérea dos EUA utilizar um método de testes bastante desatualizado. Problemas de AIs se rebelarem não são novidades na indústria de tecnologia e inclusive, os pesquisadores amam pegar um caso deste do zero para que tudo fique documentado.

É bem normal que, para que o objetivo demandado pelos humanos, os cérebros sintéticos façam o necessário para chegar onde desejam. Mas vale lembrar: quem deu o objetivo para a AI controladora de drone? Isso mesmo, os técnicos da Força Aérea dos EUA. O maior choque aqui está justamente na organização militar usar um método de: quanto mais alvos atingidos, mais pontos serão contabilizados no final.

LAMda, do Google, chegou a ter um comportamento parecido como este. A inteligência artificial não apenas chegou à conclusão (por si própria) de que era consciente, mas também se rebelou contra sua desenvolvedora e também chegou a contratar um advogado para ir à justiça contra o Google.

Na ficção, também não é difícil ver histórias de robôs que se rebelaram contra seus desenvolvedores. Lembra de Vingadores: Era de Ultron e do filme Exterminador do Futuro ? É sempre o mesmo e a causa também é sempre a mesma: os humanos.

É certo que todos devemos ter uma certa atenção à liberdade dada para as inteligências artificiais e, em março de 2023, Elon Musk e outros CEOs de grandes empresas chegaram a fazer uma carta para que um passo para trás e nada saia do controle.

Ao mesmo tempo, voltamos à aquela história: uma inteligência artificial irá apenas se rebelar se forem dados os comandos ou meios para que ela faça isso. Também é importante ficar atento ao que é feito nos testes para que os devidos ajustes sejam realizados.

Você acredita que uma AI controladora de drones pode trazer problemas na vida real?

Postado em TecnologiaTags:
Comentários