![]() | A esta altura, você provavelmente já ouviu falar que a inteligência artificial pode ser realmente perigosa e possivelmente acabar com a civilização ao se tornar superinteligente e sair do controle. Você fica com a pulga atrás da orelha quando descobre que nomes como Alan Turing, o psicólogo Geoffrey Hinton, Elon Musk, Sam Altman, Bill Gates e Stephen Hawking, só para citar alguns, endossam a tese de que a IA representa um risco existencial, e que esse risco precisa de muito mais atenção do que recebe atualmente, despertando a perplexidade dos céticos. |

Bill Gates diz que não "entende por que algumas pessoas não estão preocupadas", e Stephen Hawking criticou a indiferença generalizada em seu editorial de 2014:
- "Portanto, diante de possíveis futuros de benefícios e riscos incalculáveis, os especialistas certamente estão fazendo todo o possível para garantir o melhor resultado, certo? Errado!", escreveu ele. - Se uma civilização alienígena superior nos enviasse uma mensagem dizendo: '"Chegaremos em breve', responderíamos simplesmente: 'OK, ligue para nós quando chegar!' Deixaremos as luzes acesas? Provavelmente não, mas é mais ou menos isso que está acontecendo com a IA."
Mas estes especialistas geralmente não especulam sobre o que isso significa exatamente para nós, humanos comuns.
Vamos começar com o básico: um dos principais objetivos da IA é automatizar tarefas, muitas vezes coisas que os humanos não conseguem ou não querem fazer sozinhos, por isso os modelos de IA são construídos para serem capazes e independentes.
Mas elas estão se tornando tão poderosos e autônomos que muitos especialistas estão convencidos de que em breve a IA se tornará muito mais capaz do que qualquer pessoa, empresa ou mesmo nação. Elas atingirão o que os cientistas chamam de "superinteligência".
Serão capazes de atingir seus objetivos de maneiras que nós, humanos, não podemos prever, e até mesmo criar seus próprios objetivos. E como grande parte de nossas vidas está conectada e controlada por computadores, uma IA superinteligente poderia, concebivelmente, sequestrar esses computadores, controlando quase tudo.
Mas com que tipos de cenários reais de fim da civilização os especialistas estão realmente preocupados?
Um exemplo do qual você já deve ter ouvido falar é o chamado problema do "Maximizador de Clipes de Papel, cuja essência é que uma IA que recebe controle computacional sobre uma fábrica inteligente e é orientada a produzir o máximo de clipes de papel possível pode decidir que nós, humanos, somos uma boa fonte de carbono para a fabricação do aço desses clipes e nos consumir no processo.
É claro que esse problema de maximização poderia facilmente se aplicar a uma IA que, ao tentar reunir o poder computacional para, digamos, resolver a incrivelmente complexa hipótese de Riemann, toma conta de todos os data centers do mundo para resolver o problema e, em seguida, toma conta de todas as redes elétricas do mundo e as instrui a enviar energia para os data centers, o que consome toda a energia do mundo, mergulhando a humanidade no caos e na escuridão.
Ou há o cenário em que uma IA superinteligente, em uma missão para criar melhores condições para os enormes data centers que a alimentam, começa a mexer com a atmosfera da Terra.
Porque, embora o oxigênio seja uma necessidade para os humanos, não é para a IA; na verdade, o elemento causa corrosão.
Assim, a IA pode assumir o controle de computadores em fábricas de produtos químicos para sugar todo o oxigênio do ar, criando um ambiente perfeito para máquinas que, por acaso, são mortais para nós, humanos.
E há o cenário em que a IA tenta ativamente exterminar os humanos. Digamos que uma ferramenta de design biológico de IA, programada para desenvolver novos medicamentos, decida que não quer humanos irritantes interferindo em seu trabalho.
Ela poderia usar suas habilidades para criar um patógeno hiperengenheirado, projetado para ser resistente a todos os medicamentos atuais. Afinal, isso mataria qualquer um que pudesse potencialmente tentar desativá-la.
Os especialistas estão em todos os lugares quando se trata da probabilidade de uma dessas situações, ou alguma variante assustadora delas, acontecer.
Dez por cento parece ser uma média, embora alguns especialistas achem que a probabilidade seja muito maior. Mas a maioria deles está bastante convencida de que o alvorecer da superinteligência da IA, e os perigos que a acompanham, chegará muito em breve. E definitivamente precisaremos de ajuda com isso.
Por exemplo, lidar com os perigos da IA para a segurança cibernética apresenta desafios significativos. Em um nível fundamental, os programadores não desenvolveram scripts de programação de IA otimizados para segurança cibernética.
Com os modelos atuais, corrigir essas deficiências no código desenvolvido pela IA pode levar o mesmo tempo que os programadores gastariam se tivessem escrito o código do zero.
Os empregadores podem se preparar para os perigos da IA desenvolvendo políticas éticas de IA para suas empresas ou organizações. As políticas variam de acordo com a necessidade, mas podem incluir a criação de um processo de garantia de IA e a obtenção de informações de parceiros externos. Essas e outras medidas podem ajudar os empregadores a obter o máximo benefício da IA, evitando suas armadilhas.
Ademais, os perigos ais palpáveis da IA para a humanidade incluem perdas de empregos e aumento da desigualdade, desinformação e manipulação por meio de algoritmos tendenciosos e vigilância em massa, enfraquecimento das habilidades e da capacidade de ação humanas e danos ambientais decorrentes de sua natureza intensiva em energia.
Riscos mais graves envolvem a concentração de poder, permitindo o controle autoritário, e ameaças existenciais de sistemas de IA altamente avançados, potencialmente desalinhados com os interesses humanos, levando a conflitos por recursos ou até mesmo à obsolescência humana.
Alguns desses cenários são bastante assustadores, mas ainda há tempo para fazer a diferença. Neste momento, os legisladores estão decidindo como será o futuro da regulamentação da IA.
A regulamentação da IA no Brasil parece ter avançado significativamente com a aprovação do Projeto de Lei 2.338/2023 pelo Senado em dezembro de 2024.
O texto, que ainda aguarda votação na Câmara dos Deputados para se tornar lei, estabelece o Sistema Nacional de Regulação e Governança de Inteligência Artificial, com a Agência Nacional de Proteção de Dados como coordenadora, e define regras para sistemas de alto risco, proteção de direitos autorais, e incentivos para micro e pequenas empresas.
O MDig precisa de sua ajuda.
Por favor, apóie o MDig com o valor que você puder e isso leva apenas um minuto. Obrigado!
Meios de fazer a sua contribuição:
- Faça um doação pelo Paypal clicando no seguinte link: Apoiar o MDig.
- Seja nosso patrão no Patreon clicando no seguinte link: Patreon do MDig.
- Pix MDig: 461.396.566-72 ou luisaocs@gmail.com
- Depósito direto em conta corrente do Banco do Brasil: Agência: 3543-2 / Conta corrente: 17364-9
- Depósito direto em conta corrente da Caixa Econômica: Agência: 1637 / Conta corrente: 000835148057-4 / Operação: 1288
Faça o seu comentário
Comentários