web analytics

Cientistas alertam: IA pode ser mais mortal que armas nucleares

Compartilhe este artigo com a galáxia!
Tempo de leitura: 2 min.
Ouça este artigo...

Pesquisadores da Universidade de Oxford alertaram os legisladores do Reino Unido que a ‘IA sobre-humana’ (Inteligência Artificial) pode acabar sendo pelo menos tão perigosa quanto as armas nucleares e, portanto, deve ser regulamentada como elas, relata o The Telegraph.

Cientistas alertam: IA pode ser mais mortal que armas nucleares
Temos que ter muito cuidado com ela.

Os especialistas disseram aos parlamentares do Comitê de Ciência e Tecnologia do governo do Reino Unido sobre os perigos das tecnologias de inteligência artificial não regulamentadas – e eles não rodearam exatamente o arbusto.

O estudante de doutorado, Michael Cohen, disse aos parlamentares, conforme citado pelo The Telegraph:

“Com a IA sobre-humana, existe um risco particular de um tipo diferente de classe, que é, bem, pode matar todo mundo.”

Apocalipse IA

Esses riscos são realmente prementes, com poderes políticos cada vez mais tentando se superar no campo da IA.

Michael Osborne, professor de aprendizado de máquina na Universidade de Oxford, que também participou da reunião do comitê, alertou sobre uma “corrida enorme de IA” entre os EUA e a China, que estão dispostos a “jogar segurança e cautela pela janela e correr o mais rápido possível para a IA mais avançada“.

Osborne disse:

“Há algumas razões para termos esperança de que fomos muito bons em regular o uso de armas nucleares. Se fôssemos capazes de entender que a IA avançada é um perigo tão comparável quanto as armas nucleares, talvez pudéssemos chegar a estruturas semelhantes para governá-la.”

O treinamento de IAs para atingir um marco ou colher uma recompensa pode ser particularmente perigoso, disse Cohen.

Ele disse aos legisladores:

“Se você imaginar treinar um cão com guloseimas, ele aprenderá a escolher ações que o levem a receber guloseimas. Mas se o cão encontrar o armário de guloseimas, ele pode pegar as guloseimas sem fazer o que queríamos que ele fizesse.”

Em outras palavras, uma IA sobre-humana corre o risco de direcionar “o máximo de energia possível para garantir seu domínio” em uma recompensa, que “nos deixaria sem energia para nós mesmos“.

À medida que essas tecnologias progridem, precisamos ter a capacidade de “puxar o plugue” se elas se tornarem “muito mais inteligentes do que nós em todos os domínios” argumentou Cohen.

E estamos apenas arranhando a superfície. Cohen e Osborne previram que IAs mais capazes do que os humanos poderiam surgir já no final do século, algo que poderia ser evitado com a regulamentação correta.

(Fonte)


Mas lembre-se, mesmo se tivermos a capacidade de puxar o plugue para desligar uma IA que comece a “se achar”, sempre haverá um “louquinho humano” que irá achar que ela tem todo o direito de ficar ativa e impedirá o processo sem que o resto de nós saiba. A história humana está repleta desses “louquinhos”. Assim, todo o cuidado é pouco.

n3m3


Apoie o OVNI Hoje: Cada Doação é Essencial para continuidade deste site!

Agradecimentos aos colaboradores do mês: ❤️Helio dos Santos ❤️Silas Raposo ❤️Edward Vaz ❤️Cris Vilas Boas ❤️Leopoldo Della Rocca ❤️Eneias Vieira


ÁREA DE COMENTÁRIOS

Todos são bem-vindos a participar da área de comentários abaixo. Contudo, os comentários são de responsabilidade única e exclusiva de seus próprios autores. Ou seja, o site OVNI Hoje não se responsabiliza por quaisquer inconveniências ou conflitos por eles causados.

Importante: Antes de comentar, atente-se às regras da Área de Comentários e evite ser banido. As regras podem ser acessadas clicando aqui.

Ads Blocker Image Powered by Code Help Pro

BLOQUEADOR DE ANÚNCIOS DETECTADO!!!

Caro leitor, a existência do OVNI Hoje depende dos anúncios apresentados aqui. Por favor, apoie o OVNI Hoje e desabilite seu bloqueador de anúncios para este site. Obrigado!

hit counter code