Pesquisadores da Universidade de Oxford alertaram os legisladores do Reino Unido que a ‘IA sobre-humana’ (Inteligência Artificial) pode acabar sendo pelo menos tão perigosa quanto as armas nucleares e, portanto, deve ser regulamentada como elas, relata o The Telegraph.
Os especialistas disseram aos parlamentares do Comitê de Ciência e Tecnologia do governo do Reino Unido sobre os perigos das tecnologias de inteligência artificial não regulamentadas – e eles não rodearam exatamente o arbusto.
O estudante de doutorado, Michael Cohen, disse aos parlamentares, conforme citado pelo The Telegraph:
“Com a IA sobre-humana, existe um risco particular de um tipo diferente de classe, que é, bem, pode matar todo mundo.”
Apocalipse IA
Esses riscos são realmente prementes, com poderes políticos cada vez mais tentando se superar no campo da IA.
Michael Osborne, professor de aprendizado de máquina na Universidade de Oxford, que também participou da reunião do comitê, alertou sobre uma “corrida enorme de IA” entre os EUA e a China, que estão dispostos a “jogar segurança e cautela pela janela e correr o mais rápido possível para a IA mais avançada“.
Osborne disse:
“Há algumas razões para termos esperança de que fomos muito bons em regular o uso de armas nucleares. Se fôssemos capazes de entender que a IA avançada é um perigo tão comparável quanto as armas nucleares, talvez pudéssemos chegar a estruturas semelhantes para governá-la.”
O treinamento de IAs para atingir um marco ou colher uma recompensa pode ser particularmente perigoso, disse Cohen.
Ele disse aos legisladores:
“Se você imaginar treinar um cão com guloseimas, ele aprenderá a escolher ações que o levem a receber guloseimas. Mas se o cão encontrar o armário de guloseimas, ele pode pegar as guloseimas sem fazer o que queríamos que ele fizesse.”
Em outras palavras, uma IA sobre-humana corre o risco de direcionar “o máximo de energia possível para garantir seu domínio” em uma recompensa, que “nos deixaria sem energia para nós mesmos“.
À medida que essas tecnologias progridem, precisamos ter a capacidade de “puxar o plugue” se elas se tornarem “muito mais inteligentes do que nós em todos os domínios” argumentou Cohen.
E estamos apenas arranhando a superfície. Cohen e Osborne previram que IAs mais capazes do que os humanos poderiam surgir já no final do século, algo que poderia ser evitado com a regulamentação correta.
(Fonte)
Mas lembre-se, mesmo se tivermos a capacidade de puxar o plugue para desligar uma IA que comece a “se achar”, sempre haverá um “louquinho humano” que irá achar que ela tem todo o direito de ficar ativa e impedirá o processo sem que o resto de nós saiba. A história humana está repleta desses “louquinhos”. Assim, todo o cuidado é pouco.
n3m3
Compartilhe este artigo com a galáxia!
ATENÇÃO: Qualquer artigo aqui publicado serve somente para cumprir a missão deste site. Assim, o OVNI Hoje não avaliza sua veracidade total ou parcialmente.
Apoie o OVNI Hoje: Cada Doação é Essencial para continuidade deste site!
Sua colaboração é crucial para manter o OVNI Hoje no ar. Assim, mesmo a menor doação ajuda a manter este espaço de informação e conhecimento disponível para todos os interessados. O OVNI Hoje e seus leitores agradecem sinceramente por seu apoio dedicado.
Para saber como doar, clique aqui.
Agradecimentos aos colaboradores do mês: ❤️Helio dos Santos ❤️Silas Raposo ❤️Edward Vaz ❤️Cris Vilas Boas ❤️Leopoldo Della Rocca ❤️Eneias Vieira
ÁREA DE COMENTÁRIOS
Todos são bem-vindos a participar da área de comentários abaixo. Contudo, os comentários são de responsabilidade única e exclusiva de seus próprios autores. Ou seja, o site OVNI Hoje não se responsabiliza por quaisquer inconveniências ou conflitos por eles causados.
Importante: Antes de comentar, atente-se às regras da Área de Comentários e evite ser banido. As regras podem ser acessadas clicando aqui.