Stephen Hawking finalmente revela seu plano para prevenir um apocalipse causado pela Inteligência Artificial
Stephen Hawking é, sem dúvida, uma das maiores mentes da sociedade moderna, assim muitas pessoas prestam atenção quando ele compartilha seus pensamentos com o mundo. Recentemente, ele tem estado falando sobre o futuro.
Hawking expressou sua opinião a respeito de tópicos que vão desde a vida extraterrestre até a inteligência artificial (IA), e para este último ele demonstrou uma séria preocupação. Ele não é contra o desenvolvimento da tecnologia IA. Na verdade, uma vez ele disse que a IA poderia ser o maior evento na história da nossa civilização. Mas como muitos outros cientistas e pensadores hoje no mundo, Hawking está preocupado com a ascensão da IA, trazendo com ela vários efeitos colaterais negativos.
Ele também já alertou a respeito do impacto da IA nos empregos da classe média, e junto com Elon Musk, CEO da Tesla, ele pediu uma proibição no desenvolvimento de robôs de IA para o uso militar. Ele também está preocupado que a IA possa se apoderar do mundo ou, pior ainda, acabar com ele. Nossa melhor aposta contra uma revolta da IA, ele agora diz para o The Times, é a criação de alguma forma de governo mundial que poderia controlar a tecnologia.
Hawking explicou seu raciocínio por detrás desta necessidade de um corpo governamental internacional:
Desde que a civilização começou, a agressão tem sido tão útil quanto ela é de vantagem para sobrevivência. Isto está programado em nossos genes pela evolução darwiniana. Agora, porém, a tecnologia tem avançado até o nível que esta agressão pode nos destruir através da guerra nuclear ou biológica. Precisamos controlar esse instinto inerente através de nossa lógica e razão.
Para podermos acompanhar a IA, precisamos ser capazes de nos adaptar. Hawking disse no final de 2014:
O desenvolvimento da inteligência artificial poderia significar o fim da raça humana. Ela decolaria por si própria e se redesenharia à uma velocidade cada vez mais rápida. Os humanos, que são limitados pela lenta evolução biológica, não poderiam competir, e seriam superados.”
Contudo, ele não acha que as máquinas irão nos perseguir por razões emocionais:
O risco real da inteligência artificial não é a malícia, mas sim a competência. Uma IA super inteligente será extremamente boa em atingir suas metas, e se essas metas não estiverem alinhadas com as nossas, estaremos em apuros.
Assim, alguma forma de corpo governamental e a habilidade de adaptação rápida é o que precisamos para sobreviver o nascimento da IA ou super inteligência, de acordo com Hawking.
Felizmente, várias instituições estão trabalhando a respeito disto. Essas instituições tais como a Partnership on AI e a Ethics and Governance of Artificial Intelligence Fund (ou AI Fund), começaram a desenvolver normas estruturais de trabalho para um desenvolvimento de IA mais consciente. A IEEEE também liberou o primeiro manual para sistemas éticos de IA.
Apesar do potencial para tudo dar errado, Hawking permanece o otimista a respeito do Futuro:
Tudo isso pode parecer um pouco ominoso, mas eu sou um otimista. Eu acho que a raça humana irá se levantar e superar estes desafios.
n3m3