web analytics

Inteligência artificial pode destruir a humanidade “acidentalmente”

Compartilhe com a galáxia!
Tempo de leitura: 2 min.

Em meados do século XXI, a humanidade será capaz de criar uma inteligência artificial (IA) verdadeiramente poderosa que destruirá nossa civilização se algo der errado em seu trabalho.

Inteligência artificial pode destruir a humanidade "acidentalmente"
A Inteligência Artificial poderá ser nociva à humanidade, mesmo acidentalmente.

Segundo o Washington Post, tal ameaça é considerada real por Émile Torres, filósofo e especialista em avaliar a probabilidade de catástrofes globais.

Torres tem certeza de que em 2050 aparecerá no mundo a chamada superinteligência artificial – uma máquina cujas capacidades superarão as de uma pessoa.

Torres alertou:

“A criação de superinteligência artificial levará a um avanço tecnológico em várias áreas, mas também teremos que lidar com perigos muito sérios.

Se as pessoas confiam na superinteligência com algumas coisas realmente importantes, então há uma alta probabilidade de que a máquina destrua a humanidade ou a prejudique muito.

Algoritmos de controle de IA muito complexos serão necessários, mas onde está a probabilidade de um supergênio do computador não ser capaz de contorná-los? Mesmo nos algoritmos de IA de hoje, há aspectos que escapam à nossa compreensão e, no futuro, as pessoas entenderão cada vez menos como a IA poderosa funciona.”

O especialista acredita que uma catástrofe global causada pela IA pode ocorrer se as pessoas confiarem na máquina tarefas muito complexas e abstratas. Por exemplo, eles instruirão a IA a “causar a paz no mundo”, como resultado do qual o computador simplesmente destruirá todas as pessoas (sem pessoas – ninguém para lutar entre si).

Não está claro que a humanidade estará preparada para a superinteligência, mas certamente não estamos prontos agora. Com toda a nossa instabilidade global e compreensão ainda incipiente da tecnologia, adicionar IA seria acender um fósforo ao lado de uma fábrica de fogos de artifício.

A pesquisa sobre inteligência artificial deve desacelerar, ou mesmo pausar. E se os pesquisadores não tomarem essa decisão, os governos devem tomá-la por eles.

(Fonte)


…E não esqueça: Nossa página principal é atualizada diariamente, com novos artigos podendo ser publicados ao longo do dia. Clique aqui para acessá-la.

ATENÇÃO: Qualquer artigo aqui publicado serve somente para cumprir a missão deste site. Assim, o OVNI Hoje não avaliza sua veracidade totalmente ou parcialmente.

IMPORTANTE: Se puder, colabore para manter o OVNI Hoje no ar, pois cada doação, por menor que seja, é crucial para manter este espaço de informação e conhecimento disponível para todos os interessados. Ao utilizar o QR code do PIX abaixo ou a chave PIX “OVNIHoje” (sem aspas), você está desempenhando um papel fundamental na sustentação deste site.

Lembre-se que as doações não são apenas um ato de generosidade, mas também uma demonstração do seu compromisso em apoiar o compartilhamento de informações relevantes e o crescimento da comunidade interessada em assuntos tão fascinantes, possibilitando a continuação das pesquisas, análises e publicações que enriquecem nosso entendimento.

Seja parte deste movimento contínuo em prol do conhecimento. O OVNI Hoje e seus leitores agradecem sinceramente por seu apoio dedicado.

Agradecimentos aos colaboradores do mês: Edward Vaz Jr. ❤️ Silas Raposo ❤️ Franklin Viana ❤️Leopoldo Della Rocca ❤️ Jessica Luana de Souza ❤️

Muito obrigado!


ÁREA DE COMENTÁRIOS
(Mais abaixo…👇)

ATENÇÃO:


Ads Blocker Image Powered by Code Help Pro

BLOQUEADOR DE ANÚNCIOS DETECTADO!!!

Caro leitor, a existência do OVNI Hoje depende dos anúncios apresentados aqui. Por favor, apoie o OVNI Hoje e desabilite seu bloqueador de anúncios para este site. Obrigado!

hit counter code