Esta é a previsão do economista da Universidade George Mason, Ryan Caplan, após analisar os efeitos catastróficos desencadeados pela persistência nas pesquisas sobre Inteligência Artificial (IA).
Ele diz que a IA poderá funcionar com tanta eficiência que acabará por eliminar a espécie humana, e lança outra previsão:
“Com a possibilidade de aumentar as suas próprias capacidades, a Inteligência Artificial tornar-se-á ‘inteligência infinita’, nesse momento começará ‘o início do fim do ser humano’.”
Para ele, o perigo não vem apenas do desenvolvimento da IA, mas também quando seu desenvolvimento descontrolado é combinado com os avanços da robótica. Os androides, isto é, os robôs com aparência humana, constituem “um perigo imanente gravíssimo, muito mais que o da mais sangrenta das guerras”, afirma.
Por isso, ele redigiu uma carta aberta, publicada pelo Future of Life Institute, em Cambridge, Massachusetts, e assinada por relevantes empresários e especialistas em inteligência artificial onde pedem a interrupção temporária das investigações que estão sendo desenvolvidas na área de inteligência artificiais.
Entre os signatários está Elon Musk, dono do Twitter e fundador da SpaceX e da Tesla, que pede – junto com centenas de outros – uma moratória no desenvolvimento dessas tecnologias, pelo menos até que novas autoridades reguladoras sejam estabelecidas para desenhar um quadro legal, bem como sistemas de segurança e vigilância de sistemas de Inteligência Artificial. Em suma, trata-se de encontrar técnicas que ajudem a distinguir entre o que é real e o que é artificial, bem como dispor de instituições capazes de agir face à “dramática perturbação econômica e política” que esta tecnologia irá provocar.
Sam Altman, diretor da Open AI, a empresa que projetou o popular ChatGPT, reconheceu ter “um pouco de medo” de que a Inteligência Artificial possa ser usada para “desinformação em larga escala ou fazer ataques cibernéticos“.
Imagens do ex-presidente Donald Trump sendo preso pelo FBI foram recentemente divulgadas no Twitter. Na verdade, foram imagens muito realistas criadas por Inteligência Artificial, evidenciando a necessidade de criar um identificador para o conteúdo criado por essa tecnologia.
Especialista em IA e pesquisador dessa tecnologia, Eliezer Yudkowsky, cofundador do Machine Intelligence Research Institute (MIRI) garante que “interromper o desenvolvimento da IA não é suficiente. Deve ser interrompido definitivamente“.
Em um artigo publicado na revista Time, ele diz que “com uma capacidade de ‘pensar’ milhões de vezes mais rápido que a inteligência humana” a IA poderia produzir formas de vida artificiais, mesmo moleculares pós-biológicas que poderiam levar a um confronto com humanos.
(Fonte)
Muito está sendo alertado sobre a Inteligência Artificial e pouco sendo feito. Comportamento típico humano. Mas cá entre nós, acho tão difícil controlar uma IA em fúria, quanto se defender de certos humanos que querem impor à força seus pensamentos em toda a humanidade. Seguimos na luta…
n3m3
Compartilhe este artigo com a galáxia!
ATENÇÃO: Qualquer artigo aqui publicado serve somente para cumprir a missão deste site. Assim, o OVNI Hoje não avaliza sua veracidade total ou parcialmente.
Apoie o OVNI Hoje: Cada Doação é Essencial para continuidade deste site!
Sua colaboração é crucial para manter o OVNI Hoje no ar. Assim, mesmo a menor doação ajuda a manter este espaço de informação e conhecimento disponível para todos os interessados. O OVNI Hoje e seus leitores agradecem sinceramente por seu apoio dedicado.
Para saber como doar, clique aqui.
Agradecimentos aos colaboradores do mês: ❤️Helio dos Santos ❤️Silas Raposo ❤️Edward Vaz ❤️Cris Vilas Boas ❤️Leopoldo Della Rocca ❤️Eneias Vieira
ÁREA DE COMENTÁRIOS
Todos são bem-vindos a participar da área de comentários abaixo. Contudo, os comentários são de responsabilidade única e exclusiva de seus próprios autores. Ou seja, o site OVNI Hoje não se responsabiliza por quaisquer inconveniências ou conflitos por eles causados.
Importante: Antes de comentar, atente-se às regras da Área de Comentários e evite ser banido. As regras podem ser acessadas clicando aqui.