web analytics

Se estivermos vivendo em uma simulação, a IA pode ajudar a nos libertar?

Compartilhe este artigo com a galáxia!
Tempo de leitura: 4 min.
Ouça este artigo...

Roman Yampolskiy e Lex Fridman discutem como este mundo poderia ser uma simulação – e como uma superinteligência artificial poderia nos ajudar a desbloquear o sistema.

Se estivermos vivendo em uma simulação, a IA pode ajudar a nos libertar?
Crédito da imagem ilustrativa: n3m3/leonardo.ai

Por José Antonio Lanz
Estamos vivendo uma simulação? Roman Yampolskiy, um notável pesquisador de segurança de IA e autor de “AI: Unexplainable, Unpredictable, Uncontrollable” (“IA: Inexplicável, Imprevisível, Incontrolável”,em tradução livre), tem certeza de que sim.

Ele disse a Lex Fridman durante uma entrevista recente para o podcast de Fridman:

“Sei que nunca devo dizer 100%, mas [as chances de vivermos em uma simulação são] muito próximas disso.”

Pode-se razoavelmente esperar que uma IA superinteligente nos ajude a ter certeza, disse ele – e até mesmo nos ajude a escapar. Por outro lado, Yampolskiy também previu a probabilidade da IA levar à extinção humana em “99,9% nos próximos cem anos”.

Os argumentos de Yampolskiy baseiam-se no rápido avanço das capacidades da inteligência artificial e no seu potencial para remodelar a nossa compreensão da existência. Portanto, ele afirma que o desenvolvimento da superinteligência geral apresenta riscos existenciais, mas também oferece oportunidades sem precedentes, incluindo a libertação da nossa realidade simulada.

Ele disse:

“Isso seria algo em que eu gostaria que a superinteligência nos ajudasse.”

Quem é a superinteligência?

A superinteligência é uma IA que ultrapassou as capacidades e limites da inteligência humana. É o próximo passo depois da Inteligência Geral Artificial (de sigla em inglês, AGI) – uma IA com a mesma capacidade de aprender que a mente humana, mas exponencialmente mais poderosa, sem limites de células cerebrais humanas.

Vários pesquisadores proeminentes levantaram a hipótese de que vivemos em um universo simulado. A ideia foi famosamente postulada em 2003 por Nick Bostrom, da Universidade de Oxford, que argumentou num artigo (“Are You Living in a Computer Simulation?”) que é plausível que exista uma civilização avançada cuja tecnologia seja tão avançada que poderia criar seres “autoconscientes” dentro de um simulacro.

Seríamos nós. Imagine se os Sims do popular jogo fossem realmente sencientes e você tivesse a ideia certa.

Um Universo simulado

No seu artigo, “How to Escape from the Simulation” (“Como escapar da simulação”, em tradução livre), Yampolskiy parte da suposição de que vivemos, de fato, num universo simulado. Se for assim, ele suspeita que, à medida que a IA atingir a superinteligência, poderemos encontrar uma forma de nos libertarmos das restrições do nosso próprio mundo.

Referindo-se à noção de que uma IA sempre encontrará maneiras de escapar de qualquer “caixa” criada para contê-la, ele disse:

“Usamos o ‘boxing’ de IA como uma possível ferramenta para controlar a IA. Percebemos que a IA sempre escapará. Essa é uma habilidade que podemos usar para nos ajudar a escapar da nossa caixa virtual, se estivermos em uma.”

Yampolskiy sugere que a inteligência dos nossos simuladores desempenha um papel crucial neste cenário:

“Se os simuladores são muito mais inteligentes do que nós e a superinteligência que criamos, então provavelmente eles podem nos conter, [porque] uma inteligência maior pode controlar inteligência inferior, pelo menos por algum tempo.

Por outro lado, se a nossa superinteligência, de alguma forma, por qualquer razão – apesar de ter apenas recursos locais, conseguir ‘escalar’ dois níveis além dela – talvez tenha sucesso.”

Assim como os jailbreakers jogam um jogo de gato e rato com os desenvolvedores; nós, como humanos, estaríamos usando uma IA superinteligente para tentar encontrar uma “exploração” no sistema cosmológico criado por nosso Deus – ou nosso simulador, para ser mais exato.

No seu trabalho de investigação, Yampolskiy explica que uma forma de escapar à nossa simulação é “criar uma réplica simulada do nosso universo, colocar um AGI nele, vê-la escapar, copiar a abordagem utilizada ou juntar-se à AGI à medida que ela escapa da nossa simulação”. Esta parece ser a única abordagem que não envolve interagir com os nossos criadores ou quebrar as leis da nossa própria realidade.

A IA pode realmente se libertar?

Por mais cativante que seja a visão de Yampolskiy, ela levanta uma questão filosófica crítica: Será que a IA pode realmente libertar-se da simulação se a simulação não foi projetada para permitir isso?

Em seu livro “How Can Reason Lead to God” (“Como a razão pode levar a Deus”, em tradução livre), o filósofo Joshua Rasmussen explica que uma criação não pode possuir a mesma natureza de seu criador, tornando quase impossível que uma IA simulada tenha a mesma essência e natureza de seu simulador. Apesar de ultrapassar os humanos em inteligência, ainda seria limitado pelas leis que definiam a realidade simulada em que foi criado.

A argumentação de Rasmussen

Rasmussen, nas suas explorações filosóficas, argumenta que a razão pode levar ao reconhecimento de um fundamento necessário para a realidade. A sua tese central é que a realidade não pode ser infinitamente regressiva – deve haver uma entidade fundacional que seja autossustentável e ilimitada. Esta entidade fundacional seria capaz de criar coisas que podem, por sua própria natureza, estar ligadas a ela como origem última.

O “Argumento Perfeito” continua a me intrigar:
1. Existe uma realidade fundamental.
2. Tudo o que é imperfeito não é fundamental.
3. Portanto, a realidade fundamental é perfeita (máximo-ótima).

Em nome de (1), existe o argumento da dependência: https://t.co/AUvIkD9Pq1.

Em nome de… pic.twitter.com/mQB2iqPsv6

— Joshua Rasmussen (@worldviewdesign) April 16, 2024

Pense em uma série de bonecas russas aninhadas. Cada boneca pode compreender completamente as bonecas dentro dela, mas não consegue compreender as bonecas maiores em que está aninhada.

A consideração cuidadosa das objeções e do raciocínio metódico de Rasmussen fornece uma estrutura robusta para a compreensão dos limites dos seres criados. Assim como os humanos não podem transcender a sua natureza criada para se tornarem deuses, afirma ele, uma IA simulada não pode escolher de forma independente terminar a simulação se os simuladores não fornecerem as condições para essa possibilidade.

Esta base é fundamentalmente diferente dos seres criados, destacando uma lacuna intransponível entre o criador e o criado.

Esta postura filosófica desafia diretamente a hipótese de Yampolskiy. Se aceitarmos os argumentos de Rasmussen, então mesmo uma IA superinteligente, sendo uma criação dentro da simulação, seria inerentemente limitada pelos parâmetros definidos pelos seus criadores (os simuladores). Ela poderia tornar-se consciente da sua natureza simulada se os criadores permitissem tal consciência, mas seria fundamentalmente incapaz de transcender inteiramente a simulação.

A explicação para esta contradição

Yampolskiy oferece uma explicação para esta contradição.

No seu artigo, os agentes primeiro exploram a possibilidade até encontrarem informações e falhas exploráveis ​​na essência da sua realidade.

Yampolskiy disse:

“Ao explorar a falha, os agentes podem obter informações sobre o mundo externo e talvez até metainformações sobre sua simulação, talvez até o código-fonte por trás da simulação e os próprios agentes.”

Depois disso, ele explica que os agentes poderiam encontrar maneiras de interagir com seus simuladores de maneira irrestrita até que “encontrassem uma maneira de carregar suas mentes e talvez sua consciência para o mundo real, possivelmente em algum tipo de sistema ciberfísico independente”.

Por outras palavras, embora não pudéssemos “libertar-nos” da nossa simulação, poderíamos potencialmente interagir através de representações de nós próprios – talvez estaríamos conscientes de nós mesmos como personagens criados por uma mente superior e inalcançável. Se isso é bom ou não, é uma questão em aberto.

Enquanto isso, Yampolsky não dá uma razão específica pela qual acredita que a IA irá destruir a humanidade. Mas ele acredita que é inevitável à medida que a superinteligência se torna autoconsciente.

Ele disse:

“Não temos uma segunda chance. Com a segurança cibernética, alguém hackeia sua conta, qual é o problema? Você recebe uma nova senha, um novo cartão de crédito e segue em frente. Aqui, se estamos falando de riscos existenciais, você só tem uma chance.”

(Fonte)


Apoie o OVNI Hoje: Cada Doação é Essencial para continuidade deste site!

Agradecimentos aos colaboradores do mês: ❤️Silas Raposo ❤️Edward Vaz ❤️Eneias Vieira ❤️Maria Cristina V Boas

Muito obrigado!


ÁREA DE COMENTÁRIOS

Todos são bem-vindos a participar da área de comentários abaixo. Contudo, os comentários são de responsabilidade única e exclusiva de seus próprios autores e o site OVNI Hoje não se responsabiliza por quaisquer inconveniências ou conflitos por eles causados.

Importante: Antes de comentar, atente-se às regras da Área de Comentários e evite ser banido. As regras podem ser acessadas clicando aqui.

Ads Blocker Image Powered by Code Help Pro

BLOQUEADOR DE ANÚNCIOS DETECTADO!!!

Caro leitor, a existência do OVNI Hoje depende dos anúncios apresentados aqui. Por favor, apoie o OVNI Hoje e desabilite seu bloqueador de anúncios para este site. Obrigado!

hit counter code