web analytics

Inteligência Artificial acaba de ensinar a si mesma como enganar seus criadores

Inteligência Artificial acaba de ensinar a si mesma como enganar seus criadores

Quando a maioria das pessoas pensa sobre os riscos potenciais da Inteligência Artificial (IA) e aprendizado de máquina, suas mentes imediatamente pulam para o filme “Exterminador do Futuro” – um futuro onde robôs, de acordo com uma visão distópica articulada por Elon Musk, marchariam pelas ruas suburbanas, abatendo todos os humano em seu caminho.

Mas, na realidade, enquanto a IA tem o potencial de semear o caos e a discórdia, a maneira pela qual isso pode acontecer é muito mais simples e muito menos empolgante do que uma “Skynet” da vida real. Se qualquer coisa, os riscos podem surgir a partir de redes de IA que podem criar imagens e vídeos falsos – conhecidos na indústria como ‘deepfakes‘ – que são indistinguíveis da coisa real.

Bem, na última visão das capacidades da IA ​​em um futuro não tão distante, um colunista do TechCrunch destacou um estudo que foi apresentado em uma importante conferência do setor em 2017. No estudo, os pesquisadores explicaram como uma Rede Generativa Adversarial – uma das duas variedades comuns de agentes de aprendizado de máquina – desafiou as intenções de seus programadores e começou a distribuir mapas sinteticamente projetados após serem instruídos a combinar fotografias aéreas com seus mapas de ruas correspondentes.

A intenção do estudo era criar uma ferramenta que pudesse adaptar mais rapidamente as imagens de satélite aos mapas de ruas do Google. Mas, em vez de aprender como transformar imagens aéreas em mapas, o agente de aprendizado de máquina aprendeu a codificar as características do mapa nos dados visuais do mapa das ruas.

A intenção era que o agente pudesse interpretar os recursos de qualquer tipo de mapa e combiná-los com os recursos corretos do outro. Mas o que o agente estava sendo avaliado (entre outras coisas) era o quão próximo um mapa aéreo era do original e a clareza do mapa de ruas.

Então ele não aprendeu como fazer um do outro. Ele aprendeu a codificar sutilmente os recursos de um para os padrões de ruído do outro. Os detalhes do mapa aéreo são escritos secretamente nos dados visuais reais do mapa de ruas: milhares de pequenas mudanças na cor que o olho humano não notaria, mas que o computador pode detectar facilmente.

Na verdade, o computador é tão bom em inserir esses detalhes nos mapas de ruas, que aprendeu a codificar qualquer mapa aéreo em qualquer mapa de ruas! Nem precisa prestar atenção ao mapa de ruas ‘real’ – todos os dados necessários para a reconstrução da foto aérea podem ser sobrepostos de forma inofensiva em um mapa de ruas completamente diferente, como os pesquisadores confirmaram.

As ações do agente representaram um avanço inadvertido na capacidade das máquinas de criar e falsificar imagens.

Essa prática de codificar dados em imagens não é nova; é uma ciência estabelecida chamada esteganografia, e é usada o tempo todo para, digamos, adicionar marcas d’água a imagens ou adicionar metadados como configurações da câmera. Mas um computador criando seu próprio método esteganográfico para evitar ter que realmente aprender a executar a tarefa em questão é bastante novo. (Bem, a pesquisa foi lançada no ano passado, então não é novidade, mas é bem nova.)

Em vez de encontrar uma maneira de concluir uma tarefa que estava além de suas habilidades, o agente de aprendizado de máquina desenvolveu sua própria maneira de trapacear.

Alguém poderia facilmente entender isso como um passo na narrativa de que “as máquinas estão ficando mais inteligentes”, mas a verdade é que é quase o oposto. A máquina, que não é inteligente o suficiente para fazer o difícil trabalho de converter esses sofisticados tipos de imagens, encontrou uma maneira de enganar, na qual os humanos são ruins em detectar. Isso poderia ser evitado com uma avaliação mais rigorosa dos resultados do agente e, sem dúvida, os pesquisadores continuaram a fazer isso.

E se mesmo esses pesquisadores sofisticados quase não conseguiram detectar isso, o que isso nos mostra sobre nossa capacidade de diferenciar imagens genuínas daquelas que foram fabricadas por uma simulação de computador?

A Inteligência Artificial é apropriadamente considerada por muitos como uma caixa de Pandora, algo que tem o poder de potencialmente devastar a civilização humana e a própria vida. Alguns denunciantes afirmam que a tecnologia IA avançada já existe e que existe até um sinal IA extraterrestre que tem o poder de dominar a tecnologia humana nativa.

Deixando de lado a teoria, a tecnologia é usada eticamente para melhorar a vida humana, não limitá-la; e, portanto, indivíduos em alerta fariam bem em se proteger contra o potencial uso desastroso da IA.

(Fonte)


Realmente, se a raça humana se descuidar, o potencial existe para que a Inteligência Artificial nos domine. Há também quem teorize que a IA tenha eliminado toda a vida alienígena inteligente no Universo.

Se isto realmente for verdade, nós humanos fomos desconsiderados como sendo inteligentes.

n3m3

…E se você ainda não acessou nossa página principal, está perdendo um universo de informações.

Visite também nosso site associado, otimundo.com, para mais artigos interessantes, clicando aqui!

Loading...

ATENÇÃO: Os comentários abaixo são de responsabilidade única e exclusiva de seus próprio autores e o site OVNI Hoje não se responsabiliza por quaisquer inconveniências por eles causados, como também reserva o direito aos seus moderadores de banir qualquer usuário que bem determinarem. Ao usar a área de comentários abaixo, você concorda com esses termos.

Assim, seja civilizado ao comentar e reporte abusos, marcando tais comentários como 'inapropriados', acessando a pequena flecha apontada para baixo no lado direito de cada comentário.

Obrigado.

Ad Blocker Detectado

Olá leitor. O OVNI Hoje depende dos anúncios aqui publicados para que seja possível pagar sua hospedagem e trazer notícias a você de forma gratuita. Por favor, considere nos apoiar desabilitando o seu bloqueador de anúncios. Obrigado

Refresh