Reportagem: A guerra da inteligência artificial
Eduardo Szklarz
O robô do teste de Rensselaer, o que
demonstrou consciência, [...] não é nenhum gênio. Ele se chama NAO, foi criado
em 2010 pela empresa francesa Aldebaran Robotics e consegue manter con – versas
simples. Não é um modelo de vanguarda – mas conseguiu fazer algo
extraordinário. Na experiência, os cientistas pegaram três robôs desse tipo, e
programaram a seguinte instrução na memória deles: “Dois de vocês ficaram
mudos”. Os cientistas não informaram quais. Em seguida, perguntaram a cada
robô: quem está mudo aqui? Normalmente, os robôs ficam quietos (porque estão
mudos), ou respondem “não sei”. Até que, após várias tentativas, um deles teve
a sacada: “Desculpe. Eu sei a resposta agora. Eu não estou mudo”. Logo, os
mudos são os outros dois. O robô conseguiu enxergar a si próprio “de fora”
e raciocinar a respeito. Ou seja, tomou consciência de que existe, e pensou
sobre isso. De forma rudimentar, claro. Mas que, até onde se sabe, nenhuma
máquina tinha conseguido fazer antes.
O NAO só conseguiu fazer isso porque
foi construído usando o modelo de rede neural artificial – que tenta criar
máquinas capazes de pensar por si mesmas. Em vez de programar um conjunto de
regras rígidas na memória do robô, ensinando o que ele deve ou não fazer, você
deixa que ele aprenda sozinho, por tentativa e erro – o robô experimenta todas
as ações possíveis, vê as que apresentam o resultado correto (determinado por
você), e passa a adotá-las, eliminando as que não funcionam. É uma estratégia
semelhante à da seleção natural. E significa que, quando as circunstâncias
mudam, a máquina é capaz de se ajustar a elas e evoluir sozinha, repetindo o
processo de tentativa e erro. As redes neurais já estão presentes em algumas
coisas do dia a dia (são usadas pelos robôs do Google Imagens para classificar
e agrupar as fotos da internet, por exemplo), e são consideradas o caminho mais
promissor para a inteligência artificial.
Mas a capacidade de aprender sozinho
também permite agir de forma diferente do esperado. Em junho deste ano, um
software de rede neural desenvolvido por dois pesquisadores do Google teve uma
reação imprevista. Ele foi treinado para conversar – coisa que aprendeu lendo e
analisando 62 milhões de legendas de filmes, baixadas do site. Os pesquisadores
fizeram dezenas de perguntas ao robô, como “quantas patas tem um gato?”, “qual
a cor do céu?”, “o que é altruísmo?”. Ele acertou, sempre dando respostas bem
diretas. Exceto numa das questões. Quando perguntado “de que cor é o sangue?”,
a máquina disse: “da mesma cor que um olho roxo”. Uma ameaça velada – que ela
certamente aprendeu nos filmes, mas que não tinha sido programada para fazer.
Em 2013 o supercomputador Watson, da IBM, passou por um caso parecido. Seus
criadores o colocaram para ler o site, que explica os significados de gírias.
Não acabou bem. Watson se tornou boca-suja. Um dia, respondeu a um
pesquisador dizendo que a pergunta dele era bullshit (expressão chula que
significa papo-furado). Ele não tinha sido programado para falar palavrão.
Acabou falando.
Xingar não é o fim do mundo. Mas quando
máquinas inteligentes estiverem envolvidas em situações críticas, qualquer
surpresa poderá ter consequências graves.
Eduardo Szklarz.
Disponível em: https://super.abril.com.br/tecnologia/a-guerra-da-inteligencia-artificial.
Acesso em: 8 ago. 2018.
Entendendo a reportagem:
01 – O autor da reportagem
fez questão de indicar que o NÃO
não é um robô sofisticado. Quais trechos informam isso?
Os trechos são
estes: “Não é nenhum gênio”; “Consegue manter conversas simples” e “Não é um
modelo de vanguarda”.
02 – Por que a resposta dada
por NÃO foi surpreendente?
Porque ela não
estava programada; o robô chegou a uma conclusão “refletindo” sobre a situação
em que estava inserido, enxergando a si próprio, tomando consciência de que
existe.
03 – Que aspecto físico
permitiu a ele dar essa resposta?
NÃO foi
construído usando o modelo de rede neural artificial.
04 – Explique a semelhança
existente entre o modo como NÃO e os seres vivos aprendem.
A aprendizagem
ocorre por tentativa e erro, com o indivíduo verificando quais respostas ou
ações têm o resultado esperado e descartando as demais.
05 – Por que o caso de NÃO e
o de alguns outros computadores têm preocupado os cientistas e inventores?
Porque as
máquinas têm tido reações imprevistas, o que mostra que não é possível o
controle total sobre elas.
Nenhum comentário:
Postar um comentário