Meu conceito principal de pensar - em termos de resultados práticos - está relacionado à nossa capacidade de resolver problemas inesperados, ou seja, quando a vida apresenta situações que não temos um padrão pronto para resolver em nosso cérebro. Nesses casos, ou agimos com intuição - o que às vezes é a única alternativa de sobrevivência, pois não temos a velocidade das máquinas para pensar -, ou pensamos antes de decidir.
Note-se que o Teste de Turing, em parte, faz exatamente isso, quando usa a comunicação ou conversa como forma de gerar problemas inesperados. Se o interrogador fizer uma pergunta muito inesperada, controlando os momentos para fazer isso, em pouco tempo verá que o robô irá se perder totalmente, se não está entendendo a semântica ou o modelo de pensamento, como bem alertou um dos grande críticos do teste - talvez o principal - o filósofo John Searle.
Para melhor entendimento, vamos imaginar o seguinte problema inesperado, para avaliar se uma pessoa ou uma máquina estão pensando, e a qualidade de seus pensamentos. Chamarei esse exemplo de o dilema do cachorro, do homem e da máquina, que são os três personagens envolvidos e que estaremos avaliando em termos de capacidade de pensar, ou não.
---
O dilema do cachorro, do homem e do robô
Em volta de uma piscina, estão uma bola, um cachorro, um homem e uma máquina, que na verdade é um robô humanoide.
Sabe-se também que nenhum dos três sabe nadar e que o cachorro está brincando com a bola. Então acontece de a bola cair na piscina e o cachorro em seguida saltar ao encontro dela.
Como não sabe nadar, ele fica em apuros e logo o homem percebe isso e salta na piscina, esquecendo que também não sabe nadar.
O robô - que em tese não sabe nem nunca teria capacidade de pensar - identifica a situação de risco, através de seus algoritmos de inteligência artificial, mas não encontra em sua base de dados nada parecido com essa situação. Todos seus sensores de risco, entretanto, estão ativos, ainda mais com os latidos e gritos vindos da piscina. Então ele realiza uma primeira inferência, através de mecanismos de sinapse artificial, e passa a procurar alguma coisa que seja capaz de boiar. Não encontrando nenhuma boia - realmente não existia - entra na garagem da casa, encontra uma velha câmara de pneu vazia. Então ele encontra um compressor de ar desligado e logo em seguida liga a chave, enche a câmara e de forma rápida retorna à piscina, lançando a câmara cheia de ar para o homem, que salva a si próprio e o cachorro.
Antes de fazer a pergunta principal do teste, faço outra pergunta: será que esse dilema apresentado seria impossível de acontecer um dia?
E a pergunta principal, que é a do teste que proponho, é simples: o robô teve capacidade de construir uma linha de pensamento para solução do problema inesperado?
Considero essa a pergunta principal, pois se perguntarmos quem teve a melhor linha de pensamento, o cachorro, o homem ou o robô, a resposta lógica e surpreendente é que foi o robô. Ou seja, o robô pensou 'melhor' que o homem, que na verdade agiu por intuição e esqueceu que não sabia nadar.
O dilema: é no mínimo curioso perceber também o dilema central, já que se o homem que caiu na piscina fosse um crítico da capacidade de robôs pensarem no padrão humano, dificilmente perguntaria "Robô, você estava pensando de forma consciente e intencional quando fez isso?" ao receber a boia de salvação. Até porque, se a resposta fosse não, o efeito prático seria o mesmo, a menos que ele decidisse, pela força de sua teimosia, devolver a boia para não ser salvo perdendo suas convicções.
---
Esse acredito ser o grande desafio da inteligência artificial forte, como no dilema que proponho: criar robôs que realmente tenham uma linha de raciocínio que não fique dentro de uma caixa preta. E, para isso, estudaremos a teoria e a prática, com três cases de diferentes complexidade: o jogo de xadrez, o chat, e o trading automático, onde buscaremos os limites do pensamento dos robôs.
Note-se que o Teste de Turing, em parte, faz exatamente isso, quando usa a comunicação ou conversa como forma de gerar problemas inesperados. Se o interrogador fizer uma pergunta muito inesperada, controlando os momentos para fazer isso, em pouco tempo verá que o robô irá se perder totalmente, se não está entendendo a semântica ou o modelo de pensamento, como bem alertou um dos grande críticos do teste - talvez o principal - o filósofo John Searle.
Para melhor entendimento, vamos imaginar o seguinte problema inesperado, para avaliar se uma pessoa ou uma máquina estão pensando, e a qualidade de seus pensamentos. Chamarei esse exemplo de o dilema do cachorro, do homem e da máquina, que são os três personagens envolvidos e que estaremos avaliando em termos de capacidade de pensar, ou não.
---
O dilema do cachorro, do homem e do robô
Em volta de uma piscina, estão uma bola, um cachorro, um homem e uma máquina, que na verdade é um robô humanoide.
Sabe-se também que nenhum dos três sabe nadar e que o cachorro está brincando com a bola. Então acontece de a bola cair na piscina e o cachorro em seguida saltar ao encontro dela.
Como não sabe nadar, ele fica em apuros e logo o homem percebe isso e salta na piscina, esquecendo que também não sabe nadar.
O robô - que em tese não sabe nem nunca teria capacidade de pensar - identifica a situação de risco, através de seus algoritmos de inteligência artificial, mas não encontra em sua base de dados nada parecido com essa situação. Todos seus sensores de risco, entretanto, estão ativos, ainda mais com os latidos e gritos vindos da piscina. Então ele realiza uma primeira inferência, através de mecanismos de sinapse artificial, e passa a procurar alguma coisa que seja capaz de boiar. Não encontrando nenhuma boia - realmente não existia - entra na garagem da casa, encontra uma velha câmara de pneu vazia. Então ele encontra um compressor de ar desligado e logo em seguida liga a chave, enche a câmara e de forma rápida retorna à piscina, lançando a câmara cheia de ar para o homem, que salva a si próprio e o cachorro.
Antes de fazer a pergunta principal do teste, faço outra pergunta: será que esse dilema apresentado seria impossível de acontecer um dia?
E a pergunta principal, que é a do teste que proponho, é simples: o robô teve capacidade de construir uma linha de pensamento para solução do problema inesperado?
Considero essa a pergunta principal, pois se perguntarmos quem teve a melhor linha de pensamento, o cachorro, o homem ou o robô, a resposta lógica e surpreendente é que foi o robô. Ou seja, o robô pensou 'melhor' que o homem, que na verdade agiu por intuição e esqueceu que não sabia nadar.
O dilema: é no mínimo curioso perceber também o dilema central, já que se o homem que caiu na piscina fosse um crítico da capacidade de robôs pensarem no padrão humano, dificilmente perguntaria "Robô, você estava pensando de forma consciente e intencional quando fez isso?" ao receber a boia de salvação. Até porque, se a resposta fosse não, o efeito prático seria o mesmo, a menos que ele decidisse, pela força de sua teimosia, devolver a boia para não ser salvo perdendo suas convicções.
---
Esse acredito ser o grande desafio da inteligência artificial forte, como no dilema que proponho: criar robôs que realmente tenham uma linha de raciocínio que não fique dentro de uma caixa preta. E, para isso, estudaremos a teoria e a prática, com três cases de diferentes complexidade: o jogo de xadrez, o chat, e o trading automático, onde buscaremos os limites do pensamento dos robôs.