Sie sind auf Seite 1von 68

UNIVERSIDADE FEDERAL DO CEAR

DEPARTAMENTO DE COMPUTAO
CURSO DE CINCIA DA COMPUTAO
CARLOS ROBERTO RODRIGUES FILHO
A EVOLUO DO PROJETO COMPUTACIONAL PARA UMA
INTELIGNCIA ARTIFICIAL E AS NOVAS PERSPECTIVAS
OFERECIDAS PELOS AVANOS DA COGNIO ENATIVA
FORTALEZA, CEAR
2012
CARLOS ROBERTO RODRIGUES FILHO
A EVOLUO DO PROJETO COMPUTACIONAL PARA UMA
INTELIGNCIA ARTIFICIAL E AS NOVAS PERSPECTIVAS
OFERECIDAS PELOS AVANOS DA COGNIO ENATIVA
Dissertao submetida Coordenao do Curso
de Ps-Graduao em Cincia da Computao
da Universidade Federal do Cear, como requi-
sito parcial para a obteno do grau de Mestre
em Cincia da Computao.
rea de concentrao: Inteligncia Articial
Orientador: Prof. Dr. Carlos Eduardo Fisch de
Brito
FORTALEZA, CEAR
2012
A000z Rodrigues Filho, C. R..
A Evoluo do Projeto Computacional para uma Inteli-
gncia Articial e as Novas Perspectivas Oferecidas pelos
Avanos da Cognio Enativa / Carlos Roberto Rodrigues
Filho. 2012.
67p.;il. color. enc.
Orientador: Prof. Dr. Carlos Eduardo Fisch de Brito
Co-Orientador:
Dissertao(Cincia da Computao) - Universidade Federal
do Cear, Departamento de Computao, Fortaleza, 2012.
1. 2. 3. I. Prof. Dr. Carlos Eduardo Fisch de
Brito(Orient.) II. Universidade Federal do Cear Cincia da
Computao(Mestrado) III. Mestre
CDD:000.0
RESUMO
O desenvolvimento da rea de Inteligncia Articial (IA) trouxe grandes avanos
para a resoluo de problemas computacionalmente difceis. No entanto, a meta inicial da IA,
de implementao de uma inteligncia genuna de forma articial, ainda no foi alcanada. Por
isso, a grande maioria dos pesquisadores da rea mudou o foco de suas pesquisas para resoluo
de problemas, em geral abandonando a meta de uma inteligncia articial. Para continuar
perseguindo essa meta, outros pesquisadores passaram a questionar os princpios loscos
da IA e tomar novos rumos. Alguns deles perceberam que o processo da inteligncia no
puramente mental. De acordo com essa nova viso, o corpo tem um papel fundamental no
processo cognitivo. A partir desse ponto de vista, visando superar obstculos tradicionais da
IA, surgiu a IA Corporicada. Esta tem uma forte tendncia a implementao em robs, para
se desenvolver um melhor projeto sobre o corpo.
Porm, apesar de ter obtido avanos em relao a problema da IA tradicional, a IA
Corporicada comeou a apresentar suas prprias limitaes. Surgiu ento a ideia de que um
agente genuinamente inteligente deve formular seus prprios problemas a partir da percepo
da realidade, construda em termo do seus aparato sensrio-motor. Em outras palavras, a inteli-
gncia genuna est ligada autonomia do agente. A IA Enativa surgiu inuenciada por estudos
biolgicos a respeito da autonomia. Nessa rea da IA a meta construir um agente articial
autnomo.
Este trabalho relata a trajetria da IA desde a sua fundao, passando pela vertente
da IA Corporicada, e apontando um possvel novo paradigma da IA Enativa. Alm disso, ns
Analisamos e discutimos os processos que levaram pesquisadores a questionar o embasamento
losco da IA e a formular novos conceitos a respeito do que inteligncia.
Palavras-chave: Inteligncia Articial, Enao, IA Corporicada, Autonomia, Au-
topoiese.
ABSTRACT
The development in the Articial Intelligence (AI) eld brought great improvement
to the resolution of computationally hard problems. However, the early goal of AI, of imple-
menting a genuine intelligence in an articial way, was not achieved. Therefore most of the
elds researchers changed their researchs focus to problem resolution, quitting the goal of an
articial intelligence. To keep pursuing that goal others researchers started questioning the phi-
losophical principles of AI and they took new routes. Some of them realized that the process of
intelligence is not purely mental. According to this new view the body has a fundamental role
in the cognitive process. From this point of view, aiming to overcome traditional obstacles of
AI, the Embodied AI emerged. It has a strong tendency to implementation in robots, to develop
a better design of the body.
Despite having achieved improvements over the problem of traditional AI, Embo-
died AI started to present its own limitations. Then came the idea that a genuinely intelligent
agent must formulate its own problems from the perception of reality, constructed in terms of
their sensory-motor apparatus. In other words, the genuine intelligence is linked to the agents
autonomy. The Enactive AI appeared inuenced by biological studies about autonomy. In this
AI eld the goal is to build an autonomous articial agent.
This paper reports the trajectory of AI since its foundation, through strand of Em-
bodied AI, and pointing to a possible new paradigm of Enactive AI. In addition, we analyse
and discuss the processes that led researchers to question the philosophical basis of IA and
formulate new concepts about what intelligence is.
Keywords: Articial Intelligence, Enaction, Embodied AI, Autonomy, Autopoiesis.
LISTA DE FIGURAS
Figura 2.1 Pascaline . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Figura 2.2 Mquina de Leibniz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Figura 2.3 GPS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Figura 3.1 Mente-Corpo-Mundo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
Figura 3.2 Allen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Figura 3.3 Hebert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Figura 3.4 Genghis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Figura 3.5 Rob de Di Paolo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Figura 3.6 Fases do Experimento de Wood e Di Paolo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
SUMRIO
1 INTRODUO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1 O Conceito de inteligncia na IA Tradicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Mudanas de Paradigma na IA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3 Enao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4 Organizao do Trabalho . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2 DESENVOLVIMENTO E CRTICA DA INTELIGNCIA ARTIFICIAL. . . . 21
2.1 Herana losca da Inteligncia Articial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Incio da Inteligncia Articial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.1 Outros desenvolvimentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.2 Desenvolvimentos posteriores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3 A Inteligncia Articial moderna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4 Crtica da Inteligncia Articial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4.1 O Quarto Chins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4.2 Frame Problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.3 Symbol Grounding Problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3 INTELIGNCIA ARTIFICIAL CORPORIFICADA. . . . . . . . . . . . . . . . . . . . . . . . 35
3.1 Inteligncia sem representao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.1.1 Os Robs de Brooks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2 Cognio Corporicada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.3 Inteligncia Articial Corporicada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4 Experimentos em IA Corporicada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4.1 Di Paolo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4.2 Wood e Di Paolo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.3 Izquierdo e Harvey . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.4 Crtica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.5 Crticas IA Corporicada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4 INTELIGNCIA ARTIFICIAL ENATIVA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.1 Autopoiese: A forma de organizao dos seres vivos . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 Biologia da intencionalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.3 Adaptatividade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.4 Inteligncia Articial Enativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5 CONCLUSO E TRABALHOS FUTUROS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.1 Trabalhos futuros. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
REFERNCIAS BIBLIOGRFICAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
11
1 INTRODUO
O fenmeno da cognio o objeto de estudo de muitas reas do conhecimento
como a Cincia Cognitiva, a Filosoa, a Psicologia e a Inteligncia Articial. A Cincia Cog-
nitiva e parte da Filosoa tm a inteligncia como objeto de estudo em si mesma, no sentido de
que elas buscam encontrar uma explicao para o advento da cognio. Por outro lado, a Psico-
logia e a Inteligncia Articial buscam encontrar no entendimento da cognio a possibilidade
de entender o que essencial ao fenmeno, para a Psicologia, ou entender o funcionamento
do mesmo, para a Inteligncia Articial. Essa diversidade de pontos de vista sobre o mesmo
tema levou a elaborao de diferentes concepes sobre o que seja cognio ou inteligncia, e
no se pode dizer hoje em dia que exista um denio rigorosa e consensual para a noo de
inteligncia. Esse fato claramente ilustrado por Legg e Hutter(LEGG; HUTTER, 2007), que
reuniram um grande nmero de denies de inteligncia formuladas por pesquisadores de di-
versas reas. Um fato que chama a ateno que mesmo quando nos restringimos ao escopo da
inteligncia articial, no encontramos consenso. Pesquisadores diferentes colocam nfase em
aspectos diferentes do fenmeno da inteligncia. Por exemplo, Minsky identica como carac-
terstica essencial de um agente inteligente ... the ability to solve hard problems.
1
(MINSKY,
1988) apud (LEGG; HUTTER, 2007). J Goertzel destaca o ambiente em que o agente est
inserido ao dizer que o comportamento inteligente consiste em Achieving complex goals in
complex environments.
2
(GOERTZEL, 2006) apud (LEGG; HUTTER, 2007).
As diferenas entre as diversas concepes de inteligncia dentro da rea de Inteli-
gncia Articial (IA) se evidenciam na atual coexistncia de pelo menos trs vertentes distintas
de pesquisa. A primeira vertente, que chamaremos de IA Tradicional ou IA Simblica e Repre-
sentacionalista, est associada aos primeiros desenvolvimentos da rea e a vertente dominante
at hoje. Ela se caracteriza por armar que a inteligncia uma manifestao exclusiva da
mente, baseada na manipulao de representaes mentais da realidade. A segunda vertente
chamada de IA Corporicada
3
(Embodied Articial Intelligence), e surgiu em contraponto IA
Representacionalista. Seu ponto de vista baseado em uma srie de estudos que evidenciam o
papel fundamental do corpo no processo cognitivo(BATESON, 1979). A rea tem um carter
essencialmente experimental, tendo encontrado na robtica os elementos necessrios para a ins-
tanciao do corpo dos agentes articiais. A terceira vertente, chamada IA Enativa(FROESE;
ZIEMKE, 2009), ainda se encontra em seus primeiros desenvolvimentos e tem poucos trabalhos
prticos, mas se distingue da anterior por uma forte caracterizao conceitual. A IA Enativa re-
presenta um avano com relao IA Corporicada, ao exigir que o agente inteligente seja
capaz de gerar os seus objetivos a partir de uma perspectiva prpria sobre o mundo. A chave
para essa possibilidade estaria na ideia de que a identidade do agente precisa ser autonomamente
constituda.
importante observar que a perspectiva enativa introduz um novo elemento con-
1
... a habilidade de resolver problemas difceis.
2
Alcanar metas complexas em ambientes complexos.
3
O termo embodied, aplicado inteligncia articial, no possui uma traduo para o portugus amplamente
estabelecida. Neste trabalho, optamos por usar o termo inteligncia articial corporicada.
12
ceitual nas discusses sobre cognio e inteligncia articial. Ela oferece o diagnstico de que
a falta de autonomia dos seres articiais compromete a meta de se conseguir uma inteligncia
articial genuna. A autonomia no um conceito simples, tendo signicados especcos em
reas diferentes. Por exemplo, no contexto dos dispositivos que utilizam bateria, ela se refere ao
tempo de atividade do dispositivo sem a necessidade de se conectar rede eltrica. No contexto
da automao, o conceito de autonomia pode ser entendido como a capacidade que um meca-
nismo possui de realizar uma tarefa sem o auxlio de um ser humano. A noo de autonomia da
IA Enativa um pouco mais sutil, e diz respeito capacidade que um agente articial deve ter
de gerar seus prprios objetivos. Essa ideia parece paradoxal primeira vista: como que uma
mquina (computacional) cujo comportamento estritamente especicado em termo de regras
pr-denidas, pode gerar suas prprias regras e objetivos? Essa questo nunca foi colocada se-
riamente nas discusses da IA. Apesar da ideia de agentes inteligentes autnomos estar sempre
presente no imaginrio da rea, os projetos concretos da IA Tradicional sempre envolveram a
construo de artefatos que alcanam objetivos denidos pelos seus construtores.
1.1 O Conceito de inteligncia na IA Tradicional
Tradicionalmente, o conceito de inteligncia para a IA sempre esteve ligado ideia
de um agente ser capaz de resolver um problema. Alm disso, a alta capacidade humana de
resoluo de problemas foi adotada como meta, de modo que um agente articial deve ser
capaz de resolver problemas com uma habilidade comparvel de um ser humano para que
seja considerado inteligente. Por exemplo, um programa de xadrez que no consegue vencer
sequer uma criana no considerado inteligente. No entanto, essa impresso se modica se o
programa pode vencer um bom jogador.
No difcil programar um computador para resolver problemas matemticos ou
problemas relacionados a jogos de tabuleiro. O que esses problemas tm em comum o fato de
possurem uma denio formal e um escopo bem delimitado. No entanto, em princpio, a IA
se prope a resolver problemas de todo tipo, baseada na observao de que a inteligncia uma
faculdade genrica. A diculdade em viabilizar esse projeto est no fato de que a maior parte
dos problemas resolvidos por um ser humano cotidianamente no possui uma especicao
explcita. Por exemplo, uma pessoa que acorda e deseja car pronto para sair para ir ao trabalho,
note que no existe uma maneira nica de se fazer isso, nem tampouco uma s soluo. Para
que esses problemas possam ser resolvidos por um computador, eles precisam passar por um
processo de formalizao.
O primeiro passo no processo de formalizao consiste em abstrair do problema
todos os seus aspectos irrelevantes do ponto de vista computacional. O resultado desse passo
a identicao de um conjunto de propriedades que permitem descrever o problema em termos
de um objetivo a ser alcanado pela execuo de aes bem denidas que modicam o estado do
mundo. Uma vez formalizado, o problema pode ser representado na forma de uma estrutura de
dados adequada para a manipulao por um computador, e a sua soluo pode ser encontrada
pela execuo de um algoritmo. Continuando o exemplo acima, imagine algum que deseje
ir de casa para o trabalho, o primeiro passo para o computador resolver este problema seria
13
colocar uma restrio do tipo "utilizando o caminho mais curto", para se denir qual das vrias
solues deve ser buscada. Em seguida preciso modelar as ruas atravs de um grafo, deve-se
tambm estabelecer as regras para "caminhar"nesse grafo e os pontos inicial e nal.
Uma observao importante a ser feita nesse momento que, na IA Tradicional,
o processo de formalizao no considerado como uma parte da resoluo do problema, no
sentido de que ele apenas captura o que essencial em uma dada situao, e transforma um pro-
blema real em um problema tratvel pelo computador. Mais precisamente, a IA Tradicional se
baseia no pressuposto de que a inteligncia pode ser reduzida resoluo de um ncleo lgico
do problema. McCarthy ilustra bem esse ponto, ao denir inteligncia da seguinte maneira: In-
telligence is the computational part of the ability to achieve goals in the world.
4
(MCCARTHY,
2007) apud (LEGG; HUTTER, 2007).
Esse esquema de formalizao de problemas e codicao da sua soluo na forma
de um algoritmo foi responsvel por um grande nmero de sucessos nos primeiros anos da
IA
5
. No entanto, quando examinado mais de perto, esse esquema no parece oferecer uma
estratgia satisfatria para o projeto da IA, pois o computador no participa da denio do
problema e nem tampouco da elaborao do algoritmo. Um mecanismo que se limita a realizar
operaes combinatrias predenidas pelo programador sobre estruturas de dados desprovidas
de signicado, dicilmente poderia ser considerado como algo inteligente.
Alguns avanos posteriores da IA reduzem um pouco o impacto dessa crtica, ao
permitirem que certos aspectos da denio do problema, e da sua soluo, no sejam pre-
viamente especicados pelo programador. Por exemplo, a rea de meta-heursticas investiga
mtodos para a soluo de problemas de otimizao atravs de procedimentos iterativos, com
base em uma funo de avaliao. O aspecto relevante aqui que esses mtodos no utilizam
nenhuma informao estrutural do problema que est sendo resolvido, e podem ser aplicados a
uma larga classe de problemas. Outro exemplo importante fornecido pela rea de aprendizado
automtico. Nas tcnicas de aprendizado por reforo o computador no possui uma descrio
explcita do objetivo que deve ser alcanado, e deve aprimorar a qualidade da soluo que ele
tem no momento atravs de um processo de tentativa e erro utilizando as aes que ele tem
sua disposio. Essas ideias esto presentes na seguinte denio de inteligncia formulada por
Nakashima:
Intelligence is the ability to process information properly in a complex environ-
ment. The criteria of properness are not predened and hence not available befo-
rehand. They are acquired as a result of the information processing.
6
(NAKASHIMA,
1999) apud (LEGG; HUTTER, 2007)
Como o ser humano a referncia de inteligncia utilizada pela IA Tradicional, uma
outra maneira de avaliar o sucesso do projeto de implementar uma inteligncia articial seria
4
Inteligncia a parte computacional da habilidade de atingir metas no mundo.
5
Como mostraremos no Captulo 2
6
Inteligncia a habilidade de processar informao corretamente em um ambiente complexo. Os critrios de
correo no so pr-denidos e portanto no esto disponveis antecipadamente. Eles so adquiridos como um
resultado do processamento de informao.
14
comparar os modos pelos quais os seres humanos e o computador resolvem problemas. O ser
humano plenamente capaz de lidar com a novidade, sendo capaz de resolver um problema que
nunca foi encontrado antes com base na sua experincia passada. J o computador s consegue
lidar com a novidade se ela tiver sido antecipada pelo programador. Por exemplo, considere o
jogo de xadrez e um computador programado para jog-lo. Tanto o ser humano quanto o com-
putador em questo so capazes de jogar xadrez. Agora imagine que se quer jogar uma variante
do xadrez onde o peo s se move no sentido diagonal. O ser humano plenamente capaz de
aprender a jogar esse novo jogo. O computador, por sua vez, deve ser reprogramado para poder
jogar. Mas, podemos imaginar um programa em que as regras sobre a movimentao das peas
sejam um dos parmetros do programa. Esse programa conseguiria jogar as variantes do xa-
drez que utilizam o mesmo conjunto peas. No entanto, se for introduzida uma pea nova, este
computador tambm ter que ser reprogramado. Se pensarmos em sucessivas modicaes no
jogo, podemos perceber que no h limite para as possibilidades do computador, contanto que
ele sempre seja previamente programado. Qualquer modicao no antecipada requer uma
reprogramao. Ou seja, em princpio, no h limite para a variedade de comportamentos que
um programa de computador pode apresentar. Mas, uma vez que o programa esteja denido,
ele no pode adquirir um novo comportamento. Essa caracterstica de determinao prvia,
que intrnseca aos programas de computador, chamada de anterioridade. Essa propriedade
problemtica, pois ela estabelece um limite fundamental para a capacidade de resoluo de
problemas de qualquer programa. Se todas as possibilidades de ao do programa precisam ser
especicadas a priori, ento sempre haver um limite para elas, e em face de um fato impre-
visto o problema no ser resolvido. Esse limite parece no existir para os seres humanos, que
aparentam estar sempre aptos para lidar com o novo e o desconhecido.
O problema da anterioridade surge como resultado do processo de formalizao. Ao
identicar os aspectos do problema que so relevantes para a sua soluo, a formalizao acaba
deixando de lado tudo o que no est diretamente ligado resoluo do problema. Ou seja, em
umcerto sentido, todas as possibilidades de ao para a resoluo do problema j esto presentes
no ato de formalizao. Podemos notar que a formalizao envolve um processo de escolha
entre as vrias solues possveis para umproblema. Oque ca claro a partir dessas observaes
que a tarefa de formalizao de um problema tambm, ela prpria, um problema que precisa
ser resolvido. No esquema da IA Tradicional, essa tarefa sempre realizada por um ser humano.
Isso signica que o computador implementa apenas uma etapa do processo de resoluo de
problemas. De fato, a etapa menos nobre: a manipulao mecnica de smbolos. Nesse sentido,
os programas da IA Tradicional devem ser considerados como meros instrumentos acessrios
dos seres humanos na sua atividade inteligente de resoluo de problemas.
importante observar que essa situao no se modica de maneira essencial com
os desenvolvimentos posteriores da IA mencionados acima. Podemos enxergar nas tcnicas de
meta-heurstica, aprendizado automtico e outras, uma tentativa de eliminar, ou pelo menos di-
minuir, o problema da anterioridade. No entanto, tudo o que se consegue com esses movimentos
apenas mudar a diculdade de lugar. Em todos esses casos, temos algoritmos especicados
em um nvel de abstrao mais alto, onde certos aspectos dos problemas que so resolvidos no
aparecem explicitamente, mas que utilizam critrios de qualidade ou sucesso especicados pelo
programador ou usurio do programa.
15
A questo que permanece ento se possvel remover a anterioridade de fato. A
nica soluo possvel parece consistir em fazer com que o prprio computador identique o
que relevante em uma dada situao. Alguns pesquisadores sugeriram que o corpo deve ter
um papel crucial nessa tarefa, uma vez que ele o elemento mediador entre o agente e a reali-
dade. So as caractersticas fsicas e sensoriais do corpo que determinam as possibilidades de
ao do agente, e seria atravs de um processo de experimentao e avaliao que ele desco-
briria os meios para chegar a soluo do problema. Essas observaes levaram a investigao
para o campo da robtica, onde possvel realizar experimentos com sistemas computacionais
concretos (robs) que interagem com o ambiente atravs de sensores e motores.
1.2 Mudanas de Paradigma na IA
Se nos distanciarmos um pouco do movimento feito pela IA, podemos ter uma vi-
so mais ampla dos caminhos que a rea seguiu e enxergar mudanas mais profundas ao longo
do seu desenvolvimento. Tais mudanas se deram quando parte dos pesquisadores da rea se
voltaram para outro paradigma de inteligncia, iniciando uma nova vertente da IA. Apesar de
apresentarmos agora essas mudanas de forma breve, elas foram fruto do prprio desenvolvi-
mento de cada vertente que as antecedem. A discusso detalhada desse desenvolvimento o
que constitui o corpo deste trabalho.
No incio, a IA era baseada no paradigma de que inteligncia igual a resoluo de
problemas formalizados. Como vimos, a formalizao um processo que reduz o problema a
seu ncleo lgico, retirando o problema do seu contexto. No m do processo de formalizao,
o que resta so smbolos e regras para a manipulao desses smbolos, representado pelas aes
e seus pr-requisitos. A IA Tradicional, ou IA Simblica, deu origem IA Corporicada. O
paradigma da IA Corporicada que o corpo tem um papel importante no processo cognitivo.
A ideia de que inteligncia resoluo de problemas ainda bastante presente na IA Corpo-
ricada. Porm, traando um paralelo com a IA simblica, os problemas da IA Corporicada
no so formalizados, no sentido de que o agente da IA Corporicada deve ser capaz de captar
no seu ambiente a "congurao" do mundo em que se encontra, tambm de identicar se as
pr-condies para a execuo de suas aes so satisfeitas. O objetivo, todavia, ainda ide-
alizado pelo seu construtor. J para a IA Enativa, o agente genuinamente inteligente deve ser
capaz de gerar seus prprios objetivos. Apesar de caracterizarmos a IA Enativa como vertente
distinta da IA Corporicada, o pouco tempo desde que ela surgiu no nos permite armar se
ir se conrmar essa distino. Atualmente todas as trs subreas da IA esto ativamente sendo
pesquisadas e discutidas entre seus pesquisadores. Podemos dizer que o que distingue as trs
sua interpretao do que inteligncia e como ela se manifesta.
O estabelecimento da IA simblica se deu a partir da dcada de 1950, quando
Minsky e McCarthy organizaram a conferncia de Dartmouth de 1956, ao perceber que outros
pesquisadores tambm estavam utilizando o computador na tentativa de automatizar as capaci-
dades cognitivas. Apesar do esforo de organizao da rea, somente mais tarde, na dcada de
1970, surgiu uma teoria abrangente da IA Simblica, quando Newell e Simon propuseram uma
hiptese forte a respeito da cognio. A Hiptese do Sistema Simblico Fsico, sobre a qual
16
discutiremos na Seo 2.2, diz que um sistema simblico fsico possui os meios necessrios e
sucientes para a ao inteligente(NEWELL; SIMON, 1976). Segundo essa hiptese, ns dis-
pomos de um sistema simblico interno que responsvel pela nossa capacidade cognitiva. Na
cincia cognitiva, essa hiptese serviu de base para o estabelecimento do chamado paradigma
computacional. A aceitao da hiptese de Newell e Simon fora da computao teve impacto
na IA, reforando a ideia de que a rea seguia o rumo correto, mesmo tendo recebido crticas,
das quais falaremos a seguir.
A demora para o surgimento de uma teoria da IA Simblica foi efeito de uma rea
que sempre se caracterizou por ser pragmtica. A ideia geral era que se era possvel reproduzir
o fenmeno da inteligncia no computador, ento o estabelecimento de teorias pode car em
segundo plano. Porm, importantes limitaes se apresentaram aos avanos da rea. Como a
diculdade de resolver verses maiores de problemas cujas verses menores eram facilmente
resolvidas, como o problema da torre de hanoi, por exemplo. O crescimento exponencial da
diculdade de resoluo dos problemas, em relao ao tamanho da entrada, foi uma das limi-
taes que se apresentou como empecilho para a IA. Esse tipo de limitao ganhou um reforo
terico com o surgimento da Teoria da Complexidade. Outro tipo de problema que se apre-
sentou como difcil para a IA foram os relacionados com linguagem natural. Alguns lsofos,
como Searle, armaram a impossibilidade de entendimento de linguagem natural por parte de
um computador, como discutiremos em detalhes na Seo 2.4.1. Todas essas limitaes e argu-
mentos a respeito de impossibilidades para a IA zeram com que alguns pesquisadores da IA
se voltassem para discusses tericas sobre o embasamento da rea.
No incio da IA, alguns lsofos acusavam os pesquisadores da rea de estarem
refazendo o que a losoa j havia feito, isto , de no aproveitarem a discusso losca j
existente a respeito da inteligncia. Porm, a discusso de inteligncia na losoa, apesar de
estar relacionada com a IA, est em outro nvel, no sentido de que aborda aspectos diferentes
da inteligncia, e no tem, em princpio, implicao direta na IA. Por exemplo, Dreyfus faz
sua crtica IA (DREYFUS, 1975) com base na losoa de Heidegger, mas o texto original do
autor alemo, no trata especicamente da noo de inteligncia. Portanto, era natural que os
pesquisadores da IA no enxergassem na discusso losca, que foram acusados de ignorar,
uma relao com os seus projetos. Depois de certo tempo, as crticas loscas aumentaram
e alguns dos prprios cientistas da IA passaram a consider-las, a m de compreender melhor
as barreiras que impediam o desenvolvimento da IA. Nesse ponto, o conceito de representao,
que uma noo fundamental para a IA Simblica, foi apontado como o grande empecilho para
o desenvolvimento de uma inteligncia genuna.
Das discusses a respeito da representao surge uma nova vertente de IA, chamada
de IA Corporicada. A IA Corporicada inicia como uma oposio ao aspectos representacio-
nalista da IA Simblica. O corpo passa a ser entendido como parte do processo cognitivo, da
o nome IA Corporicada. A inteligncia no mais entendida como um processo que acontece
isoladamente no crebro, mas que acontece de forma paralela no corpo todo. Dessa forma, a
meta de inteligncia da IA Corporicada tambm diferente, no sentido de que, em princpio,
no se busca a inteligncia humana como meta, mas a inteligncia de um animal. Este passa a
ser considerado tambm como referncia de inteligncia.
17
Com uma ideia de cognio descentralizada, essa rea da IA aproxima a percepo
da ao, atravs da interao direta entre sensores e motores. Dessa forma o agente entra em
contato direto com o mundo. Como Brooks arma It turns out to be better to use the world
as its own model.
7
(BROOKS, 1991), ao invs de um modelo mental. Brooks toma como
referncia a teoria da evoluo e diz que a natureza demorou muito mais tempo para evoluir
at seres da complexidade de insetos, do que desse nvel at seres humanos. Brooks pretende,
ento, atravs de um projeto incremental de inteligncia, perseguir a meta da inteligncia no
nvel de um inseto, para da chegar ao nvel dos seres humanos.
As implementaes de IA Corporicada so preferencialmente feitas com robs, ou
simulao de robs. Por estarem embutidos no mundo, os robs superam algumas diculda-
des da IA Tradicional. Por exemplo, na IA Simblica o desenvolvedor deveria denir o nvel
de detalhamento e os aspectos relevantes do mundo para resolver o problema, atravs da for-
malizao. Como na IA Corporicada no h representao, todos os nveis de detalhes, em
princpio, esto disponveis para o agente, limitados pela capacidade de seus sensores. Mesmo
em uma simulao implementada de acordo com a IA Corporicada, os robs so implementa-
dos com sensores, que so a nica forma de eles adquirirem informaes sobre seu ambiente.
Nesse caso, precisamos ser cautelosos para no confundirmos a representao que a simulao
em si , com uma possvel representao que o agente simulado teria do seu mundo. Uma simu-
lao em um computador , sem dvidas, uma representao daquilo que simulado. Porm,
um agente corporicado simulado no necessariamente programado para ter acesso a todas
as informaes do seu ambiente, ele somente percebe os aspectos do ambiente com os quais
seus sensores entraram em contato. Por exemplo, considere uma simulao de um agente que
deve aprender a cruzar um labirinto. Todas as informaes a respeito do labirinto fazem parte
da simulao, mas o agente no tem acesso a elas, ou seja, ele no pode consultar o mapa do
labirinto e fazer clculos em cima dele. O agente s tem acesso ao que est diretamente em
contato com seus sensores, e ter que utilizar seus motores para modicar as posies dos seu
sensores, a m de conseguir mais informaes a respeito do seu ambiente.
A IA Corporicada surgiu como uma tentativa de superar as barreiras da IA Simb-
lica. Note que o problema da anterioridade, na forma que estava presente na IA Simblica, no
existe na IA Corporicada. Isto , o problema que surge ao se tentar antecipar todas as possibi-
lidades que o agente venha a se deparar, no est presente em um agente que tem acesso direto
ao mundo, sem utilizar representaes. Ele deve ser capaz de aprender a lidar com as variaes
do problema a medida que elas surgem. Podemos perceber a anterioridade como um limitante
s possibilidades do agente da IA. Ao tentar retirar anterioridade, tentamos dar mais "liber-
dade" ao agente. Note que estabelecer um problema para o agente resolver , de certa forma,
limit-lo. Ou seja, estabelecer sua nalidade, e constru-lo com um propsito pr-determinado,
ainda caracteriza a presena da anterioridade. Todo o projeto do rob, desde aspectos fsicos at
aspectos lgicos so pensados com o intuito de resolver um problema. Ao fazer isso, estamos
ainda antecipando o comportamento do agente.
A soluo para o problema da anterioridade na IA Corporicada seria produzir um
agente completamente autnomo, capaz de gerar suas prprias metas. Com esse intuito surge
7
Acontece que melhor usar o mundo como seu prprio modelo.
18
a vertente da IA Enativa. Antes de o conceito de enao chegar a IA, ele j existia no contexto
da Cincia Cognitiva. Varela, Thompson e Rosch (VARELA; THOMPSON; ROSCH, 1992)
puseram a pedra fundamental desse ramo da Cincia Cognitiva. Por se tratar de uma rea
recente, ainda no possvel armar com clareza se a IA Enativa constitui uma vertente por
si s, que estabelecer um novo paradigma, ou se uma subrea da IA Corporicada. Nesse
trabalho ns tratamos como reas distintas, pelo fato de a IA Enativa possuir uma caracterstica
bem distinta da IA Corporicada, conceitualmente falando.
1.3 Enao
O paradigma da enao est fundamentado sobre a ideia de que mesmo o nvel
mais simples de cognio s pode se manifestar em um agente autnomo. A Teoria da Enao
se sustenta sobre a teoria biolgica da autopoiese. De acordo com essa teoria, um ser vivo ca-
racterizado por estar em constante processo de autoproduo. A autoproduo o procedimento
atravs do qual as partes do ser vivo produzem umas s outras em uma rede interdependente.
Ao produzirem uma as outras, as partes delimitam o que faz parte do organismo e o que no
faz. Assim, a autoproduo constante do ser vivo garante uma identidade ao mesmo. Note que
o processo de autoproduo executado pelo ser vivo e tem como produto o prprio ser vivo.
Podemos dizer que esse processo possui em si mesmo o propsito intrnseco de continuidade da
autoproduo. Outro modo de falar sobre esse propsito dizer que o ser vivo tem o propsito
de continuar vivo. A gerao intrnseca de um propsito caracteriza o ser vivo como um agente
que segue suas prprias leis, ou seja, que autnomo. A partir do propsito de manuteno
da autoproduo e da diferenciao entre dentro e fora do organismo vivo, o ser vivo gera uma
perspectiva que lhe permite avaliar suas interaes com seu meio. Isto , uma interao com
o meio pode ser julgada como boa ou ruim para a auto-manuteno. Essa capacidade de dife-
renciar as interaes a partir de um critrio, podemos chamar de cognio no seu modo mais
simples.
Um aspecto importante do ponto de vista da enao a percepo de que o mundo
se apresenta para cada indivduo de forma diferente, dependendo do seu aparato sensrio-motor.
Dessa forma, indivduos com aparatos sensoriais parecidos, como dois representantes de uma
mesma espcie, percebem o mundo de forma similar. Por outro lado, um indivduo com viso
percebe o mundo de forma diferente de outro que no tenha essa capacidade. Por exemplo, dois
seres humanos, em geral, possuem o mesmo espectro de percepo de cores, j o co possui
um espectro mais limitado, por possuir um aparato sensorial diferente. O aparato motor do
indivduo determina a forma como ele pode agir no seu meio. Da mesma forma que acontece
com o aparato sensorial, indivduos com aparatos motores semelhantes podem agir no mundo
de maneiras semelhantes. A separao dos aparatos sensorial e motor s feita aqui para
ns de explicao, na realidade os dois inuenciam tanto na percepo como na ao. Esse
entendimento do papel do aparato sensrio-motor na determinao do lao percepo-ao j
se encontrava na IA Corporicada.
Voltando ideia do ser autnomo capaz de julgar suas interaes com o meio, o
modo como ele interage com o meio determina a relevncia de aspectos externos a ele na rea-
19
lizao de seus objetivos. Assim, podemos perceber que apesar de o meio poder ser o mesmo,
para indivduos autnomos diferentes, ele se apresenta de formas diferentes. Por isso, dizemos
que o ser autnomo constri sua prpria percepo de mundo. A percepo de mundo cons-
truda pelo agente autnomo subjetiva, no sentido de que cada aspecto depende do contexto
em que o agente se encontrava no momento de sua interao. Assim, a percepo construda
pelo agente autnomo no uma representao da realidade objetiva.
Na IA, o paradigma da Enao coloca a questo da construo da percepo como
central na sntese de um agente articial inteligente. Como essa percepo no pode ser cons-
truda de fora do agente, pelo seu projetista por exemplo, o agente deve ser projetado de modo
a ter condies de realizar tal construo da percepo. Portanto, a IA Enativa se volta para a
questo de como produzir um agente autnomo, capaz de ter uma percepo de mundo prpria
e, desse modo, gerar tambm seus prprios objetivos. Para tanto nos voltamos para a discusso
a respeito de autonomia em seres vivos, feita por Varela em (VARELA, 1991). Mas primeiro,
precisamos discutir teoria da autopoiese, de Maturana e Varela, que caracteriza o ser vivo como
um ser que se autoproduz. Essa discusso ser aprofundada no Captulo 4
1.4 Organizao do Trabalho
O presente trabalho se prope a apresentar e a discutir as modicaes sofridas pela
IA no seu rumo a rea da Inteligncia Articial Enativa. Para tanto, iniciaremos discutindo a
rea da Inteligncia Articial, como foi concebida, no Captulo 2, onde apresentaremos os fun-
damentos loscos e matemticos que ajudaram a formar a rea na Seo 2.1. Em seguida,
na Seo 2.2, mostraremos o surgimento da rea propriamente dita e seus primeiros desenvol-
vimentos. Posteriormente, na Seo 2.3, apresentaremos a mudana ocorrida na IA tradicional
e como ela se encontra nos dias de hoje. Finalizando o captulo, discutiremos as crticas feitas
rea na Seo 2.4.
No Captulo 3, apresentaremos a vertente de IA denominada IA Corporicada. Ini-
cialmente, faremos uma discusso a respeito de como a IA Corporicada surge para contrapor
pontos da IA tradicional que dicultam a produo de inteligncia genuna em seres articiais
baseados em computador. Na Seo 3.1, mostraremos como Brooks iniciou a rea com suas
ideias de fazer IA sem representao. J na Seo 3.2, abordamos como as ideias de corpori-
cao da inteligncia inuenciou a Cincia Cognitiva, e como isso inuenciou de volta a IA.
A IA Corporicada ser aprofundada na Seo 3.3, com alguns de seus trabalhos discutidos na
Seo 3.4. Finalmente, apresentaremos as crticas IA Corporicada na Seo 3.5.
No Captulo 4, discutiremos as propostas que surgiram para superar as crticas IA
Corporicada e como isso nos leva ao estudo de teorias da biologia. Na Seo 4.1 apresenta-
remos a teoria da autopoiese. Mostraremos algumas de suas implicaes loscas, discutidas
pelos prprios autores da teoria, na Seo 4.2. Na Seo 4.3 veremos a viso de Di Paolo a
respeito das consequncias da autopoiese, apresentando mais uma caracterstica dos seres vivos
que ele considera essencial para cognio: adaptatividade. Finalmente, na Seo 4.4 discutire-
mos a respeito de todos esses conceitos que envolvem o paradigma da Enao no contexto da
20
Inteligncia Articial. No Captulo 5 faremos as concluses do trabalho e falaremos a respeito
dos trabalhos futuros.
21
2 DESENVOLVIMENTO E CRTICA DA INTELIGNCIA ARTIFICIAL
A Inteligncia Articial, tradicionalmente, se fundamenta no pressuposto de que
possvel compreender o mundo dividindo-o em partes e representando-as atravs de um sistema
de smbolos. Segundo essa viso, ns pensamos atravs de uma representao do mundo. Ou
seja, ns teramos, dentro da nossa mente, representaes dos fatos do mundo que manipula-
mos e sobre as quais raciocinamos. O raciocnio apenas a manipulao de regras sobre as
representaes que fazemos do mundo. Apreender essas regras tem sido o objetivo dos cientis-
tas da IA, que pretendem em seguida implement-las em uma mquina. As representaes do
mundo, juntamente com as regras do raciocnio, fariam da mquina uma entidade inteligente.
Ela estaria preparada para agir nas situaes em que j dispusesse das devidas representaes.
Nesse captulo, apresentaremos as bases de pensamento que geraram os pressupos-
tos assumidos pela IA, na Seo 2.1. Na Seo 2.2, falaremos do surgimento da IA como rea
independente, seus desenvolvimentos, suas diculdades e a mudana de metas de alguns cien-
tistas da IA. Na Seo 2.3, mostraremos os desdobramentos dessa mudana nas metas da IA.
Finalmente, na Seo 2.4, apresentaremos as principais crticas feitas ao projeto da Inteligncia
Articial.
2.1 Herana losca da Inteligncia Articial
Russell e Norvig(RUSSELL; NORVIG, 2010) fazem um resumo da histria da IA
comeando por Aristteles, que em seu Organon publicou as primeiras ideias sobre a lgica,
ainda de maneira informal, e que foram a base para a atual rea de lgica. Ele tambm estava
procurando identicar as regras bsicas para o raciocnio. Muito tempo depois veio Thomas
Hobbes, que em 1651 no livro Leviat sugeriu a possibilidade de um animal articial, mec-
nico. Hobbes acreditava que todo raciocnio apenas computao numrica. Nessa poca,
Blaise Pascal j havia construdo a famosa Pascaline (Figura 2.1), uma mquina de calcular ca-
paz de realizar as operaes de adio e subtrao. At ento muitos acreditavam que o clculo
era uma faculdade exclusiva do pensamento humano, e que, portanto, somente seres inteligen-
tes eram capazes de calcular. Isso fez com que Pascal imaginasse que sua mquina estava mais
Figura 2.1: Mquina da Calcular Produzida por Pascal.
Fonte: http://en.wikipedia.org/wiki/File:Pascaline_calculator_front.png
22
Figura 2.2: Mquina da Calcular Produzida por Leibniz.
Fonte: http://history-computer.com/MechanicalCalculators/Pioneers/Lebniz.html
prxima do pensamento do que um animal. Depois, Gottfried Leibniz construiu outra calcula-
dora mecnica (Figura 2.2), esta capaz tambm de multiplicar, dividir e obter razes. Diversos
aspectos do raciocnio estavam sendo reproduzidos em mquinas, o que j levava a crer que
seria possvel fazer o mesmo com a inteligncia.
Russell e Norvig(RUSSELL; NORVIG, 2010) continuam, explicando que Ren
Descartes fez uma das primeiras discusses loscas sobre mente e matria, distinguindo as
duas. Descartes desenvolve sua losoa ortogonalmente tendncia das mquinas de calcular.
Descartes arma que as coisas (res) mentais tm uma natureza distinta das coisas fsicas. Para
Descartes as coisas fsicas esto fadadas ao determinismo, por estarem sujeitas s leis da Fsica.
Mas, para ele, colocar a mente na mesma condio tiraria o seu livre arbtrio. Por isso Descartes
separa a coisa fsica (res extensa) da coisa mental ou pensante (res cogitans). Assim, o sujeito
constitudo de duas partes de natureza distinta: uma pensante e outra fsica. Essa teoria, de que
a nossa essncia est na mente e que o nosso corpo somente uma ferramenta que usamos para
interagir com o mundo, se tornou a viso dominante e natural na sociedade ocidental. Assim,
ela tambm serviu de base para a IA formular seus pressupostos de que os aspectos fsicos do
mundo so representados na parte pensante do ser.
Finalmente, no sculo 20, surgiu a teoria da computao, um modelo terico de
mquina programvel capaz de computar funes que no estavam predeterminadas, funes
arbitrrias. A possibilidade de programar uma mquina deu mais fora s ideias de Hobbes,
que j estavam imersas na cultura popular atravs da co cientca (BUCHANAN, 2005). A
capacidade matemtica da mquina programvel remetia ideia de que a mesma era inteligente,
ou seja, tinha uma capacidade mental compatvel com o ser humano, e assim poderia executar
tarefas compatveis com o intelecto humano. S seria necessrio, ento, representar o mundo
dentro da mquina, como se acreditava acontecer com os seres humanos. Essa comparao
com a inteligncia humana fez crescer a crena de que os seres humanos pensam como os
computadores, ou seja, atravs de clculos, o que mais tarde fez surgir a hiptese de que um
23
sistema simblico suciente para se obter inteligncia, da qual falaremos na Seo 2.2.
2.2 Incio da Inteligncia Articial
A conferncia de Dartmouth em 1956, organizada por Marvin Minsky e John Mc-
Carthy, tida como o marco que simboliza o incio da rea de Inteligncia Articial. De fato, a
que o nome da rea foi cunhado por McCarthy(CREVIER, 1993)(MCCARTHY et al., acessado
em 2012). Os dois cientistas tiveram a ideia de reunir pesquisadores que estivessem estudando
o desenvolvimento de tarefas inteligentes pelo computador. Estavam presentes cientistas que se
tornaram proeminentes pesquisadores da rea nas suas primeiras dcadas, como Ray Solomo-
noff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell e Herbert Simon. Con-
forme podemos observar em (MCCARTHY et al., acessado em 2012), o otimismo era grande
e perceptvel em armaes como The study is to proceed on the basis of the conjecture that
every aspect of learning or any other feature of intelligence can in principle be so precisely
described that a machine can be made to simulate it.
1
A proposta era que fossem discutidos
na conferncia temas como a simulao de funes cerebrais, o uso de linguagem pelo com-
putador, redes neurais, e a teoria da complexidade de funes. Esse ltimo tema tinha como
foco lidar com funes exponenciais. Ainda, entre os temas, estavam o autoaperfeioamento
das mquinas, a classicao de abstraes, aleatoriedade e criatividade.
Na poca da conferncia, Newell e Simon j trabalhavam em um programa de prova
automtica de teoremas, o Logic Theorist, que pouco depois j era capaz de provar a maioria
dos teoremas do segundo captulo do Principia Mathematica de Bertrand Russell e Alfred Whi-
tehead. O programa foi implementado na primeira linguagem de programao desenvolvida
para a IA, a IPL (Information Processing Language) que utilizava os mesmos princpios de
Lisp. Mais tarde, Newell e Simon desenvolveram um outro programa, que seguiria protocolos
humanos para a resoluo de problemas, o General Problem Solver (GPS). O GPS talvez te-
nha sido o primeiro programa explicitamente construdo com o intuito de pensar como os seres
humanos. O GPS deveria resolver qualquer problema formalizado simbolicamente, tendo con-
seguido resolver problemas como a torre de Hanoi, mas esbarrando na exploso combinatria
dos problemas.
A gura 2.3 mostra um diagrama de estados do GPS. Seu funcionamento em alto
nvel relativamente simples. Ele avalia a distncia em que se encontra do seu objetivo. Se
ele ainda no tiver atingido o seu objetivo, ele encontra um meio de reduzir a distncia at o
seu objetivo. Ento, verica se ele tem as condies necessrias para utilizar esse meio. Se
no tiver, resolve esse problema com uma chamada recursiva do GPS. Uma vez que ele tem as
condies para utilizar o meio, o faz e retorna para o ponto inicial, onde verica se chegou ao
seu objetivo.
O sucesso do GPS fez com que os autores, em 1976, formulassem a Hiptese do
Sistema Simblico Fsico (Physical Symbol System Hypothesis), que diz a physical symbol
1
O estudo se dar com base na conjectura de que todo aspecto do aprendizado, ou qualquer outra caracterstica
da inteligncia, pode, em princpio, ser to precisamente descrito que uma mquina pode ser construda para
simul-lo.
24
Figura 2.3: Diagrama de estados do GPS
system has the necessary and sufcient means for general intelligent action
2
(RUSSELL;
NORVIG, 2010)(NEWELL; SIMON, 1976). Se essa hiptese for verdadeira, isso signica
que o crebro tem a mesma estrutura lgica do computador e que ele tambm seria um sistema
simblico fsico. Apesar de muitas crticas, como mostraremos na Seo 2.4, essa hiptese se
tornou o fundamento conceitual para o desenvolvimento da IA da poca. A hiptese tambm
fez com que essa vertente da IA casse conhecida como IA Simblica.
2.2.1 Outros desenvolvimentos
Desde 1952 Arthur Samuel j vinha trabalhando em um programa para o jogo de
damas, que conseguia jogar melhor que o seu criador usando heursticas. O programa chegou
a ser apresentado em um programa de televiso em 1956, causando uma forte impresso na
populao americana. Em 1957 H. Simon armou que dentro de dez anos um computador se-
ria capaz de vencer um grande mestre de xadrez
3
. No difcil ver que os jogos de tabuleiro
constituem uma boa classe de problemas para a IA simblica, j que, normalmente, eles tm
regras bem denidas e possuem um escopo limitado. Uma estratgia simples para um jogador
automtico consiste em vericar todas as possveis implicaes futuras de um determinado mo-
vimento. Isso pode ser feito atravs da aplicao das regras do jogo. Por exemplo, no xadrez,
o computador calcula os possveis movimentos do adversrio se ele prprio, computador, -
zer determinado movimento. Se em todos os cenrios, ou a maioria, o computador sofrer uma
2
Um sistema simblico fsico dispe dos meios necessrios e sucientes para ao inteligente.
3
Levou cerca de 40 anos para que ocorresse.
25
derrota, ele descarta aquela jogada como possvel. Porm, as possibilidades crescem exponen-
cialmente, o que limita a previso do computador. Os jogos eletrnicos modernos normalmente
utilizam tcnicas de IA para interagir com os jogadores.
Em 1958, John McCarthy publicou sua linguagem de programao Lisp, que domi-
nou a IA nos 30 anos subsequentes. Na poca, a linguagem dominante era o Fortran. McCarthy
inovou com o Lisp ao introduzir a estrutura condicional if-then-else, em Fortran s havia con-
dicionais com goto. O uso de funes em Fortran era obscuro, muito mais parecido com um
condicional. Em Lisp as funes tinham uma representao literal, cando separadas do c-
digo principal e tornando o cdigo mais claro. Alm disso, Lisp foi a primeira linguagem a
implementar a recurso. Em resumo, o Lisp modicou radicalmente a maneira de se progra-
mar computadores e por isso se tornou to popular e ainda hoje utilizada, inclusive dentro de
programas que no tem relao direta com programao, como programas de desenho assistido
por computador, por exemplo.
Ainda em 1958, McCarthy lanou um artigo no qual descrevia um programa hi-
pottico, chamado Advice Taker, que seria um sistema completo de inteligncia articial. O
programa usaria o clculo de predicados para derivar concluses a partir de uma lista de pre-
missas. Dessa vez ele no deveria chegar somente s concluses matemticas ou da prpria
lgica, como o Logic Theorist, mas acerca de qualquer assunto.
Enquanto isso, outros cientistas trabalhavam para que a inteligncia computacional
avanasse em outras direes. Um exemplo o trabalho de Terry Winograd Blocks World, que
consiste em um pequeno mundo virtual formado de blocos sobre uma mesa, que podem ser
movidos atravs de um vocabulrio limitado de comandos em linguagem natural. O objetivo
original de Winograd era o estudo da linguagem natural. Mas, o seu programa permitiu a outros
pesquisadores elaborarem estudos a respeito de viso e aprendizado. Outros exemplos de traba-
lhos em outras direes so os trabalhos sobre raciocnio, como o trabalho de Slagle(SLAGLE,
1963) para resolver integrais e o de Evans(EVANS, 1964) que reconhecia padres em testes de
quociente de inteligncia.
2.2.2 Desenvolvimentos posteriores
No nal da dcada de 1960, surgiu um novo tipo de programa na IA. Um sistema
especialista se propunha a reunir o conhecimento completo de um especialista em uma rea
pontual. Tentava-se, pela primeira vez, organizar as regras no formais utilizadas por um ser
humanos na realizao de uma tarefa especca, para permitir mquina imitar o comporta-
mento humano de tomada de deciso. O mais famoso exemplo de sistema especialista o
MyCin(YU et al., 1979), desenvolvido na linguagem de programao de McCarthy, o Lisp. O
sistema MyCin era capaz de diagnosticar infeces por bactria e receitar tratamentos com an-
tibiticos. Apesar do MyCin ter tido uma mdia de acertos acima da obtida pelos mdicos que
se submeteram aos mesmos testes (YU et al., 1979), ele nunca foi usado na prtica por razes
ticas.
Na dcada de 1960, tambm, ganhou fora a vertente de IA que cou conhecida
26
como conexionista. A IA conexionista se baseia na ideia de que um modelo sucientemente
completo e preciso do crebro humano apresentar comportamento inteligente. Para a constru-
o de tal modelo do crebro, os cientistas utilizam modelos matemticos de neurnios. A partir
do modelo matemtico, construdo um neurnio articial, computacionalmente ou atravs de
circuitos eltricos. Estes devem ser interconectados, formando uma rede neural, da o nome
conexionista. Depois de formada a rede, esta deve ser treinada, para que as conexes entre os
neurnios se ajustem e ela seja capaz de resolver o problema para o qual foi concebida.
A partir de 1966 grandes diculdades comearam a se apresentar para a rea da
IA, resultando em cortes de verbas governamentais(RUSSELL; NORVIG, 2010). Algumas
dessas diculdades estavam relacionadas com o fracasso da tentativa de traduo automtica do
russo para o ingls, e com os problemas encontrados para ampliar o escopo dos programas que
antes eram limitados. Com o otimismo abalado, muitos pesquisadores comearam a mudar o
foco de seus trabalhos. As pesquisas de IA se mostravam promissoras para escopos restritos, e
ento alguns passaram a no almejar muito mais do que aquilo que seus programas j faziam.
A IA ento caria focada em resolver problemas especcos. O desenvolvimento da teoria
da complexidade tambm foi um fator importante nessa mudana, j que estabeleceu limites
tericos que antes no eram vistos pelos cientistas.
2.3 A Inteligncia Articial moderna
A partir da mudana de rumo da IA mencionada na seo anterior, a IA se apresen-
tou indstria como a soluo para alguns problemas de otimizao de processos industriais e
de distribuio. Tambm passou a ser aplicada para produzir pilotos automticos em veculos e
na robtica. Nas aplicaes fora da pesquisa, a IA sempre esteve desvinculada da ideia de pro-
duo de inteligncia de modo articial. Isso tambm se reetiu na pesquisa da IA simblica e
conexionista, de modo geral.
Hoje, a IA est inserida em nosso cotidiano. No incio da dcada de 2000, muitos
acreditavam no ser possvel criar uma ferramenta de busca eciente para a internet (DREY-
FUS, 2009), por causa da no organizao das pginas e do crescimento rpido da rede. No
entanto, Winograd, que j havia sido convencido pelas crticas que veremos na Seo 2.4, ori-
entou um aluno de doutorado que conseguiu desenvolver uma ferramenta de busca eciente
chamada Google.
Atualmente nos cursos de IA so apresentadas tcnicas de busca, que podem ser
aplicadas em otimizao. Algoritmos genticos, que utilizam a ideia da evoluo, o processo
para chegar em uma soluo tima, ou prximo do timo, divididos em etapas chamadas
geraes. Cada gerao apresenta um conjunto de solues para o problema, seleciona-se as
melhores a partir de um critrio pr-determinado, probabilisticamente ou no. As solues
selecionadas so combinadas para formar as solues da gerao seguinte. Alm desses, outro
tpico comum nos cursos de IA so as redes neurais, que comumente so combinadas com os
algoritmos genticos.
Na pesquisa, podemos destacar algumas reas de atuao da IA. A resoluo de
27
problemas, aplicada a jogos e sistemas especialistas. O raciocnio por senso comum, que utiliza
mecanismos de inferncia e base de dados de conhecimento de senso comum. Tais bases de da-
dos so preenchidas por pessoas comuns. Reconhecimentos de viso e fala, como mecanismos
de reconhecimento biomtrico. Processamento de linguagem natural, que produz regras para
a automatizao do entendimento da linguagem natural, podendo servir tambm para traduo
automtica.
Como podemos ver, a IA se modicou bastante. Em grande parte, deixou de lado
propsito de produo de mquinas inteligentes e passou a se concentrar na resoluo de pro-
blemas que no so triviais para os computadores. Com isso, ampliou bastante sua atuao e
passou a servir como uma ferramenta essencial para o desenvolvimento tecnolgico.
2.4 Crtica da Inteligncia Articial
Apesar do avano da IA no desenvolvimento de tcnicas para a resoluo de pro-
blemas difceis para a computao, seu projeto inicial, de implementar a inteligncia de forma
articial, nunca chegou a ter xito pleno, somente pontual. Os primrdios da IA foram caracte-
rizados por um pragmatismo muito forte, seus sucessos pareciam no necessitar de discusses
conceituais, pelo menos na viso dos prprios pesquisadores de IA. Com o surgimento das
diculdades que mostramos na Seo 2.2, os prprios cientistas da IA comearam a se questi-
onar sobre que teorias a respeito da inteligncia embasavam suas pesquisas. Eles se voltaram
para crticas que j existiam. Estas feitas por lsofos, que viam na IA uma rea promissora
para se testar teses loscas que at ento eram s tericas (DREYFUS, 1975). Porm, os
pressupostos que embasavam a pesquisa de IA foram duramente criticados.
A losoa da Inteligncia Articial no se ocupa em analisar sucessos ou fracassos
especcos, mas se interessa em analisar quais os pressupostos loscos/conceituais que esto
por trs dos projetos da IA. Toda teoria cientca est embasada em alguma teoria losca,
mesmo que o cientista que a produziu no se d conta disso. A seguir, vamos identicar a teoria
losca que suporta a pesquisa de IA, para poder analisar se o projeto de produzir inteligncia
de modo articial vivel ou no.
Hubert Dreyfus umdos maiores crticos da IA. Desde a dcada de 1960 ele dialoga
com os pesquisadores da rea, questionando as bases loscas que sustentam os projetos da
IA. Em 1972, Dreyfus escreveu um livro sobre os limites da IA intitulado "What computers
cant do"(DREYFUS, 1975). Esse livro foi lanado em 1975 no Brasil com o ttulo "O que
os computadores no podem fazer: Crtica da Razo Articial", em referncia s obras de
Immanuel Kant.
Dreyfus arma que a IA, com o objetivo de reproduzir em computador a inteli-
gncia humana, foi construda em cima de pressupostos que foram admitidos sem nenhum
tipo de questionamento. Alguns deles acabaram se revelando evidentemente falsos, enquanto
outros passaram desapercebidos e so objeto de discusso por alguns pesquisadores at hoje.
Dreyfus(DREYFUS, 1975) identica quatro pressupostos, que ele nomeia como: biolgico,
psicolgico, epistemolgico e ontolgico.
28
A seguir, apresentaremos esses quatro pressupostos e a crtica feita a eles.
O pressuposto biolgico - O crebro funciona como um computador digital, ou seja, os
neurnios transmitem informaes como ip-ops.
Acreditava-se que o crebro funcionava com seus neurnios transmitindo informaes
em binrio. Isso levou as pessoas a imaginarem que seria uma questo de tempo para
os circuitos eletrnicos atingirem a frequncia do neurnio e o computador se igualar ao
crebro. O modelo de neurnio mais utilizado atualmente em redes neurais articiais nos
permite descartar esse pressuposto.
O pressuposto psicolgico - A mente funciona como um computador digital, processa
informaes simblicas tal qual um computador.
De acordo com aqueles que se utilizam desse pressuposto, existe uma equivalncia l-
gica entre o funcionamento da mente e de um computador. Ou seja, a mente funciona
de forma algortmica, ou ainda, pensamos de forma descontnua atravs de regras pr-
estabelecidas. Na verdade, no existe evidncia para tal armao. Se o pressuposto
psicolgico fosse verdadeiro, poderamos armar que ao observar uma cor, ns calcu-
lamos os nveis de azul, vermelho e verde ali presentes, o que no parece ser o caso.
Isso equivalente a armar que ao arremessar um objeto, ele far os clculos para poder
descrever uma trajetria curvilnea at atingir o cho.
Note que essas armaes invertem a ordem entre o mundo e a teoria que fala a respeito
dele. Ou seja, colocam nossos modelos cientcos a respeito do mundo como absoluta-
mente corretos e prvios ao fenmeno que ele explica.
Se a mente funciona como um computador, ento deve ser possvel produzir teorias psi-
colgicas com base em programas de computador. De acordo com Dreyfus(DREYFUS,
1975), Simon, em 1957, armou que algo semelhante ocorreria dentro de dez anos. In-
felizmente, o computador no ajudou o avano da Psicologia como objeto de estudo,
somente como ferramenta auxiliar, como ocorreu em inmeras outras reas do conheci-
mento.
O pressuposto epistemolgico - Deve existir uma teoria sobre o comportamento humano
e a mesma pode ser reproduzida em computador.
Este pressuposto encontra apoio em duas reas da cincia: a Fsica e a Lingustica. A
Fsica oferece uma teoria que tenta explicar os fundamentos do comportamento de todos
os corpos fsicos (inanimados). A ideia ento seria estender essa teoria para abarcar os
animais e os seres humanos, obtendo-se uma teoria que, de alguma forma, explicasse
o comportamento inteligente. Uma tal teoria fsica do comportamento seria capaz de
explicar, a partir das leis da mecnica, seja ela a newtoniana ou a quntica, as causas
que fazem as pessoas agirem do modo que agem. Mas, ainda que essa teoria existisse,
para que ela fosse til Inteligncia Articial, seria necessrio realizar uma simulao
envolvendo um nmero incrivelmente grande de objetos. Esse nmero possivelmente
ultrapassaria o limite de Bremermann, que estabelece que nenhum sistema fsico capaz
de processar mais de 2x10
47
bits por segundo por grama de sua massa.
29
Na Lingustica, h uma corrente que tenta formalizar a linguagem natural. Tal formaliza-
o tornaria possvel o entendimento da linguagem natural por parte dos computadores.
A ideia que se a linguagem pode ser reduzida a regras, estas podem ser implementa-
das em um computador. Mas, apesar de a linguagem possuir regras gramaticais, ns s
as utilizamos dentro de um contexto. Mesmo quando as regras so mal aplicadas e h
erro, ns conseguimos compreend-las, graas ao contexto em que a frase foi formulada.
Um entusiasta da ideia da formalizao da linguagem poderia argumentar que, ento,
s uma questo de se formalizar as regras para o contexto, ou seja, um conjunto de re-
gras para se estabelecer em que situaes se aplicaria determinada regra. Porm, mesmo
que fosse possvel fazer regras para um contexto, ns utilizaramos essas regras tambm
dentro de um contexto, o que tornaria necessrio, para o computador, um outro nvel de
regras. Note que ns no necessitamos desses vrios nveis de regras, mas o computador
sim. Para a aplicao de regras gramaticais pelo computador, ou camos em uma regres-
so innita de nveis de regras, ou deve existir um nvel fundamental que no dependa do
contexto e esteja diretamente ligado realidade. A existncia de tal nvel , no mnimo,
estranha, j que ela d a impresso de que o sentido das expresses lingusticas nico,
o que obviamente no verdade. Ademais, esse nvel fundamental de regras exigiria que
o mundo pudesse ser decomposto em tomos de fatos, que corresponderiam s regras in-
dependente de contexto. Essa possibilidade constitui o pressuposto ontolgico. Na Seo
2.4.1 veremos que ainda que o computador fosse capaz de aplicar as regras da linguagem
natural, o entendimento por parte do computador ainda pode ser questionado.
O pressuposto ontolgico - possvel analisar o mundo em termos de dados determina-
dos ou tomos de fatos.
Um computador funciona de forma discreta, com informaes discretas e em etapas dis-
cretas, as entradas de seus dados tambm devem ser discretas. Portanto, se um programa
existe para analisar fatos do mundo, estes devem ser divididos de forma discreta. Nesse
ponto entra o pressuposto ontolgico. Os pesquisadores que o aceitam, acreditam que
os fatos do mundo podem ser analisados de forma isolada. Esse um pressuposto que
parece to autoevidente, que dicilmente questionado.
Os fatos do mundo no esto isolados uns dos outros. No h meios para se analisar
fatos do mundo de modo que se consiga distingui-los em fatos mais simples, at se che-
gar em uma base indivisvel. Essa ideia da decomposio atomstica, segundo Drey-
fus(DREYFUS, 1975), vem desde Plato e ganhou fora ao decorrer da histria com
Galileu, na diviso dos fatos fsicos em leis, chegando ao pice com o primeiro livro
de Wittgenstein, que divide o mundo em fatos para fazer uma correspondncia com a
linguagem. Uma vez que essas ideias foram explicitadas na losoa, outros lsofos
comearam a critic-las, o prprio Wittgenstein tornou-se seu principal crtico. Ele refor-
mulou sua concepo de linguagem como algo uido, em que seus conceitos esto em
constante processo de ressignicao, dependendo do contexto em que sejam aplicados.
Uma teoria sobre todos os fatos do mundo pretende apresentar os fatos do mundo em
termo de fatos cada vez mais simples. Porm, o que possvel ser feito uma teoria que
se assemelha mais a um dicionrio. Um fato explicado em termos de outros fatos, que
30
no necessariamente so mais simples, estes agora devem ser explicados em termos de
outros fatos. Por exemplo, ao tentar explicar o conceito de cadeira, teremos que recorrer
a outros conceitos bastante complexo, como o de pessoas, o ato de sentar, o nmero de
pernas que possivelmente possa ter uma cadeira, a forma do corpo humano que determina
o formato da cadeira e tantos outros. Cada conceito desse no necessariamente mais
simples do que o conceito de cadeira. E cada umdeles necessita de outros tantos conceitos
complexos para serem explicados. Ou seja, no existe uma necessria simplicao ao
se tentar denir fatos do mundo em termos de outros fatos. Nunca chegaremos a fatos
atmicos, mais simples que todos os outros, pois eles no existem.
Ao passar dos anos, outros lsofos passaram a criticar as tentativas de intelign-
cia articial. Vamos analisar trs crticas de grande impacto na comunidade cientca que tem
correspondncia com a de Dreyfus. So elas: o argumento do quarto chins de John Searle (SE-
ARLE, 1980), o Frame Problem de Daniel Dennett (DENNETT, 1984) e o Symbol Grounding
Problem do psiclogo Stevan Harnad (HARNAD, 1990).
Em 1990 Rodney Brooks, pesquisador da rea de IA, fez crtica assuno da hip-
tese do sistema simblico fsico e apresentou robs que j no sofreriam do mesmo problema,
pois estes eram physically grounded
4
(BROOKS, 1990). No ano seguinte Brooks publicou
um artigo (BROOKS, 1991) que tido por muitos como o pioneiro da nova IA, onde mudou
um pouco sua crtica IA, focando na crtica representao do mundo. De acordo com ele,
esse o grande entrave para o desenvolvimento de sistemas articiais realmente inteligentes.
Apesar de concordar com Dreyfus nesse ponto, Brooks faz questo de armar que seu artigo
fruto de uma observao independente das discusses anteriores acerca da representao.
2.4.1 O Quarto Chins
Em 1980, John Searle publicou um artigo(SEARLE, 1980) para rebater as arma-
es de pesquisadores que diziam ter produzido programas capazes de compreender textos em
ingls. O artigo de Searle inicia com um exemplo simples de texto em linguagem natural. No
exemplo, uma pessoa vai a um restaurante, pede um prato, depois que o prato chega, a pessoa
reclama e vai embora sem pagar. Ento, Searle questiona se a pessoa comeu ou no o prato.
Ele tambm d o exemplo em que a pessoa elogia e d uma gorjeta, Searle faz o mesmo questi-
onamento a respeito do consumo ou no do prato.Apesar da diculdade de se automatizar uma
resposta para o exemplo, Searle em nenhum momento questiona a capacidade de se produzir
algoritmos capazes de responder perguntas em linguagem natural. O ponto central de seus ar-
gumentos a respeito do entendimento do texto por parte da mquina, ou seja, Searle acha que
mesmo que um computador seja capaz de interagir com um ser humano atravs de linguagem
natural, ele no ser capaz de compreender a linguagem. Searle tambm no explicita o que
seria compreender linguagem, mas se utiliza da noo comum que se tem, sem formalismos.
Para desenvolver seu argumento, o autor prope um experimento mental em que ele
se coloca dentro de um quarto, onde o nico contato que tem com o mundo exterior atravs
4
aterrados sicamente
31
de pilhas de papel com escritas em uma lngua que ele no entende, no caso chins, e que no
capaz nem de armar se tratar de uma lngua especca e distinguir de japons, por exemplo.
Alguns desses papis contm tambm instrues em ingls, sua lngua nativa. No caso do ex-
perimento, o idioma chins faz o papel da linguagem natural e o idioma ingls da linguagem de
mquina, j que Searle se pe no lugar da mquina. Alm das pilhas com instrues, ele recebe
outras pilhas de papel, que contm somente caracteres em chins e, atravs das instrues, ele
capaz de escrever smbolos em chins e devolver para fora do quarto. Para quem est do lado
de fora, o quarto recebe uma histria e perguntas e devolve respostas, para quem est dentro ele
recebe pilhas de smbolos com instrues para combinar outros smbolos e devolv-los.
Searle pede para que se imagine que os programadores do quarto cam to bons em
programar, e a pessoa do quarto ca to boa em combinar os smbolos de forma correta, que os
chineses que esto fora do quarto no conseguem distinguir entre as respostas do quarto ou de
outra pessoa que tenha chins como lngua nativa. Ou seja, o quarto equivale a um computador
que responde perfeitamente perguntas sobre uma histria em chins. Ele ainda pede para que
se imagine que tambm so feitas perguntas para ele em ingls, sobre um texto em ingls, que
ele responde to bem quanto um falante nativo de ingls que ele . Nesse caso, sem a utilizao
de regras determinadas.
Agora vem o ponto do argumento de Searle: apesar de conseguir responder pergun-
tas em chins to bem quanto um chins, a pessoa que est dentro do quarto no entende nada
de chins, tudo o que ela faz manipulao simblica, em contraste s perguntas em ingls,
onde ele no tem regras para seguir e responde to bem quanto em chins. Ele entende ingls,
mas no entende chins, sua concluso que mesmo que existam computadores que interajam
com humanos usando-se de linguagem natural, eles no compreendero a linguagem.
Searle ainda considera possveis contra-argumentos, que foram apresentadas a ele
em suas palestras, antes da publicao do artigo. Vamos expor alguns dos contra-argumentos e
uma resposta a cada um, compatvel com as respostas dadas por Searle.
I. Apesar de a pessoa no entender chins, o sistema como um todo, ou seja, pessoa
e sala, compreende chins.
Suponha que a pessoa que est dentro do quarto internalize todos os elementos do
sistema. Suponha que ela decore as regras e no esteja mais dentro de um quarto. Se algum
pergunta para ela algo em chins, ela ainda pode seguir as regras e responder em chins. Porm,
note que ela, apesar de agora constituir todo o sistema, no compreende chins, s capaz de
fazer a manipulao simblica por regras.
II. Considere um rob que anda, consegue ver atravs de uma cmera, se move,
come, bebe, mas com um crebro computacional, este rob seria capaz de entender.
Esse argumento considera que h alguma necessidade de uma relao com o mundo
para haver cognio. Porm, no ncleo do "pensamento" ainda est um computador, ou seja, o
processamento simblico persiste. Como se no caso do experimento do quarto, a pessoa que se
encontra l dentro passasse a receber mais smbolos em chins. Esse novos smbolos provindos
de uma cmera e de sensores externos, mas a pessoa no est ciente disso, ela s recebe os
32
smbolos. Para quem est dentro do quarto, nada muda.
III. Considere a simulao do crebro de um chins nativo, com todas as suas sinap-
ses, disparos de neurnios. Negar que tal simulao entende chins seria negar que o prprio
nativo entende chins.
Suponha que ao invs de combinar smbolos, a pessoa no quarto opere interrup-
tores, onde cada interruptor corresponde a uma sinapse neural. A pessoa receber um smbolo
em chins, segue as regras programadas, ligando e desligando as sinapses corretas, na ordem
correta, e isso gera um smbolo na sada. A pessoa continua sem compreender chins, nem
os interruptores. Como j vimos, nem a combinao da pessoa com os interruptores entende
chins.
IV. Uma combinao dos trs anteriores. Um rob, com uma simulao de crebro
e comportamento indistinguvel do comportamento humano, seria capaz de entender chins.
De fato, se fosse um rob com o comportamento e corpo igual ao de um ser humano,
certamente todos concordariam que ele seria inteligente. Porm o argumento da IA de que
possvel reproduzir inteligncia atravs de um sistema simblico fsico.
O argumento central de Searle que sistemas computacionais baseados em mani-
pulao de smbolos no tm intencionalidade, somente a "mquinas" parecidas em todos os
aspectos, siolgicos inclusive, pode ser atribudo intencionalidade.
2.4.2 Frame Problem
Oframe problemfoi primeiro descrito por McCarthy e Hayes(MCCARTHY; HAYES,
1969) como o problema de descrever em lgica todos os efeitos que uma ao no acarreta. Por
exemplo, encher uma garrafa com gua no ir mudar a composio da garrafa, nem sua massa,
nem sua cor. Existem muitos efeitos no acarretados por uma ao; conseguir perceber o que
e o que no relevante em uma ao inato ao ser humano e crucial para se tomar decises a
respeito do novo cenrio em que se est inserido ps ao. Daniel Dennett, lsofo da mente,
reavivou esse problema em 1984 (DENNETT, 1984), dando a ele um carter muito mais abran-
gente; tornando um problema da Filosoa da Mente, independente da IA. Essencialmente esse
o problema de se estabelecer o conjunto de crenas a respeito do mundo que mudam quando
uma ao executada. De outra forma, quais so todas as consequncias de uma ao.
Dennett d uma descrio de trs robs que "sofrem" do frame problem; o primeiro,
chamado apenas de "robot", no consegue reconhecer os efeitos colaterais de sua ao. O
segundo, "robot-deducer", perde todo seu tempo deduzindo fatos irrelevantes a respeito de sua
futura ao, como por exemplo que a quantidade de gua em ml necessria para encher uma
garrafa maior que o nmero de garrafas que ele deve encher. O terceiro, "robot-relevant-
deducer", programado para classicar as suas concluses como relevante ou irrelevante, o
que tambm toma todo seu tempo. Os dois ltimos robs no chegam a executar ao alguma,
tomados por seus clculos.
Dennett diz que os lsofos nunca conseguiram perceber o Frame Problem como
33
um problema, porque as teorias loscas a respeito de como pensamos para agir nunca se
aprofundaram muito. Ele compara com um nmero de mgica onde o mgico serra a mulher
ao meio, e a explicao dos lsofos seria que bvio que ele no a serra ao meio, ele s
faz parecer que sim. A explicao no iria mais longe que isso, porque muita coisa se passa
fora do alcance da viso, como na mente. A anlise losca acaba passando por cima de
problemas banais. Na IA, por outro lado, tm-se que fazer tudo a partir do zero, o que torna
perceptvel problemas como o Frame Problem ou outros sobre aprendizado que sejam inatos ao
ser humano. Dennett diz que talvez seja inato ao ser humano o modus ponens, terceiro excludo
ou ainda algum sentido de causalidade.
Segundo o autor, a diculdade est em fazer algo que no tem conhecimento ne-
nhum sobre o mundo possa ter toda a informao necessria para fazer alteraes no mundo.
Humanos aprendem pela experincia, mas sistemas de IA so feitos para j saberem muito so-
bre o mundo a priori. Como observamos antes, o problema surge do que Dreyfus chama de
pressuposto ontolgico(DREYFUS, 1975). Achar que o mundo pode ser analisado com um
conjunto de fatos independentes, quando na verdade esses fatos so interdependentes, gera a
diculdade de se computar novamente as dependncias.
2.4.3 Symbol Grounding Problem
Stevan Harnad faz uma crtica ao modelo simblico de cognio(HARNAD, 1990),
que toma a mente como sendo um sistema puramente simblico que segue regras denidas.
Como o modelo se baseia em um computador, a crtica se estende Inteligncia Articial. O
Symbol Grounding Problem tem esse nome porque em um sistema feito s de smbolos, esses
cam "utuando" uns sobre os outros, sem signicado, que dado por ns, seres humanos,
quando "aterramos" os smbolos s nossas experincias sensoriais. Como a IA Tradicional se
baseia na hiptese do sistema simblico fsico, seus programas no so capazes de fundamentar
o signicado, de acordo com Harnad.
Harnad apresenta o primeiro exemplo do Symbol Grounding Problem como sendo o
quarto chins de Searle. Logo depois d mais dois exemplos; umque ele classica como difcil e
outro como impossvel. O primeiro exemplo o de uma pessoa que deve aprender chins como
segunda lngua, e cuja nica fonte de informao umdicionrio chins/chins. Apessoa caria
dando voltas no dicionrio, sem nunca parar, esse o exemplo difcil. O segundo exemplo
de uma pessoa em uma situao similar, s que dessa vez ela tem que aprender chins como
primeira lngua, este o exemplo impossvel. Segundo o autor, os criptologistas s conseguem
decifrar lnguas antigas por j terem uma linguagem "aterrada"(grounded). Mas como aprender
uma primeira lngua somente atravs de smbolos que so associados a smbolos? Esse o
Symbol Grounding Problem.
Harnad tenta resolver o problema dando um modelo de representao na mente, em
que parte das representaes esto "aterradas" s percepes sensoriais e outras representaes
podem ser construdas em cima das que j existem, sendo que as construdas cam "aterradas"
atravs das outras que serviram como base para elas. Ele d um exemplo da construo da repre-
sentao de zebra, que seria uma combinao da representao de cavalo com a representao
34
de listras. O objetivo de Harnad no seu artigo criticar o modelo computacional da mente,
que Dreyfus percebeu como um pressuposto psicolgico. A soluo apresentada por Harnad
no resolve o problema para a IA, j que o "aterramento" das representaes esto ligadas s
percepes sensoriais. Como veremos no Captulo 3, alguns pesquisadores compreenderam as
percepes do mundo como necessrias para a inteligncia, o que poderia fazer com que a teoria
de Harnad tambm se aplicasse IA.
35
3 INTELIGNCIA ARTIFICIAL CORPORIFICADA
A Inteligncia Articial tradicional toma como referncia a mente humana, e as-
sume, algumas vezes de modo implcito, o seguinte paralelo com os computadores: a mente
o software e o crebro o hardware(RUSSELL; NORVIG, 2010), sendo hipoteticamente pos-
svel que uma mesma mente funcione em dois crebros diferentes, como um programa que
instalado em dois computadores. Nesse modelo, a mente, o corpo e o mundo so trs entidades
completamente distintas e separadas, que se comunicam por meio de interfaces sintticas. A
mente controla o corpo, que por sua vez est inserido no mundo. Mais uma vez h a possi-
bilidade, dessa vez no to hipottica, de que uma mente controlando um corpo seja capaz de
sobreviver em dois mundos completamente distintos, da mesma maneira que um computador
que mudado de lugar e de tomada. Ainda de acordo com o modelo, o mundo composto
de objetos e fatos que esto previamente denidos, por exemplo, uma garrafa um objeto do
mundo, e ela ser vermelha um fato.
A Figura 3.1 ilustra as relaes das entidades do modelo utilizado pela IA Simb-
lica, que chamamos de Modelo Mente-Corpo-Mundo. A mente recebe informaes sintticas a
respeito do mundo e cria um modelo dele dentro de si mesma. Esse modelo possui todos os de-
talhes que possvel mente captar. A mente s consegue entender e raciocinar, de fato, sobre
o modelo que ela monta do mundo. Para se locomover, por exemplo, a mente cria um mapa do
local onde se encontra. Atravs desse mapa, ela se guia, calculando distncias e velocidades.
Em seguida a mente d ordens para o corpo para que se movimente em determinada direo.
O corpo s se movimenta a partir das ordens recebidas da mente. O corpo um instrumento
da mente. Ela o utiliza para realizar suas aes e poder interagir com os objetos do mundo.
Assim, a mente pode atualizar seu modelo do mundo. Portanto, percebemos que, nesse modelo,
a mente a responsvel isolada pela inteligncia; todo pensamento e raciocnio acontece dentro
da mente. A ideia central do modelo que a mente trabalha sobre as representaes que faz do
mundo.
Um exemplo dos problemas que o modelo Mente-Corpo-Mundo sofre: se um rob
representacionalista programado para andar em uma sala com uma mesa no centro, ele ter
as dimenses da sala e da mesa armazenadas dentro dele. Quando receber a instruo de ir at
a mesa, ele far um clculo interno levando em considerao essas dimenses e a sua posio
atual, ento saber quantos metros ter de se deslocar, passando a instruo para seu corpo.
Se algum muda a mesa para um canto da sala e d a instruo para o rob ir at a mesa,
ele far o mesmo clculo para a posio anterior da mesa, se deslocando at o centro da sala,
possivelmente para longe da mesa, a soluo seria reprogramar o rob com a mesa no novo
local. Porm, ainda no modelo representacionalista, o rob poderia identicar a posio dos
objetos, que esto representados nele dentro da sala; assim resolveria o problema de se mudar
o lugar da mesa. Ainda assim, digamos que sua representao de mesa tenha quatro pernas e
um tampo, se uma das pernas da mesa quebrasse e a colocassem no canto da sala, com a parte
da perna quebrada apoiada nas paredes, o rob poderia no reconhecer mais a mesa quebrada
como mesa.
Nesse captulo, falaremos a respeito de um novo paradigma: a IA Corporicada,
36
Figura 3.1: Representao do Modelo Mente-Corpo-Mundo
Fonte: Elaborada pelo autor.
que surgiu da negao da representao, colocando o corpo como parte do processo cognitivo.
Na Seo 3.1, mostraremos as ideias de Brooks a respeito de uma IA sem representao e sua
arquitetura de camadas de inteligncia. Na Seo 3.2, abordaremos como o no representaci-
onalismo se deu na rea da cincia cognitiva. O desenvolvimento desse paradigma dentro da
prpria IA ser apresentado na Seo 3.3, com alguns experimentos discutidos na Seo 3.4.
Finalmente, apresentaremos as crticas ao paradigma na Seo 3.5.
3.1 Inteligncia sem representao
No nal da dcada de 1980, a maior parte dos pesquisadores da IA j havia aban-
donado suas pretenses de reproduzir ou simular o raciocnio humano. A IA tinha se tornado
uma rea de pesquisa dedicada resoluo de problemas pontuais. A partir de uma diviso das
capacidades cognitivas humanas, cada subrea da IA tentava resolver um problema diferente,
como o processamento de linguagem natural, o reconhecimento de padres e o aprendizado
automtico. Em cada uma dessas reas o ser humano era o parmetro, no sentido de que ele
oferecia o termo de comparao, mas no necessariamente era a inspirao, por no se impor a
restrio de se realizar cada uma dessas tarefas como um ser humano realiza.
Nesse contexto, em 1991, Brooks inicia uma nova vertente na pesquisa em Inteli-
gncia Articial(BROOKS, 1991), interessada novamente em perseguir a meta de inteligncia
humana. Ele lana a ideia de que a inteligncia deve ser construda incrementalmente. Brooks
entende que existem vrios nveis de inteligncia desde de uma forma de vida simples como
um inseto at o ser humano. Tomando como base a teoria evolucionria, Brooks acredita que a
inteligncia das formas de vida mais simples a base para o desenvolvimento das capacidades
cognitivas mais complexas.
37
Brooks se inspirou no funcionamento do crebro, que se subdivide em reas relati-
vamente independentes, e criou o que chamou de subsumption architecture, ou arquitetura de
subsuno. Tal arquitetura composta por partes que, como o nome sugere, vo sendo includas
no sistema j existente. Essas partes so como mdulos, onde cada um independente dos de-
mais e s includo em um sistema j testado e robusto. O novo sistema, composto do sistema
antigo mais o mdulo includo, ento testado e avaliado, podendo o mdulo ser modicado no
caso de possveis conitos com os mdulos mais antigos. Quando o novo sistema est robusto
o suciente, ele est pronto para receber um possvel novo mdulo. Por exemplo, em geral
o primeiro mdulo dos testes de Brooks faz como que o sistema, no caso o rob, evite bater
nos obstculos. Essa a nica tarefa do mdulo, ele testado e, uma vez considerado robusto,
o sistema considerado pronto para receber um novo mdulo. Um segundo mdulo comum
nos robs de Brooks faz o rob andar aleatoriamente quando no est ocupado desviando de
objetos. O rob com os dois mdulos capaz de andar por a sem colidir com outros objetos,
mas isso no feito de forma centralizada. Cada mdulo tem seu prprio processador e eles
disputam o controle dos motores do rob, podendo haver uma ordem de prioridade entre eles.
No caso, mais importante no bater em outros objetos do que continuar vagando.
Outra diretriz para o desenvolvimentos dos robs de Brooks consiste em usar pouco
processamento a respeito das decises que o rob toma para agir, isto , pouco processamento
em cada camada. Deve haver, tambm, uma interao mais prxima entre os sensores e os mo-
tores do rob, sem que tudo seja algoritmicamente computado por uma entidade central. Essa
relao prxima de sensores e motores recebeu o nome de laos sensrio-motores (sensorimo-
tor loops). Estes compem um sistema de retroalimentao direta, ou seja, aquilo que captado
por um sensor inuencia os motores sem ter que passar por uma unidade central. Em resumo,
a arquitetura desenvolvida por Brooks o permite utilizar unidades de processamento descentra-
lizadas, que requerem baixo poder de processamento e promovem uma interao mais direta
entre os sensores e motores.
A grande contribuio de Brooks foi ter proposto um modelo para a inteligncia
que no utiliza uma representao do mundo. Brooks arma que em um nvel de inteligncia
simples, representations and models of the world simply get in the way. It turns out to be better
to use the world as its own model.
1
(BROOKS, 1991). Por esse motivo, Brooks trabalha com
robs e no com softwares, para que estes possam interagir com o mundo real. Segundo ele,
treinar robs em mundos mais simples antes de solt-los no mundo real seria prejudicial por
condicion-los a reagir a formas que no mundo real no existiriam. A arquitetura de subsuno
foi desenvolvida por Brooks com o propsito de incorporar suas metas de no representao,
atravs da ligao feita com o lao sensrio-motor. Note que esse forma um ciclo que passa
por fora do agente. Analisando esse ciclo comeando pelos sensores, esses captam informaes
do mundo, enviam para as unidades de processamento, que inuenciam os motores. O ciclo se
fecha quando a ao dos motores altera o ponto de vista da percepo do rob sobre o mundo,
pela mudana de posies dos sensores, ou do prprio rob. Esse ciclo, passando por fora do
rob, mostra que nesse modelo o ambiente tambm inuencia no processo cognitivo.
1
Representaes e modelos do mundo simplesmente atrapalham. Acontece que melhor usar o mundo como
seu prprio modelo.
38
Figura 3.2: Allen
Fonte: http://alife.tuke.sk/kapitola/1153/index.html
Note que a falta de uma unidade central nos robs de Brooks impede a existncia
de uma representao nos moldes da IA Tradicional. Para haver representao nesses moldes,
deveria haver uma representao em cada mdulo, o que no o caso. Alm disso, a interao
entre sensores e motores, do modo como feita, incompatvel com uma representao interna
do mundo. Porm, ainda podemos observar nas implementaes de Brooks a pr-interpretao
do mundo por parte do programador. Ou seja, ao projetar o rob, Brooks diz qual o propsito do
rob; comisso o constri de modo a ter aquele comportamento especco. Isso ainda caracteriza
a presena da anterioridade, que falamos no Captulo 1. Na Seo 3.5 falaremos umpoucos mais
sobre isso. A seguir, apresentamos alguns robs construdos por Brooks.
3.1.1 Os Robs de Brooks
Nesta seo, detalhamos algumas implementaes da arquitetura de subsuno de
Brooks em seus robs descritos em (BROOKS, 1990). As partes da arquitetura que chamamos
de "mdulos" para explicar o funcionamento da arquitetura, Brooks as chama de "camadas".
Allen, Tom e Jerry
Os trs possuem trs camadas em suas arquiteturas, sendo que Tom e Jerry so to-
talmente idnticos e Allen (Figura 3.2) se diferencia na implementao de sua terceira camada.
A primeira camada tem um algoritmo que faz o rob desviar de obstculos, inclusive dos que
se aproximam enquanto ele est parado. A segunda camada faz com que o rob ande aleato-
riamente. J a terceira, em Allen faz com que o rob procure atravs dos sonares, por locais
distantes e v naquela direo. Em Tom e Jerry, implementada para que os robs sigam al-
gum objeto. Um fato interessante a respeito dos trs robs que a terceira camada suprimiu o
comportamento da segunda sem prvia programao.
Hebert
Hebert (Figura 3.3) foi programado para andar pelos escritrios e coletar latas de
refrigerante vazias deixadas em algum canto ou que sejam colocadas em sua "mo". Ele de-
monstrou capacidade de evitar objetos, seguir paredes, reconhecer as latas e um conjunto de 15
39
Figura 3.3: Hebert
Fonte: http://www.britannica.com/EBchecked/media/55524/Herbert-the-robot-1987-
Designed-by-Rodney-Brooks-and-affectionately
Figura 3.4: Genghis
Fonte: http://alife.tuke.sk/kapitola/1153/index.html
comportamentos que levavam o brao a procurar, localizar e pegar a lata. Hebert no possui
comunicao interna entre seus mdulos geradores de comportamento.
Genghis
Genghis (Figura 3.4) possui camadas que permitem que ele que de p, ande sem
usar sensores, capaz de passar por terrenos acidentados, passar suas pernas sobre obstcu-
los, inibir a passagem por terrenos acidentados, detectar pessoas e andar somente quando elas
estiverem presentes.
3.2 Cognio Corporicada
A cincia cognitiva uma rea multidisciplinar da qual a IA faz parte, juntamente
com a psicologia, a neurocincia, a losoa, entre outras. As crticas IA Tradicional re-
percutiram na cincia cognitiva como crticas ao modelo que tomava como base justamente o
computador; o modelo computacional da mente do qual falamos na Seo 2.4. Esse modelo
tem diculdades de explicar, por exemplo, como os smbolos dentro do crebro adquirem signi-
cado. Outra diculdade do modelo a ideia de que um ser inteligente tem uma representao
do mundo dentro de si, como falamos no incio do captulo, o que leva ideia de um homnculo
controlando o corpo com base nessa representao. Mas, a cognio para esse homnculo s
pode ocorrer de duas formas: ou ele acessa diretamente as representaes que chegam at ele,
40
ou ele mesmo, homnculo, tambm produz representaes para poder raciocinar. A primeira
hiptese nos leva ideia de que o homnculo desnecessrio. Pois, se possvel ter acesso
direto ao objeto da cognio, o prprio ser inteligente poderia faz-lo. A segunda hiptese nos
levaria a uma regresso innita. J que se o homnculo produz representaes internas, deveria
haver algo dentro dele que raciocina sobre as suas representaes.
Surgiu ento, no mbito da cincia cognitiva, um modelo que se contrape ao mo-
delo computacional da mente, a chamada cognio corporicada (embodied cognition). A prin-
cipal caracterstica da cognio corporicada , como o nome sugere, a observao de que o
corpo tambm participa do processo da cognio. Essa caracterstica torna a rea um pouco
vasta e imprecisa. De acordo com Wilson e Foglia, a cognio corporicada se caracteriza por
aceitar o que chamam de Embodiment Thesis, que diz:
Many features of cognition are embodied in that they are deeply dependent
upon characteristics of the physical body of an agent, such that the agents beyond-
the-brain body plays a signicant causal role, or a physically constitutive role, in
that agents cognitive processing
2
(WILSON; FOGLIA, 2011).
Shapiro em (SHAPIRO, 2007) destaca trs subreas da cognio corporicada que
se relacionam. A primeira, que acredita que parte do processo cognitivo emerge do corpo.
A segunda, que arma que o contedo cognitivo depende da forma do corpo que contm o
crebro. A terceira, que diz que o processo de cognio no se restringe ao sistema nervoso,
mas se estende at o ambiente em que o corpo est inserido.
Ainda em (SHAPIRO, 2007), o autor d um exemplo para a primeira subrea de
como o corpo pode inuenciar a cognio. Ele arma que a distncia entre as orelhas afeta a
acuidade auditiva, quanto maior a distncia melhor a audio. Porm, a densidade da matria
entre as orelhas tambm importante, pois os sons diferemquando passampor meios diferentes.
Um trabalho muito importante para a cognio corporicada o de Lakoff e John-
son(LAKOFF; JOHNSON, 1980), que um exemplo para a segunda subrea. Esse trabalho diz
que a linguagem humana composta por muitas metforas, e que sempre aprendemos coisas
novas a partir de relaes com o que j sabemos. Um exemplo de Lakoff e Johnson a metfora
do amor e viagem. O amor pode ser entendido como uma metfora para uma viagem: ele tem
um incio, pode no ter um m, pode levar a lugares inesperados, pode ser difcil em alguns
momentos, mas recompensador em outros. Mas, se o que aprendemos tem relaes com o que
j sabemos, deve existir uma base para no cairmos em outra regresso innita. De acordo com
Lakoff e Johnson(LAKOFF; JOHNSON, 1980), a base dada pela forma do nosso corpo, de
onde tiramos ideias como cima, baixo, frente, trs, perto, longe etc. Os conceitos de cima e
baixo seriam desenvolvidos de forma inata a partir da necessidade de o ser humano car em
p e ter que manter ou mudar a orientao cima-baixo, por exemplo. Shapiro diz que Lakoff e
Johnson oferecem outras explicaes para o restante das ideias citadas. Em (SHAPIRO, 2007),
2
Muitos aspectos da cognio esto incorporados de modo que so profundamente dependentes de caractersti-
cas do corpo fsico de um agente, tal que o corpo alm-do-crebro do agente tem um papel causal signicante, ou
um papel sicamente constitutivo, no processamento cognitivo do agente.
41
o autor cita pesquisas de Arthur Glenberg (GLENBERG, 1997)(GLENBERG; ROBERTSON,
2000) que apontam uma maior diculdade para seres humanos entenderem conceitos que no
so adequados com o corpo humano.
Para a terceira subrea, Shapiro cita o trabalho de Wilson(WILSON, 2004), que
arma que ao se utilizar papel e caneta para auxiliar na resoluo de um problema matemtico,
estes objetos so uma extenso do aparato cognitivo; eles esto integrados no ato cognitivo de
tal forma que no existe razo para distingui-los do resto do sistema cognitivo na resoluo
do problema. O autor ainda cita Clark(CLARK, 1998), que diz que o ser humano organiza
o seu ambiente de tal forma que facilite seus processos mentais, como por exemplo deixar as
chaves sempre perto da porta, para no ter que lembrar onde as deixou, ou organizar arquivos
em ordem alfabtica para facilitar buscas. Assim outros seres humanos tambm teriam seus
processos cognitivos facilitados,se a organizao compartilhada por eles como no caso da
ordem alfabtica.
3.3 Inteligncia Articial Corporicada
Os trabalhos de Brooks colocaram em oposio a representao e o par percepo-
ao. Atravs da aproximao entre a percepo e a ao de seus robs, Brooks procurou
eliminar a utilizao de representao por parte dos mesmos. Na concepo tradicional da
IA, a representao tem um papel crucial. Ela quem possibilita a mente realizar clculos a
respeito dos fatos do mundo e decidir como controlar o corpo. Toda interao entre a mente,
o corpo e o mundo realizada atravs de interfaces sintticas que "traduzem" a informao
de um lado para outro. O modo como ocorre tal traduo previamente determinado pelo
programador, que deve perceber o que h de relevante de um lado que deve passar para o outro.
Na concepo de Brooks, a diviso entre as partes do sistema se d de outra forma. O que
existe em seu trabalho o agente e o mundo. A mente e o corpo no so elementos dissociados,
eles se confundem dentro do agente. Mesmo entre o agente e o mundo a relao se d de
forma mais direta, as interfaces sintticas no existem mais. O modo como o mundo afeta o
agente e vice versa atravs dos sensores e motores do agente. Quando h uma mudana no
mundo, ela s percebida pelo agente se afetar algum dos seus sensores. Os sensores geram um
sinal para dentro do agente que ativa seus motores de alguma forma. Uma vez que os motores
foram ativados, a posio relativa do agente, ou de um de seus membros, se modica. Assim
a percepo do mundo pelo agente no mais a mesma, o que afeta novamente seus sensores,
fechando um ciclo. A esse ciclo d-se o nome de lao sensrio-motor. A parte da IA que leva
em conta o corpo no processo cognitivo, visando aproximar o par percepo-ao atravs dos
laos sensrio-motores, chamada de IA Corporicada.
A rea da IA Corporicada surgiu e comeou a se desenvolver sem nenhum tipo de
critrio. Os cientistas rotulavam seus prprios trabalhos como pertencentes rea. Algumas
vezes, bastava uma caracterstica, como por exemplo o fechamento do ciclo entre percepo e
ao para que o autor do trabalho o classicasse como sendo da IA Corporicada, mesmo que o
trabalho se utilizasse de representao do mundo dentro do agente. Essa falta de sistematizao
da rea levou Pfeifer a propor que a comunidade de IA Corporicada estabelecesse princpios
42
Rtulo Nome Descrio
P1 Metodologia Sinttica Entender atravs da construo.
P2 Emergncia Sistemas devem ser projetados para emergncia.
P3 Tendncia a diversidade Problema de troca entre explorar o que dado e gerar diversidade
resolvido de formas interessantes.
P4 Perspectivas de tempo Trs perspectivas: Aqui e agora, ontogentica, logentica.
P5 Quadro de referncia Trs aspectos devem ser distinguidos: perspectiva, comporta-
mento vs. mecanismos, complexidade.
Tabela 3.1: Princpios de Procedimento de Projeto
Fonte:(PFEIFER; IIDA; BONGARD, 2005)
norteadores para caracterizar melhor a rea. Em 2005, juntamente com Iida e Bongard, Pfeifer
publicou sua sugesto de como deveriam ser esses princpios (PFEIFER; IIDA; BONGARD,
2005). Eles foram desenvolvidos e modicados durante anos (PFEIFER; IIDA, 2003), mas
nem por isso os autores alegam que os princpios so denitivos. Pfeifer et al. (PFEIFER;
IIDA; BONGARD, 2005) armam que construram os princpios a partir das ideias de compor-
tamento adaptativo (adaptive behavior) e da cincia cognitiva. Comportamento adaptativo um
tipo de comportamento que permite que o indivduo modique seu comportamento de modo a
se adaptar s restries que o ambiente lhe impe. A cincia cognitiva inuenciou Pfeifer et
al. atravs das ideias de que o corpo participa do processo cognitivo, como discutimos na Se-
o 3.2. O objetivo de Pfeifer ao propor os princpios norteadores da rea era lanar alguns
princpios para que a comunidade de IA Corporicada discutisse e que os princpios acabassem
evoluindo atravs de uma discusso dos pesquisadores, que modicariam os princpios existen-
tes e sugeririam novos princpios. Os autores deixam em aberto a possibilidade de existirem
mais princpios a serem desenvolvidos pela comunidade de IA.
Os princpios de Pfeifer et al. esto divididos em dois tipos: os princpios de pro-
cedimento de projeto ("design procedure principles"), que eles chamam de princpios P, e os
princpios de projeto do agente ("agent design principles"), que os autores chamam de prin-
cpios A. Os princpios P esto ligado maneira que se deve proceder em um projeto de IA
Corporicada e o modo que se deve analis-lo. Os princpios A dizem respeito ao projeto do
agente em si, seja ele um rob ou uma simulao. As Tabelas 3.1 e 3.2 reproduzem os princpios
P e A, respectivamente, descritos por Pfeifer, Iida e Bongard em (PFEIFER; IIDA; BONGARD,
2005), que iremos detalhar a seguir.
O princpio P1 trata da compreenso do sistema atravs da sua construo, ou seja,
esse princpio guia o projetista a se preocupar em como construir um sistema de modo que ele
possa ajudar na compreenso do fenmeno que reproduz. Por exemplo, um rob que reproduz
o andar de um inseto deve ser construdo de modo a ajudar na explicao da locomoo do
inseto, ou uma simulao de inteligncia humana deve ajudar a explicar a mesma. Segundo
Froese e Ziemke, o princpio P1 ajuda-nos a compreender o fenmeno da vida e da mente. Isso
ca claro se pensarmos no projeto de um agente com caractersticas de ser vivo e da mente
humana feito a partir do princpio P1. O princpio P2 envolve o conceito de emergncia. A
emergncia um fenmeno que ocorre em sistemas cuja interao de suas partes gera, ou faz
emergir, um comportamento global do sistema no redutvel s partes. No caso do princpio P2,
43
Rtulo Nome Descrio
A1 Trs constituintes Nicho ecolgico, tarefas e o agente sempre deve ser levado em
conta.
A2 Agente completo Agentes corporicados, autnomos, autossucientes, situados.
A3 Processos paralelos, fol-
gadamente acoplados
Processos paralelos, assncronos, parcialmente autnomos, larga-
mente acoplados atravs de interao com o ambiente.
A4 Coordenao sensrio-
motora
Comportamento sensrio-motor coordenado com respeito ao
alvo; estmulo sensorial auto-gerado.
A5 Projeto barato Explorao de nicho e interao; parcimnia.
A6 Redundncia Sobreposio parcial de funcionalidades baseadas em processos
fsicos diferentes.
A7 Equilbrio ecolgico Equilbrio na complexidade dos sistemas sensorial, motor e neu-
ral: distribuio de tarefas entre morfologia, materiais e controle.
A8 Valor Foras motrizes; mecanismos de desenvolvimento; auto-
organizao.
Tabela 3.2: Princpios de Projeto do Agente
Fonte:(PFEIFER; IIDA; BONGARD, 2005)
a emergncia est presente no sentido da no pr-programao. Para Pfeifer et al., o compor-
tamento do agente deve emergir e no ser programado. Os autores armam que a emergncia
um fenmeno gradual e que quanto menos for programado e mais emergir, melhor. Emer-
gncia pode dar ao agente um grau de adaptao, j que de situaes diferentes podem emergir
comportamentos diferentes.
O princpio P3 fala sobre a variedade de comportamento que o agente deve apresen-
tar em situaes similares. A ideia que o comportamento de um ser vivo no algortmico, seu
comportamento deve variar pelo menos um pouco quando se encontra em uma mesma situao
pela qual j passou. Um ser humano, por exemplo, no consegue repetir exatamente o mesmo
movimento duas vezes, a no ser que treine muito. O princpio P4 diz que uma explicao a
respeito do comportamento do agente tem que considerar que ele est embutido em trs escalas
de tempo: o presente imediato, o desenvolvimento do prprio agente durante a sua vida, e a
evoluo da espcie ou do seu nicho. Essas trs escalas de tempo no so separadas, elas s
aparecem assim para efeitos de entendimento. O ltimo dos princpios P trata do esquema de
referncia ao se analisar um agente. Primeiro deve-se saber em que perspectiva ele est sendo
analisado, se da perspectiva do prprio agente, de um observador externo ou do projetista. Se
sempre nos posicionarmos como um observador externo, por exemplo, o argumento do quarto
chins torna-se nulo. Outro aspecto deste princpio que ele lembra o princpio P2 ao dizer que
o comportamento no redutvel a mecanismos internos. Por ltimo, o princpio P5 tambm
fala que um aparente comportamento complexo no implica complexidade do mecanismo, a
complexidade do ambiente que o agente habita tambm fundamental no surgimento de com-
portamentos complexos.
Vamos detalhar agora os princpios do agente. O princpio A1 diz que o agente no
deve ser projetado isolado. Ao se projetar um agente corporicado, deve-se levar em consi-
derao as tarefas que se deseja que ele execute, o ambiente e o prprio agente. O princpio
44
A2 arma que os agentes devem ser independentes com relao a outros agentes, devem ser
autossucientes e projetados como um sistema fsico e obter informaes do ambiente atra-
vs de seus sensores. O princpio A3 diz que a cognio resultado da interao de vrios
processos paralelos, assncronos e no rigidamente acoplados. O princpio A4 diz que todo
comportamento inteligente deve ser concebido como coordenao sensrio-motora. O agente
deve estruturar seus sensores atravs de uma interao eciente com o ambiente. J presente
nos robs de Brooks, esse princpio o que mais diretamente se ope ao representacionalismo
da IA Simblica.
O Princpio A5 diz que se deve aproveitar as caractersticas fsicas do ambiente do
agente. Como, por exemplo, robs que utilizam rodas por seu ambiente ser feito s de reas
planas. Esse princpio est relacionado com os princpios P3 e A1, pois ambos sugerem o enten-
dimento e construo integrado do agente e ambiente. A6 fala da importncia de subsistemas
do agente se sobreporem em respeito a alguma funcionalidade com intuito de dar mais robustez
ao agente. No uma questo de ter dois subsistemas iguais, mas subsistemas distintos que
digam respeito a uma mesma funcionalidade. Por exemplo, o sistema visual e ttil ajudam-
nos a compor nossa noo espacial. A7 um princpio com duas partes: a primeira diz que
a complexidade do ambiente deve ter uma equivalncia na complexidade do agente; mundos
mais complexos requerem sistemas sensoriais, motores e neurais mais complexos. A segunda
diz que dado um ambiente, deve-se projetar a morfologia e o material para que se facilite o
controle; o objetivo que se consiga acoplar a dinmica fsica com a dinmica do controle. O
ltimo princpio, A8, diz que o agente deve ter um sistema de valores para distinguir aes boas
de aes ruins, podendo modicar e evoluir seus comportamentos.
Podemos observar que os princpios propostos por Pfeifer et al. possuem algumas
redundncias e a falta de um esquema conceitual de mais alto nvel que organize os princpios,
para alm da simples diviso em dois tipos. Como dissemos, Pfeifer lanou a ideia dos prin-
cpios para que, com a contribuio da comunidade de IA Corporicada, a rea passasse a ser
mais organizada. Porm, a falta de desenvolvimento desses princpios de forma explcita ou
implcita evidencia que a rea ainda no est madura.
3.4 Experimentos em IA Corporicada
Nessa seo, iremos relatar trs trabalhos de IA corporicada que ilustram o esta-
belecimento do lao percepo-ao e como ele se adapta a modicaes no ambiente.
3.4.1 Di Paolo
Em (DI PAOLO, 2000) Di Paolo utiliza uma simulao de robs para testar as ideias
de Ashby sobre homeostase(ASHBY, 1960) apud (DI PAOLO, 2000). De acordo com essa
teoria, os seres vivos possuem "variveis essenciais" que o corpo tem que manter estveis para
a sua sobrevivncia. Quando h estabilidade o ser vivo est adaptado, e quando h instabilidade
o ser vivo precisa realizar alguma ao de modo a reequilibrar suas variveis essenciais. Por
45
Figura 3.5: Rob de Di Paolo treinado para fazer fototaxia
Fonte:(DI PAOLO, 2000).
exemplo, em animais, a fome um indcio de que uma varivel essencial est instvel, para
reequilibrar suas variveis o animal precisa comer.
Di Paolo recria em robs simulados um experimento j aplicado em animais e seres
humanos, emque estes usamculos que invertema imagemque chega ao sujeito da experincia.
H casos de experimentos que fazem a inverso horizontal e casos em que fazem a inverso
vertical. Em seres humanos o experimento mostrou que o indivduo usando os culos, em um
primeiro momento, no consegue distinguir objetos no seu campo de viso. Somente quando
comea a se locomover e interagir tambm com o tato, esse indivduo volta a enxergar como
antes de vestir os culos. No experimento de Di Paolo, ele cria robs simulados e pretende que,
atravs da aplicao do conceito de homeostase, os robs consigam se orientar depois de terem
seus sensores de luz invertidos.
Os robs so circulares com um motor em cada lado, que podem ir para frente e
para trs de forma independente. Os robs tm tambm dois sensores de luz conforme a Figura
3.5, podendo variar conforme as linhas pontilhadas. O robs so equipados, ainda, com redes
neurais de oito neurnios, em que cada motor e cada sensor tm dois neurnios para control-los
e os neurnios so totalmente conectados entre si. O autor treina os robs para se locomoverem
em direo a um ponto de luz que aparece no seu ambiente; esse tipo de locomoo chamada
de fototaxia. Durante o treinamento a fonte de luz aparece por um longo perodo de tempo;
depois muda de lugar, reaparecendo dentro do campo de viso do rob, mas um pouco mais
distante. Uma vez treinados, ou seja, quando j conseguem se aproximar da luz toda vez que
ela muda de lugar, os robs tm os seus sensores invertidos.
Metade dos robs treinados atingiu a estabilidade para fototaxia, e desses, a metade
conseguiu se adaptar quando tiveram seus sensores invertidos. Alm disso, foi constatado que
quanto maior o tempo que o rob passa antes de ter os sensores invertidos, maior o tempo
necessrio para se adaptar depois da inverso. Para Di Paolo, essa relao entre o tempo de
adaptao e o tempo pr-inverso demonstra que a rede neural tende a se "enrijecer", no sentido
de que ca mais difcil de se modicar, quanto maior for seu treinamento. Di Paolo conclui que,
46
a capacidade de suas redes neurais de fazer com que o rob se readapte para realizar fototaxia
mesmo com os sensores invertidos, um passo importante na direo da implementao do
conceito de homeostase.
3.4.2 Wood e Di Paolo
Em (WOOD; DI PAOLO, 2007) Wood e Di Paolo tambm investigam a homeostase
atravs da simulao de robs. A ideia repetir um experimento feito com crianas entre sete
e doze meses de idade realizado por Piaget. Nesse experimento uma criana ca sentada a uma
mesa que tem dois buracos, A e B; um cientista chama a ateno da criana com um brinquedo
e o coloca no buraco A, e pouco tempo depois permitido criana pegar o brinquedo. Esse
procedimento repetido algumas vezes, e em seguida o cientista coloca o brinquedo no buraco
B, esperando o mesmo tempo de antes para permitir que a criana pegue o brinquedo. No
experimento a criana sempre tenta pegar o brinquedo no buraco A, mesmo tendo visto que ele
foi colocado no buraco B.
Os autores repetem o experimento com robs para testar se modelos de simulao
minimal podem auxiliar, de alguma forma, a explicao de fenmenos complexos do desenvol-
vimento humano. Um rob circular com dois motores diametralmente opostos e dois sensores
acsticos posicionados simetricamente a 45dos motores utilizado. O rob pode mover um
pouco seus sensores em volta do seu corpo, podendo controlar sua "ateno" auditiva. Os robs
podem ir para frente e para trs, seus corpos so rgidos, pequenos e de pouca massa. Usa uma
rede neural recorrente de tempo contnuo com nove ns, um para cada sensor, um para cada
motor, uma rede completamente conectada de quatro ns e o ltimo neurnio para controlar o
movimento dos sensores em volta do corpo.
O experimento feito auditivamente com duas fontes sonoras colocadas simetrica-
mente em relao a posio inicial do rob. Cada tentativa dividida em trs fases, conforme
ilustra a Figura 3.6: na primeira fase uma das fontes emite som, na segunda fase h a espera,
e, como no experimento original, na terceira fase o rob deve se aproximar da fonte que estava
emitindo som na primeira fase. Em todas as fases permitido ao rob rotacionar os sensores.
Foram feitos dois experimentos, que se diferem no modo como os pesos das conexes entre
neurnios so calculados conforme descreveremos.
Experimento 1 Aqui, os pesos das conexes entre os neurnios so congurados por um
mecanismo baseado em aprendizado Hebbiano. Alm disso, utiliza-se um algoritmo gentico
para evoluir a rede, sem a restrio de homeostase. A primeira tentativa produziu robs com
diculdade de cumprir a tarefa e com comportamento estereotipado. Ento, o experimento
sofreu uma leve modicao para que na fase de aproximao ambas as fontes emitissem um
som alto. Desse modo, o rob no perde a referncia do local em que se encontram as fontes
sonoras. Com a modicao, o experimento produziu robs que em dez de doze tentativas
acertaram qual a fonte que emitiu som na primeira fase, com trajetrias menos estereotipadas.
Poucos robs desse experimento tiveram o padro perseverante que as crianas apresentaram
no experimento original, ou seja, poucos robs erraram a fonte quando elas foram trocadas.
47
Figura 3.6: Fases do Experimento de Wood e Di Paolo
Fonte:(WOOD; DI PAOLO, 2007)
Experimento 2 Nesse experimento h uso da teoria da homeostase. Aqui, a varivel essen-
cial a frequncia com que o neurnio "dispara", ou seja, emite sinais de sada. Esta frequncia
determinar os pesos dos sinais de entrada no mesmo neurnio. O experimento 2 gerou robs
com menos erros, a maioria deles presente no perodo de troca da fonte emissora. O que ca-
racteriza, segundo os autores, que os erros deste experimento foram perseverantes. Foi ainda
observado que os erros durante a troca diminuem com o aumento de tentativas.
Os autores se utilizam da simulao de aspectos da cognio na tentativa de auxiliar
na explicao de fenmenos da cognio humana. Porm, o experimento demonstra que o rob
resolve de maneira simples o problema. Para haver semelhana com o experimento original,
necessrio levar mais aspectos da cognio humana em considerao, no caso a homeostase.
Certamente o experimento no reproduz a forma humana de resolver o problema e no se sabe
o quanto de outros aspectos falta. Ento, o melhor a se fazer resolver o problema da imple-
mentao de inteligncia articial primeiro para depois utiliz-la para traar paralelos com a
cognio humana.
3.4.3 Izquierdo e Harvey
Em (IZQUIERDO; HARVEY, 2007) Izquierdo e Harvey investigam a possibilidade
de um rob com plasticidade reaprender. Baseados em um experimento feito com nemtodos,
em que o verme faz uma associao de temperatura e comida, os autores reproduzem o expe-
rimento utilizando robs. Nesse experimento, os robs tm que fazer uma associao entre a
temperatura e a qualidade da comida em dois tipos de ambiente e reaprender, ou seja, modicar
sua preferncia por temperatura quando necessrio.
O ambiente do rob composto por uma arena de duas dimenses com gradiente
trmico em uma das dimenses e contm comidas nutritivas e comidas venenosas. H dois
tipos de ambientes: os e os . Nos ambientes tipo a comida nutritiva se encontra na regio
quente do ambiente. J nos ambientes tipo , a comida nutritiva se encontra na regio fria.
O rob constitudo de corpo circular, com dois motores diametralmente opostos
e dois sensores, um de temperatura e um sensor de comida. O rob s pode se mover para
48
Estgio 1 2 3 4 5
[0, ] [0, 2) [0, 2) [0, 2) [0, 2)
k 1 1 1 2 5
p 1 1 5 [1,5] [1,5]
Tabela 3.3: Parmetros dos estgios de complexidade do experimento
Fonte:(IZQUIERDO; HARVEY, 2007)
frente e virar. A comida s pode ser percebida se o agente estiver muito prximo. Os testes
foram feitos com robs utilizando redes neurais de trs, quatro e cinco neurnios. Durante o
experimento o rob pode ser mudado de lugar abruptamente, o ambiente pode mudar de tipo e a
posio angular inicial do rob tambm pode se modicar. Os autores estabeleceram, conforme
a Tabela 3.3, cinco estgios de complexidade do ambiente. Onde representa o a variao do
ngulo inicial, k o nmero de mudanas na posio do rob e p a quantidade de mudanas
do tipo de ambiente. Um rob s passa para o estgio seguinte se tiver sido bem sucedido
no estgio em que se encontra. Ou seja, se conseguir buscar comida nutritiva mesmo com as
mudanas do estgio. Nenhum rob com trs neurnios passou do estgio dois. A maioria dos
robs com quatro neurnios foi at o estgios dois, mas muitos foram at o estgio cinco. Entra
os robs com cinco neurnios, a grande maioria foi at o estgio cinco. Os autores resolveram,
ento, analisar os robs com quatro neurnios por terem sido os mais simples a chegarem ao
ltimo estgio.
No estgio cinco, os robs tm mudana da posio angular inicial no intervalo
[0, 2), so movidos abruptamente cinco vezes e ocorrem entre uma e cinco mudanas no tipo
de ambiente. Na anlise dos agente de quatro neurnios, os autores mostram que a funo
objetivo do algoritmo gentico utilizado para treinar os robs cai drasticamente nas primeiras
mudanas de ambiente, porm quase no se altera nas ltimas.
A performance dos melhores robs foi testada em mais dez experincias de avali-
ao com dez mudanas de ambiente cada. Os agentes obtiveram sucesso na maior parte das
vezes. Primeiro, o rob procura comida navegando gradiente abaixo, mas muda de direo an-
tes de atingir a regio onde normalmente se encontra a comida; ele ainda no sabe em que tipo
de ambiente se encontra. Quando movido abruptamente depois de encontrar comida, ele vai
diretamente onde a comida estava anteriormente. Quando h mudana no tipo de ambiente, o
agente s navega em direo contrria comida na primeira tentativa, depois vai diretamente
para o lado correto. Tambm foi testado um ambiente com comida nutritiva em ambos os lados;
nesse caso, o agente prefere ir sempre para onde encontrou comida na ltima tentativa.
A interpretao feita pelos autores do trabalho parece confundir a percepo do
agente com a percepo de um observador externo. Isso se evidencia ao utilizarem conceitos
subjetivos para descrever aes do rob, falando da preferncia do mesmo. Quanto a reaprendi-
zagem, esse conceito est ligado ao fato de se modicar a aprendizagem que se tinha a respeito
de algo, sendo que o que tinha sido aprendido anteriormente deve ser esquecido. Por exemplo,
se algum tem que reaprender a utilizar uma mquina, tem-se a ideia de que a maneira antiga de
utilizao no ser mais empregada. Porm, a ideia que o experimento passa de uma aprendi-
zagem que ainda no terminou quando o rob aprende que um dos lados do ambiente contm
49
comida. O aprendizado dele continua quando aprende que o lado da comida pode se inverter.
3.4.4 Crtica
Em geral, nos trabalhos da IA Corporicada, o que se nota uma desestruturao
da rea. A ideia de Pfeifer, com seus princpios, realmente necessria rea. Os conceitos
utilizados so ou mal denidos ou sem uniformidade quando se analisa trabalhos de autores
diferentes. Ainda h uma carncia de discusso terica na IA Corporicada.
Em particular, possvel notar que grande parte dos pesquisadores da rea trata a
realidade como objetiva. Ou seja, eles montam seus experimentos sem levar em conta que os
diferentes corpos de seres inteligentes vo levar a diferentes compreenses acerca do mundo.
Isso ocorre tambm nos trabalhos que mostramos. No primeiro e segundo experimentos que
discutimos, os autores esperam utilizar agente com corpos completamente distintos dos nossos,
esperando obterem resultados similares. Como no caso da inverso de sensores ou no compor-
tamento perseverante. No terceiro experimento, conceitos de alto nvel, formulados a partir da
nossa percepo de mundo so utilizados para explicar o comportamento de um rob que bem
mais simples que ns.
3.5 Crticas IA Corporicada
As crticas apresentadas aqui foram feitas principalmente por trs pesquisadores,
Dreyfus (DREYFUS, 2007), Froese e Ziemke (FROESE; ZIEMKE, 2009). Essas crticas tm
embasamentos distintos, mas se assemelham. Enquanto Dreyfus continua com sua crtica ba-
seada nos lsofos Heidegger e Merleau-Ponty, armando que a IA Corporicada ainda no
"heideggeriana" o suciente, Froese e Ziemke a partir do paradigma enativista, que abordare-
mos no prximo captulo, constroem suas crticas.
Em 2007 Dreyfus publicou um artigo(DREYFUS, 2007) atualizando suas crticas
IA. Assumindo a posio de que as suas crticas IA Simblica ainda so vlidas, ele apresenta
sua viso em relao ao novo paradigma da IA que surgiu com Brooks. Ele chama essa nova
IA de "IA Heideggeriana", termo que ele atribui a Wheeler(WHEELER, 2005).
Dreyfus elogia o trabalho pioneiro de Brooks, armando que se trata de um avano
para a IA. Porm, ele chama ateno para o fato de que os robs de Brooks s respondem a
caractersticas xas do mundo, eles no aprendem e nem esto inseridos em um contexto. A IA
que Dreyfus almeja uma que resolva o frame problem, e, segundo ele, Brooks evita o problema
ao deixar de fora signicado e aprendizado. Para Dreyfus, o aprendizado no se d como uma
ampliao das possibilidades de ao que a mente tema seu dispor emdeterminada situao. Ao
invs disso, o corpo quem aprende a reagir a uma nova situao, aprender ter a capacidade
de deixar o corpo em prontido para agir diante de uma situao. Por exemplo, uma pessoa que
est aprendendo a jogar tnis no o faz de modo a inserir em sua mente novas possibilidades de
ao caso a bola se aproxime de determinado modo. Ningum age a situaes desse tipo atravs
de decises mentais, o corpo deve estar em prontido para reagir, o corpo aprende os modos de
50
ao conforme o contexto de como a bola se aproxima. Dreyfus ainda critica Brooks por ter
proposto uma produo de inteligncia de forma incremental, e ao invs de ter perseguido sua
meta inicial da inteligncia de um inseto, Brooks deu um salto em sua meta, iniciando projeto
para produzir inteligncia humana, o projeto Cog(BROOKS et al., 1999).
Dreyfus tambm critica a proposta de Wheeler (WHEELER, 2005) para a IA. Whe-
eler, bastante inuenciado por Dreyfus, acha que a IA realmente deve se basear em Heidegger,
mas que deve ter representaes orientadas a ao e a resoluo de problemas. Dreyfus diz
que reintroduzir a representao signica um retrocesso para um ponto anterior a Brooks. Mas,
para um ser com inteligncia humana, ele acredita que necessrio que esse ser tenha um corpo
muito parecido com o corpo de um humano, e que tenha motivaes como as de um ser humano.
Para ele, a inteligncia depende de fatores corporais e sociais. Ento para desenvolver uma in-
teligncia humana, esses aspectos tm que ser satisfeitos como os do ser humano. Mesmo que
fosse possvel produzir inteligncia em um computador de mesa, como ele hoje, provvel
que ele tivesse entendimentos a respeito do mundo diferente dos nossos. O que relevante para
ns poderia no ser relevante para o computador. Ele poderia desenvolver um vocabulrio dife-
rente, ou pelo menos um entendimento da linguagem diferente do nosso. A linguagem uma
construo social, o desenvolvimento de linguagem por parte do computador se daria a partir de
interaes com outros seres. Talvez a real diferena entre a linguagem do computador e a nossa
s fosse perceptvel a partir da interao de dois computadores similares, que conseguissem
perceber como relevantes os mesmos aspectos do mundo. Essa distino, entre a linguagem hu-
mana e uma hipottica linguagem do computador, poderia ser de tal maneira que nos impedisse
de perceber o computador como um ser inteligente, mesmo que ele o fosse.
Em 2009 Froese e Ziemke publicaram um artigo(FROESE; ZIEMKE, 2009) que
sintetiza a trajetria da IA at chegar IA Enativa, da qual trataremos no Captulo 4. Nesse
trabalho, eles tambm fazem crticas importante a respeito das limitaes da IA Corporicada.
Froese e Ziemke tambm criticam os resultados de Brooks, armando que seus
robs no resolvem o symbol grounding problem, por terem laos sensrio-motores rgidos.
Froese e Ziemke chamam ateno para o fato de que dizer, como parte dos trabalhos de IA
Corporicada fazem, que um sistema orientado a um objetivo (goal-directed) pode ir de en-
contro ao princpio P5, que fala sobre a questo das perspectivas de anlise do agente, j que
esse objetivo pode ser aparente para quem olha, mas no intrnseco ao sistema. Por exemplo,
um termostato orientado ao objetivo de controlar a temperatura, mas somente de um ponto de
vista externo ao termostato, o objetivo de que o termostato controle a temperatura de quem
o utiliza. Pois, para o prprio termostato, no existe objetivo, ele um aglomerado de pea
compostas de tal forma que a temperatura controlada, mas nenhuma das peas tem o objetivo
de funcionar de determinada maneira, nem o termostato com um todo o tem. Armaes do
tipo "o objetivo de X Y" podem ser errneas se a propriedade Y em questo tiver sido imposta
externamente ( "externally imposed"), por quem fabricou X, ao invs de ser internamente ge-
rado ( "internally generated") pelo prprio X. A ideia de um objetivo internamente gerado ser
aprofundada no Captulo 4.
Os seres inteligentes de que temos conhecimento, e seres vivos em geral, possuem o
objetivo intrnseco de sobreviver. Ento, Froese e Ziemke questionam o que falta a um sistema
51
feito de laos sensrio-motores, para podermos armar que ele gera seus prprios objetivos. A
resposta para tal questionamento est no modo de ser dos sistemas de laos sensrio-motores e
dos seres vivos.
Os seres vivos esto constantemente "funcionando" para manter sua prpria existn-
cia, suas partes funcionam de modo a manter o todo. Eles esto em constante ato de realizao
de si mesmos, o seu modo de ser classicado como "being by doing
3
". J os robs da IA
Corporicada tm seus objetivos traados por um agente externo e, em geral, no tm a ne-
cessidade de se preocupar com aspectos ligados continuidade da sua existncia. Ou seja,
eles devem cumprir o objetivo para o qual foram projetados, a energia necessria para tal, ou
a manuteno de parte defeituosas so preocupaes de outro ser. Esses robs continuam a
existir(ser), mesmo que no faam absolutamente nada, ou mesmo at que estejam desligados.
Por isso, seu modo de ser classicados como "being by being
4
".
Esse tipo de distino nos impede de armar que um sistema puramente responsivo
com um lao de retroalimentao, como caso dos sistemas da IA Corporicada, tm a capaci-
dade de gerar seus prprios objetivos. No Captulo 4, abordaremos mais a fundo a importncia
dessa capacidade para se armar que um sistema inteligente.
3
Ser atravs do fazer
4
Ser por ser
52
53
4 INTELIGNCIA ARTIFICIAL ENATIVA
No captulo anterior apresentamos as bases tericas e crticas Inteligncia Arti-
cial Corporicada. Diante das crticas, percebemos que necessrio voltarmos um passo e
olhar de forma ampla para enxergar o caminho que estamos tomando. Com a percepo de
que os signicados das, e mesmo as prprias, tarefas e objetivos dos seres articiais devem ser
intrnsecos a eles, no podemos imp-las externamente. fcil aqui perceber um paralelo com
seres vivos, os nicos seres dos quais sabemos serem capazes de gerar intrinsecamente seus
prprios propsitos.
Nesse captulo iremos, na Seo 4.1, apresentar a teoria biolgica da autopoiese,
de Maturana e Varela. Mostraremos como um ser autopoitico capaz de gerar sua prpria
identidade autonomamente e tambm uma normatividade. Na Seo 4.2, falaremos a respeito
da teoria de Varela sobre como o ser autopoitico capaz de constituir uma perspectiva, se
utilizando da normatividade gerada pela autopoiese. Ainda na teoria de Varela, mostraremos
como, a partir da perspectiva, ele arma que o ser vivo capaz de dar signicado s suas
interaes com o meio.
Na Seo 4.3, falaremos da objeo feita por Di Paolo a respeito da teoria de Varela.
Para Di Paolo autopoiese no suciente para que o organismo d signicado s suas interaes
com o mundo, ele arma que a adaptatividade essencial para tal, nessa seo mostraremos as
consequncias da adaptatividade.
Esses conceitos relativos cognio, derivados da teoria da autopoiese, foram in-
corporados pela Cincia Cognitiva, resultando na Cincia Cognitiva Enativa. Os pesquisadores
de IA perceberam que os conceitos da Cincia Cognitiva Enativa se encaixava com a resposta
para as crticas da IA Corporicada. Eles trouxeram esse conceitos para a IA, dando origem
Inteligncia Articial Enativa, da qual falaremos na Seo 4.4. Ainda nessa seo, falaremos
da proposta de Froese e Ziemke de princpios para a IA Enativa.
4.1 Autopoiese: A forma de organizao dos seres vivos
Podemos observar na biologia que, tradicionalmente, a vida caracterizada de duas
formas. Em uma delas, a vida caracterizada em termos de mecanismos, sem os quais a vida
no seria possvel, ou pelo menos que est presente em todos os seres vivos conhecidos hoje:
o DNA. Na outra viso, o que essencial vida so propriedades de alto nvel, ento s dito
vivo aquilo que nasce, cresce, reproduz-se e morre. Maturana e Varela, na dcada de 1970,
propuseram uma caracterizao alternativa s tradicionais da biologia. Sua caracterizao da
vida feita em termos da organizao sistmica dos seres vivos. Seu objetivo, entre outros, era
identicar, como essencial a vida, uma propriedade que no fosse contingente e fosse capaz de
abranger potenciais formas de vida desconhecidas pelo ser humano. Para Maturana e Varela, o
que caracteriza um ser vivo o fato de ele estar em constante processo de autoproduo.
A respeito da organizao do ser vivo, Varela diz:
54
At present there is no formulation of this organization, mainly because the great
developments of molecular, genetic and evolutionary notions in contemporary bi-
ology have led to the overemphasis of isolated components, e.g. to consider re-
production as a necessary feature of the living organization and, hence, not to ask
about the organization which makes a living system a whole, autonomous unity that
is alive regardless of whether it reproduces or not.
1
(VARELA, 1991)
A teoria de Maturana e Varela se aplica diretamente s formas mnimas de vida.
Considere uma bactria, ela composta de organelas, uma membrana e o ncleo celular. Essas
estruturas, atravs de um uxo de molculas e energia, produzem componentes que constituem
as prprias estruturas. Ou seja, se olharmos para a bactria como um todo, ela est constante-
mente se autoproduzindo. Assim, podemos perceber processos de transformao material que
se concatenam, e resultam na produo de componentes que realizam esses mesmos proces-
sos. A teoria de Maturana e Varela chamada de autopoiese, autopoiesis em grego signica
autoproduo. Varela dene um sistema autopoitico:
An autopoietic system is organized (dened as unity) as a network of processes
of production (synthesis and destruction) of components such that these compo-
nents:
(i) continuously regenerate and realize the network that produces them, and
(ii) constitute the system as a distinguishable unity in the domain in which they
exist.
2
(VARELA, 1991)
A autopoiese um caso particular de auto-organizao. Auto-organizao um tipo
de fenmeno que d origem, de maneira espontnea, a umsistema que se mantmenquanto con-
dies especcas so satisfeitas. Os sistemas auto-organizados se caracterizam por existirem
longe do equilbrio. Isto , eles se encontram em constante propenso a se desfazerem. O tor-
nado um exemplo de sistema auto-organizado, que se forma espontaneamente em condies
atmosfricas de temperatura e presso especcas. Outro exemplo so as clulas de conveco,
que se formam em um corpo uido de forma a otimizar o uxo de temperatura, decorrente da
diferena de temperatura entre dois extremos do uido.
Destacamos dois aspectos importantes a respeito dos padres e sistemas auto-organizados.
O primeiro que para poder se manifestar, o fenmeno da auto-organizao depende do esta-
belecimento de um conjunto de condies externas. Apesar de determinarem a possibilidade
de ocorrncia do fenmeno, essas condies no determinam a forma especca do fenmeno.
1
No momento no existe formulao dessa organizao, principalmente por que o grande desenvolvimento das
noes moleculares, genticas e evolutivas na biologia contempornea levou a uma nfase exacerbada dos com-
ponentes isolados, e.g. considerar a reproduo como um aspecto necessrio da organizao viva e, portanto, no
perguntar sobre a organizao que faz um sistema vivo um todo, uma unidade autnoma, que est vivo indepen-
dente de se reproduzir ou no.
2
Um sistema autopoitico organizado(denido como unidade) como uma rede de processos de produo
(sntese e destruio) de componentes tais que esses componentes:
(i) continuamente regeneram e efetuam a rede que os produz, e
(ii) constituem o sistema como uma unidade distinguvel no domnio no qual eles existem.
55
Essa forma determinada pelas caractersticas e relaes internas dos componentes. isso que
motiva o termo "auto-organizao". Por exemplo, no caso das clulas de conveco, o que de-
termina seu formato so as propriedades do uido, como o estado fsico em que se encontra e
sua viscosidade, por exemplo. O segundo aspecto que, tipicamente, quando as condies ex-
ternas que permitem a manifestao do fenmeno de auto-organizao desaparecem, o padro
ou sistema auto-organizado se desfaz. Por exemplo, quando as condies atmosfricas mudam,
o tornado se desfaz, ou quando a diferena entre as temperaturas nos lados opostos do uido
aumenta ou diminui muito, as clulas de conveco cessam.
Autopoiese tambm um exemplo de auto-organizao. Porm, o sistema auto-
poitico possui uma caracterstica distinta dos demais sistemas auto-organizados. Di Paolo fala
a respeito da diferena entre autopoiese e as demais formas de auto-organizao:
An essential difference between autopoiesis and the rest of the wider class of
self-organization is that what is by denition a process of material self-production
must as a result generate a self-distinguishing concrete unity and not simply a phy-
sical pattern. The unity is self-distinguishing because it is constructed and sustai-
ned by its own activity in spite of the equalizing physical tendencies.
3
(DI PAOLO,
2005)
Uma vez constitudo, o sistema autopoitico resiste se desfazer. No caso do tor-
nado no existe nada intrnseco a ele que resista sua extino, ou que, possivelmente, estimule
a continuidade das condies atmosfricas que o geraram, de forma que o prprio tornado no
se desfaa. J uma bactria sem contato com seus nutrientes no se desfaz de imediato, somente
com a falta prolongada destes que suas partes comeam a se desfazer, alm de ser capaz de se
deslocar em busca de sua fonte de nutrientes. Note que a resistncia a ser desfeito nos d a ideia
que o sistema autopoitico possui objetivo intrnseco de continuidade e ainda uma capacidade
de ao para alcanar esse objetivo. Nas Sees 4.2 e 4.3 aprofundaremos esses tpicos.
Um organismo autopoitico est constantemente se autoproduzindo: todos os pro-
cessos internos do sistema funcionam de tal forma que o sistema se mantm. Por exemplo, em
uma clula, todas as suas partes atuam para produzir a prpria clula. Na autopoiese, cada parte
da clula funciona de modo a produzir alguma outra parte da clula, por transitividade cada
parte da clula essencial na sua prpria produo. Como dissemos, sistemas auto-organizado,
como a autopoiese, existem longe do equilbrio. Na autopoiese o funcionamento das partes
do sistema garantem a continuidade do sistema, j que a degradao de uma parte suprimida
quando outra parte a produz. Se uma parte A do sistema para seu processo de produo, isto
faz com que outra parte B, que era produzida por A, se degrade e no seja recomposta, isso far
com que a parte B tambm pare seu processo de produo, afetando todas as partes do sistema
em cadeia. Eventualmente a parte que produz a parte A tambm afetada. Assim, nota-se a
presena de uma circularidade na autoproduo do sistema autopoitico.
3
Uma diferena essencial entre autopoiese e o resto da classe da auto-organizao que o que , por denio,
um processo de autoproduo material deve, como resultado, gerar uma unidade concreta auto-distinguvel e no
somente um padro fsico. Uma unidade auto-distinguvel porque construdo e mantido sua prpria atividade,
ao invs de tendncias fsicas equalizadas.
56
Um sistema autopoitico est sujeito a um constante uxo material e energtico.
Na verdade, sua continuidade como sistema auto-organizado depende desse uxo. a partir
dele que o sistema consegue obter energia para a contnua produo das parte que o constituem.
Fisicamente falando, o organismo autopoitico est em constante modicao dos constituintes
de suas partes, isto , as molculas que o constituem fazem parte desse uxo material. Ape-
sar de estar sempre se modicando, h algo no ser autopoitico que permanece constante: sua
organizao. Varela diz one way to spotlight the specicity of autopoiesis is to think of it
self-referentially as that organization which maintains the very organization itself as an invari-
ant.
4
(VARELA, 1991).
Como dissemos, a noo de autopoiese retrata formas mnimas de vida. Mas a
ideia de uma organizao que se mantm invariante atravs do uxo material inerente a seus
componentes, pode ser ampliada atravs da noo de fechamento organizacional
5
. Froese e
Ziemke denem fechamento organizacional como:
We shall say that autonomous systems are organizationally closed. That is, their
organization is characterized by processes such that
1. the processes are related as a network, so that they recursively depend on
each other in the generation and realization of the processes themselves, and
2. they constitute the system as a unity recognizable in the space (domain) in
which the processes exist.
6
(FROESE; ZIEMKE, 2009)
Isto quer dizer que o sistema organizacionalmente fechado uma rede recorrente
de processos interdependentes. Voltando ao exemplo da clula, podemos olhar para suas partes
e perceber que elas no esto diretamente produzindo "a clula", mas produzindo as partes que
a constituem. Cada parte da clula produz, ou participa da produo de uma ou mais partes,
ento podemos dizer que esses processos so interdependentes. Porm, a noo de fechamento
organizacional pode ser aplicada tambm a seres multicelulares. O ser humano um exem-
plo, nossos rgo so os processos mencionados na denio, que nos constituem como uma
unidade. Note que a prpria dependncia que existe entre os processos determina quem faz
parte da clula, ou seja, o que est dentro e o que est fora da clula. Assim, dizemos que o
fechamento organizacional confere ao organismo um carter de identidade. Essa identidade
independente de um observador externo. Manter e sustentar essa identidade caracteriza o sis-
tema como autnomo. Como suas partes atuam em funo da manuteno das prprias partes,
podemos armar que elas funcionam para a manuteno do sistema como um todo. Note que o
funcionamento da totalidade das partes, ou seja, o sistema, funciona tambm para a manuteno
4
um maneira de destacar a especicidade da autopoiese pensar sobre ela de modo autorreferencial como a
organizao que mantm a prpria organizao invariante.
5
Froese e Ziemke em (FROESE; ZIEMKE, 2009) armam que tambm usado hoje o termo fechamento
operacional para denotar o fechamento organizacional.
6
Ns dizemos que sistemas autnomos so organizacionalmente fechados. Isso , sua organizao caracteri-
zada por processos tais que
1. os processos so relacionados como uma rede, de modo que eles dependam recursivamente um do outro na
gerao e realizao dos prprios processos, e
2. eles constituem o sistema como uma unidade reconhecvel no espao (domnio) no qual os processos exitem.
57
do sistema. Assim, podemos identicar um propsito intrnseco existncia do sistema, que
o de se manter funcionando, ou se manter vivo. Desse modo, temos que um organismo com
a propriedade de fechamento organizacional gera sua prpria lei, o que fundamentalmente o
caracteriza como autnomo.
A investigao a respeito de seres vivos, e como se d o surgimento de autonomia
nos mesmos, se reetem na IA como resposta s a IA Corporicada. Ainda no temos uma
ideia de como reproduzir articialmente essas caractersticas(autonomia, identidade e propsito
intrnseco), mas a teoria autopoitica nos indica o caminho pelo qual se pode tentar isol-las
para reproduzi-las. Na Seo 4.2 nos aprofundaremos nas consequncias da teoria autopoitica
e na discusso a respeito de como um organismo autopoitico consegue dar signicado s suas
interaes com seu meio.
4.2 Biologia da intencionalidade
At agora tratamos dos sistemas autopoiticos como uma unidade em si, mas no
falamos da sua relao com seu meio. Como dissemos na Seo 4.1, em geral, as entidades
auto-organizadas dependem que condies especcas dos seus meios sejam satisfeitas para
surgirem e persistirem. Porm, com os sistemas autopoiticos h uma particularidade, eles so
capazes de persistirem mesmo que tenham sido desfeitas as condies que lhe deram origem.
Para isso, esto constantemente se autoproduzindo, atravs de um uxo material e energtico.
Esse uxo compartilhado com seu meio, com o qual o sistema troca molculas. O processo
de autoproduo tambm confere ao sistema a capacidade de se estabelecer como uma entidade
separada de seu meio, isto , de ter uma identidade. Varela diz sobre a relao do sistema
autopoitico com seu meio:
It is ex-hypothesis evident that an autopoietic system depends on its physico-
chemical mileu for its conservation as a separate entity, otherwise it would dissolve
back into it. Whence the intriguing paradoxicality proper to an autonomous iden-
tity: the living system must distinguish itself from its environment, while at the
same time maintaining its coupling;
7
(VARELA, 1991)
Apesar de Varela falar em paradoxo, as duas propriedades aparentemente antagni-
cas so caractersticas que se complementam na estrutura autopoitica. O acoplamento com o
meio o que permite a continuidade da entidade e, portanto, sua distino do meio. Por outro
lado, sem a distino a entidade seria igual ao seu meio e no teria como haver o acoplamento.
Note que essa relao de acoplamento do sistema autopoitico com seu meio assimtrica. Em
outras palavras, h uma diferenciao dos papeis das duas entidades que se acoplam, sendo o
sistema autopoitico que cumpre o papel ativo no acoplamento. Como dissemos na Seo 4.1,
ao se denir como uma unidade, o ser autopoitico simultaneamente dene o que ca do lado
7
evidente por hiptese que um sistema autopoitico depende de seu meio fsico-qumico para sua conservao
como entidade separada, do contrrio ele se dissolveria. Da a paradoxalidade intrigante prpria de uma identidade
autnoma: o sistema vivo deve distinguir-se de seu meio, enquanto ao mesmo tempo mantm seu acoplamento;
58
de fora. Essa diviso s faz sentido do lado de dentro da entidade. A partir dessa diviso h o
estabelecimento de uma perspectiva, como diz Varela:
the autopoietic unity creates a perspective from which the exterior is one, which
cannot be confused with the physical surroundings as they appear to us as obser-
vers, the land of physical and chemical laws simpliciter, devoid of such perspecti-
vism.
8
(VARELA, 1991)
Isso quer dizer que, uma vez estabelecida a unidade autopoitica, seu meio no ,
do ponto de vista da prpria unidade, a coleo de objetos fsico-qumicos que existiria sem
a presena da unidade. Por exemplo, considere uma bactria se deslocando em um gradiente
de sacarose, ela se desloca em direo a regies com maiores concentraes de acar. O
gradiente s interessante para ns porque a bactria aponta para ele como relevante. Agora
podemos fazer uma distino entre ambiente e mundo. Ambiente como o meio se apresenta
a um observador sem a referncia de uma unidade autnoma. Mundo como o ambiente se
apresenta para o sistema autopoitico. O mundo do organismo autopoitico surge no momento
que surge sua identidade, ambos so consequncia da dinmica que rege a autopoiese.
A diferena entre o ambiente e o mundo o que Varela chama de surplus of signi-
cation
9
(VARELA, 1991). De acordo com o bilogo, esse surplus infesta o entendimento do
ser vivo e da cognio. Ele diz ainda que o surplus a me da intencionalidade, no sentido de
que ele quem d condies de o sistema produzir suas intenes. Essa diferena entre ambiente
e mundo ca clara ao observamos que, no caso da bactria citado acima, o acar s ganha o
signicado de comida quando a bactria est presente e o utiliza para permitir a continuao de
sua identidade. Ou seja, o prprio ser autopoitico quem contextualiza o seu meio atravs da
sua inteno ao interagir com ele.
O mundo do sistema construdo a partir das regularidades das leis que governam
o ambiente. Por exemplo a capacidade do acar de criar um gradiente e de atravessar a mem-
brana o que possibilita a bactria us-lo para se locomover na direo de maior concentrao.
As propriedades do ambiente so o que garantem a continuidade do acoplamento. A unidade
autopoitica est incessantemente se confrontando com encontros com ambiente, sejam eles
perturbaes, choques ou o acoplamento, ela os encara de uma perspectiva que no intrnseca
aos encontros. Na verdade, essa perspectiva dependente do organismo autopoitico. Como
diz Varela:
what is meaningful for an organism is precisely given by its constitution as a dis-
tributed process, with an indissociable link between local processes where an inte-
raction occurs, and the coordinated entity which is the autopoietic unity giving rise
8
a unidade autopoitica cria uma perspectiva a partir da qual o exterior um, que no deve ser confundido
com o meio fsico como ele aparece para ns, como observadores, a terra de leis fsicas e qumicas simplesmente,
desprovido de tal perspectivismo.
9
excedente de signicao.
59
to the handling of its environment
10
(VARELA, 1991)
De acordo com Varela, a entidade autopoitica est constantemente gerando signi-
cao, que para ele uma carncia do ser vivo. Assim, o signicado no preexistente e a
relevncia dos encontros com o ambiente tem que ser fornecido ex-nihilo
11
(VARELA, 1991).
Ainda de acordo com Varela, a construo do mundo por parte do agente autopoitico feita
sempre a partir de desarranjos (breakdowns) na autopoiese. Esses desarranjos podem ser desde
mudanas na concentrao de algum metablito, at a ruptura de sua membrana.
4.3 Adaptatividade
At aqui, ns mostramos como a teoria da autopoiese explica a capacidade de seres
vivos de constiturem uma identidade, de se estabelecerem como seres autnomos e de possu-
rem nveis mnimos de cognio. Para alm disso, Weber e Varela(WEBER; VARELA, 2002)
armam que o organismo autopoitico dotado de teleologia
12
em dois sentidos. O primeiro
sentido de que o funcionamento do sistema autopoitico com a propriedade de fechamento or-
ganizacional, garante s partes do sistema um propsito intrnseco de continuidade, como j
havamos mencionado. O segundo sentido de que os desarranjos (breakdowns) de autopoiese
e consequente esforo de reparao desses desarranjos garantem ao sistema como um todo o
propsito de permanncia.
Di Paolo(DI PAOLO, 2005) diz que a denio de autopoiese no clara e sempre
necessita de interpretao depois de enunciada. Uma vez que esteja claro como interpretar a de-
nio de autopoiese, ela implica somente no primeiro sentido de teleologia que apresentamos,
teleologia das partes do sistema. Para Di Paolo o outro sentido de teleologia no se aplica aos
seres autopoiticos, mas se aplica aos seres vivos. O que indica uma falta de algum aspecto nos
seres autopoiticos para se conseguir de fato um propsito intrnseco ao sistema.
Para Di Paolo, as interpretaes de autopoiese dependem de noes intuitivas, que
normalmente leva a duas diferentes noes: conservao e homeostase. Cada uma dessas no-
es possui diferentes consequncias. A noo de conservao em autopoiese a noo de que
um sistema autopoitico constitudo s possui dois tipos de interao com seu ambiente: um
que conserva a autopoiese e outro que a desfaz instantaneamente. Enquanto a conservao leva
a um determinismo rgido, homeostase connotes the existence of active mechanisms capable
of managing and controlling the network of processes that construct the organism.
13
(DI PA-
OLO, 2005). Assim, notamos que a ideia de Varela(VARELA, 1991) equivalente a noo de
homeostase apresentada por Di Paolo, j que a ideia dos desarranjos na autopoiese requerem
10
o que signicativo para um organismo precisamente dado por sua constituio como um processo distri-
budo, com uma ligao indissocivel entre processos locais, onde uma interao ocorre, e a entidade coordenada,
que a unidade autopoitica, dando origem manipulao do ambiente
11
A partir de coisa alguma.
12
Teleologia rea da losoa que estuda os ns ou os propsitos. Aqui, ser dotado de teleologia signica ter
um propsito.
13
Conota a existncia de mecanismos ativos capazes de gerir e controlar a rede de processos que constri o
organismo.
60
mecanismos capazes de revert-los, am de continuar a autopoiese.
Apesar de a interpretao de Varela(VARELA, 1991) com seu surplus de signi-
cao levar a ideia de homeostase, Di Paolo arma que, pela denio, autopoiese um con-
ceito rgido e s pode ocasionar conservao. Conservao s permite uma normatividade do
tipo tudo ou nada. Di Paolo diz que na viso conservativa There is no room for concepts
such as lacks, minor or major breakdowns in autopoiesis: either organization is conserved or it
isnt.
14
(DI PAOLO, 2005). Di Paolo conclui que deveria haver outro conceito que permitisse
noes de gradao. Por exemplo, o caso da bactria que se move em um gradiente de acar,
em direo s reas e maior concentrao. Autopoiese no oferece uma explicao do porque
a bactria faz esse deslocamento. Como uma noo conservativa, se a bactria for autopoitica
somente, ela deveria car parada, se alimentando enquanto chegasse acar at ela, mas nada
na denio de autopoiese leva a crer que ela se deslocaria em qualquer direo.
Para que o ser vivo possa lidar comdesarranjos da autopoiese, como Varela(VARELA,
1991) arma, ele deve ter alguma outra caracterstica. Di Paolo(DI PAOLO, 2005) usa o termo
sense-making
15
para designar o nvel mnimo de cognio. Segundo ele, para ir de autopoiese
a sense-making it is convenient to put in different terms the contrast between what autopoiesis
implies and what sense-making requires.
16
(DI PAOLO, 2005). Para ele, o que sense-making
requer e que autopoiese no implica adaptatividade, que ele dene como:
A systems capacity, in some circumstances, to regulate its states and its relation
to the environment with the result that, if the states are sufciently close to the
boundary of viability,
1. Tendencies are distinguished and acted upon depending on whether the states
will approach or recede from the boundary and, as a consequence,
2. Tendencies of the rst kind are moved closer to or transformed into tendencies
of the second and so future states are prevented from reaching the boundary with
an outward velocity.
17
(DI PAOLO, 2005)
Essa caracterstica permite-nos examinar a noo de autopoiese que fala de homeos-
tase. Porm, importante destacar que a adaptatividade no decorre da denio de autopoiese,
nem se sabe o que d origem a ela nos seres vivos. A adaptatividade permite ao ser vivo se re-
constituir depois de um encontro que ameace sua continuidade e at mesmo evit-lo no futuro.
Ela d a entidade viva a capacidade de auto-monitorao e de autorregulao.
14
No h espao para conceitos tais como falta, desarranjos na autopoiese pequenos ou maiores.
15
Gerar sentido.
16
conveniente colocar em termos diferentes o contraste entre o que autopoiese implica e o que sense-making
requer.
17
Uma capacidade do sistema, em alguma circunstncia, de regular seus estados e suas relao com o ambiente
com o resultado que, se os estados estiverem sucientemente perto dos limites de viabilidade,
1. Tendncias so distinguidas e seguidas dependendo de em quais estados vo se aproximar ou afastar do limite
e, como consequncia,
2. Tendncias do primeiro tipo so aproximadas ou transformadas em tendncias do segundo tipo de forma que
estados futuros no atinjam o limite com uma velocidade extrema.
61
Para Di Paolo, umsistema precisa ser autopoitico e adaptativo para poder ter sense-
making. A autopoiese confere identidade e uma normatividade. J a adaptatividade permite o
sistema apreciar seus encontro com respeito a essa norma de uma forma gradual. Assim, ele
pode julgar um encontro como mais ou menos disruptivo, por exemplo. Dessa forma o sistema
capaz de construir signicado para as entidades presentes no seu mundo.
4.4 Inteligncia Articial Enativa
A Inteligncia Articial Enativa surge como uma proposta para superar as dicul-
dades preexistentes na IA. As caractersticas dos seres autnomos e adaptativos, discutidas nas
sees anteriores, demonstram um possvel caminho para a IA. Temos que os seres vivos conse-
guem sobrepor os problemas da IA. Apesar de no existir nenhuma novidade nessa armao,
o paradigma da enao nos fornece uma explicao para as caracterstica dos seres vivos que
conferem a eles essa capacidade.
Seres autopoiticos e adaptativos so capazes de construir signicado para os ele-
mentos do seu mundo gerando o contexto para eles. Isso quer dizer que problemas como o frame
problem e o symbol grounding problem no se apresentam para os seres vivos. O primeiro por-
que pela prpria natureza da autopoiese, s faz parte do mundo do sistema autopoitico aqueles
elementos que de alguma forma so relevantes para ele, estes ganham signicado sempre dentro
de um contexto. Isso resolve tambm o segundo problema mencionado. Alm disso, a ante-
rioridade que constatamos na IA Corporicada no existiria em um possvel agente dotado de
autonomia e adaptatividade. No h como o projetista desse agente antever um objetivo, j que
objetivo e agente surgem ao mesmo tempo.
Seguindo a ideia de Pfeifer de estabelecer princpios para a IA Corporicada, Fro-
ese e Ziemke(FROESE; ZIEMKE, 2009) sugeriram dois princpios para a IA Enativa. Esses
princpios, de acordo com os autores, no devem ser vistos como substitutivos dos princpios de
Pfeifer(PFEIFER; IIDA; BONGARD, 2005), mas complementos no sentido de se perseguir a
meta de implementao de inteligncia genuna em um ser articial. Os novos princpios esto
relacionados com autonomia e adaptatividade, estabelecendo-as como caractersticas essenci-
ais para a implementao de agentes articiais enativos. Froese e Ziemke(FROESE; ZIEMKE,
2009) denem:
EAI-1: the system must be capable of generating its own systemic identity at
some level of description.
EAI-2: the system must have the capacity to actively regulate its ongoing sen-
sorimotor interaction in relation to a viability constraint.
18
(FROESE; ZIEMKE,
2009)
EAI-1 tem uma relao direta com a autonomia, ou autopoiese, j que requer que
o sistema gere sua prpria identidade. Como vimos, atravs do funcionamento caracterstico
18
EAI-1: o sistema deve ser capaz de gerar sua prpria identidade sistmica em algum nvel de descrio.
EAI-2: o sistem deve ter a capacidade de regular ativamente suas prprias interaes sensrio motoras vigentes
em relao a uma restrio de viabilidade
62
de suas partes para produzir o prprios organismo que se estabelece a identidade do sistema.
O princpio propositadamente vago, ao dizer at some level of description. De acordo com
os autores, isso se deve ao fato de que no possvel parecer autnomo em todos os nveis de
descrio. Por exemplo, no nvel de descrio das interaes atmicas, no h como se falar
de autonomia dos seres vivos, j que todos os objetos da descrio, isto , os tomos e suas
sub-partculas, esto sujeitos s rgidas leis da Fsica.
EAI-2 est relacionado com a adaptatividade. Nesse princpio tambm h a pre-
sena de um termo vago, no caso a denio de viability constraint. Froese e Ziemke armam
que isso garante a possibilidade de se estudar dois problemas, dependendo da denio do
termo. Se essa restrio for imposta pelo construtor do agente articial, possvel se estudar a
dinmica da adaptatividade de forma isolada e tambm fenmenos dinmicos como homeostase
e ultraestabilidade. Porm, se a restrio tiver de surgir de modo intrnseco a partir do princpio
EAI-1, os autores armam que isso constitui o hard problem da IA Enativa.
Podemos notar, uma vez que explicitamos os princpios que norteiam a IA Enativa,
que o trabalho de Di Paolo(DI PAOLO, 2000), mencionado na Seo 3.4, se caracteriza como
um trabalho de IA Enativa. Nesse caso, o princpio EAI-2 recai no caso da imposio da
restrio, o que possibilita ao autor fazer o estudo da homeostase.
O trabalho de Di Paolo, caracterizado como trabalho de IA Corporicada e de IA
Enativa, indica uma sobreposio entre essas duas reas. O prprio estabelecimento de prin-
cpios como complemento dos j existentes indica uma continuidade. A pouca quantidade de
trabalhos de IA Enativa no torna mais difcil de se armar se essa rea compe verdadeira-
mente uma nova vertente da IA, ou se a IA Enativa se trata do lado conceitual que faltava a IA
Corporicada.
63
5 CONCLUSO E TRABALHOS FUTUROS
O objetivo dessa dissertao foi apresentar as mudanas ocorridas na Inteligncia
Articial, atravs de uma anlise dos questionamentos loscos que levaram a reformulaes
no pensamento acerca dos objetivos da IA, analisando as reas da IA tradicional, IA Corpori-
cada e IA Enativa.
Descrevemos as bases do pensamento a respeito da IA, que remontam da criao de
mquinas de calcular mecnicas. Essas mquinas foram os primeiros artefatos que tinham capa-
cidades que, at ento, eram exclusivas do intelecto humano. A partir de ento, alguns lsofos
e escritores comearam a discutir a possibilidade real de um artefato mecnico que se igualasse,
intelectualmente falando, a um ser humano. Com o advento do computador, alguns cientistas
passaram a utiliz-lo na tentativa de produzir programas que demonstrassem capacidades de
inteligncia semelhante de pessoas. Em uma conferncia em Dartmouth(MCCARTHY et al.,
acessado em 2012) entre esses pesquisadores surgiu a rea da Inteligncia Articial. A partir do
seu estabelecimento, a rea cresceu e, eventualmente, os seus pesquisadores foram encontrando
fatores limitantes s possibilidades da cognio em computadores. Em paralelo ao desenvolvi-
mento da rea, alguns lsofos investigavam as bases conceituais que sustentavam a IA. Drey-
fus(DREYFUS, 1975) identicou pressupostos que estavam presentes nos trabalhos da rea, na
maioria da vezes implicitamente. O lsofo ento criticou a possibilidade desses pressupostos
serem de fato verdade, concluindo que o projeto da IA, como estava sendo desenvolvido, nunca
alcanaria seus objetivos. Outros lsofos como Searle(SEARLE, 1980), Dennett(DENNETT,
1984) e o psiclogo Harnad(HARNAD, 1990) descreveram problemas que so imprescindveis
de um agente resolver para poder ser considerado inteligente.
Apresentamos a rea da IA Corporicada, que surgiu como uma espcie de reto-
mada do projeto de implementao de uma inteligncia genuna. Com a compreenso de que o
corpo tem um papel essencial no processo cognitivo, ele responsvel pela interao do agente
com o mundo. A partir desse entendimento, Brooks(BROOKS, 1991) desenvolveu uma arqui-
tetura, visando a construo de robs, que permitia o desenvolvimento incremental atravs de
camadas. A meta de Brooks era conseguir implementar inteligncia comparvel de um inseto,
para que depois pudesse desenvolv-la, at chega inteligncia no nvel de seres humanos. s
ideias de Brooks se somaram outras, fazendo a rea da IA Corporicada crescer desordenada-
mente. Pfeifer et al.(PFEIFER; IIDA; BONGARD, 2005) propuseram princpios norteadores
para a rea, com os quais tentam englobar as principais caractersticas dos trabalhos da rea.
Mostramos ainda que a IA Corporicada recebeu crticas de Dreyfus(DREYFUS, 2007) e de
Froese e Ziemke(FROESE; ZIEMKE, 2009). Indicando que a incluso do corpo no processo
cognitivo era necessria, mas no suciente para produo de seres articiais inteligentes.
Por m, apresentamos a teoria da autopoiese, que explicava como um ser vivo m-
nimo dotado de autonomia e constitui sua prpria identidade. Como esses conceitos podemser
entendidos em termos de seres mais complexos, atravs da denio de fechamento organizaci-
onal. Alm disso, mostramos como a entidade autnoma constri signicado a respeito do seu
meio, atravs da interao entre os dois. Vimos que Di Paolo(DI PAOLO, 2005) chama a aten-
o que somente a autopoiese no suciente para levar interpretao que Varela(VARELA,
64
1991) d a autopoiese. Para que se possa falar em construo de signicado, o agente deve
ser, alm de autnomo, adaptativo. S assim ele ser capaz de julgar seus encontros com o
meio de maneira gradual, dando contexto aos encontros. Por ltimo, discutimos como essas
ideias podem ser aplicada na IA para superar as barreiras da IA Corporicada. Assim, mos-
tramos a proposta de Froese e Ziemke(FROESE; ZIEMKE, 2009) para mais dois princpios,
complementando o trabalho de Pfeifer(PFEIFER; IIDA; BONGARD, 2005).
5.1 Trabalhos futuros
Pretendemos continuar investigando as possibilidades da IA Enativa, possivelmente
nos aprofundando nos aspectos loscos da fenomenologia de Merleau-Ponty(MERLEAU-
PONTY, 2006), como tambm no estudo do ser de Heidegger(HEIDEGGER, 1995). Que-
remos, tambm, estudar a teoria de Kampis(KAMPIS, 1991) a respeito de sistemas que se
auto-modicam, como uma espcie de generalizao da auto-organizao.
No contexto da IA Enativa, investigamos possveis desdobramentos da discusso
de Di Paolo(DI PAOLO, 2005). Pretendemos analisar a contribuio de um sistema nervoso na
interao do agente autnomo com seu meio.
65
REFERNCIAS BIBLIOGRFICAS
ASHBY, W. Design for a Brain: The Origin of Adaptive Behavior. 2. ed. [S.l.]: Chapman and
Hall, 1960.
BATESON, G. Mind and nature: A necessary unity. New York: Ballantine Books, 1979.
BROOKS, R. A. Elephants dont play chess. Robotics and Autonomous Systems, v. 6, n. 1-2, p.
315, 1990.
BROOKS, R. A. Intelligence without representation. Articial Intelligence, v. 47, n. 1-3, p.
139159, 1991.
BROOKS, R. A. et al. The cog project: Building a humanoid robot. In: Lecture Notes in
Computer Science. [S.l.]: Springer-Verlag, 1999. p. 5287.
BUCHANAN, B. G. A (very) brief history of articial intelligence. AI Magazine, v. 26, n. 4, p.
5360, 2005.
CLARK, A. Being There: Putting Brain, Body and World Together Again. [S.l.]: MIT Press,
1998.
CREVIER, D. AI: The Tumultuous History of the Search for Articial Intelligence. [S.l.]:
BasicBooks, 1993.
DENNETT, D. C. Cognitive wheels: The frame problem of ai. In: HOOKWAY, C. (Ed.).
Minds, Machines and Evolution: Philosophical Studies. Cambridge, UK: University Press,
1984. p. 129151.
DI PAOLO, E. A. Homeostatic Adaptation to Inversion of the Visual Field and Other
Sensorimotor Disruptions. 2000.
DI PAOLO, E. A. Autopoiesis, adaptivity, teleology, agency. Phenomenology and the Cognitive
Sciences, v. 4, p. 429452, 2005.
DREYFUS, H. On the Internet. 2. ed. [S.l.]: Routledge, 2009.
DREYFUS, H. L. O que os Computadores no podem fazer: Crtica da Razo Articial. [S.l.]:
A Casa do Livro Eldorado, 1975.
DREYFUS, H. L. Why heideggerian ai failed and how xing it would require making it more
heideggerian. Articial Intelligence, v. 171, n. 18, p. 11371160, 2007.
EVANS, T. G. A heuristic program to solve geometric-analogy problems. In: Proceedings of
the April 21-23, 1964, spring joint computer conference. [S.l.: s.n.], 1964.
FROESE, T.; ZIEMKE, T. Enactive articial intelligence: Ivestigating the systemic
organization of life and mind. Articial Intelligence, v. 173, n. 3-4, p. 466500, 2009.
GLENBERG, A. M. What memory is for. Behavioral and Brain Sciences, v. 20, n. 1, p. 4150,
1997.
66
GLENBERG, A. M.; ROBERTSON, D. A. Symbol grounding and meaning: A comparison of
high-dimensional and embodied theories of meaning. Journal of Memory and Language, v. 43,
p. 379401, 2000.
GOERTZEL, B. The Hidden Pattern. [S.l.]: Brown Walker Press, 2006.
HARNAD, S. The symbol grounding problem. Physica D, v. 42, p. 335346, 1990.
HEIDEGGER, M. Ser e Tempo. 5edio. ed. Petrpolis, Brasil: Editora Vozes, 1995.
IZQUIERDO, E.; HARVEY, I. The dynamics of associative learning in an evolved situated
agent. In: Proceedings of the 9th European conference on Advances in articial life. [S.l.: s.n.],
2007.
KAMPIS, G. Self-modifying systems in biology and cognitive science: a new framework for
dynamics, information, and complexity. [S.l.]: Pergamon Press, 1991.
LAKOFF, G.; JOHNSON, M. Metaphors we Live by. [S.l.]: University of Chicago Press, 1980.
LEGG, S.; HUTTER, M. A collection of denitions of intelligence. In: Advances in Articial
General Intelligence: Concepts, Architectures and Algorithms, volume 157 of Frontiers in
Articial Intelligence and Applications. [S.l.]: IOS Press, 2007. p. 1724.
MCCARTHY, J. What is articial intelligence? http://www-formal.stanford.edu/jmc/
whatisai/whatisai.html visitado em 05/11/2012. 2007.
MCCARTHY, J.; HAYES, P. J. Some philosophical problems from the standpoint of articial
intelligence. In: Machine Intelligence. [S.l.]: Edinburgh University Press, 1969. p. 463502.
MCCARTHY, J. et al. A proposal for the dartmouth summer research project on articial
intelligence. http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.
html. acessado em 2012.
MERLEAU-PONTY, M. Phenomenology of Perception. New York: Routedge and Kegan Paul,
2006.
MINSKY, M. The Society of Mind. [S.l.]: Simon & Schuster, 1988.
NAKASHIMA, H. Ai as complex information processing. Minds Mach., v. 9, n. 1, p. 5780,
1999.
NEWELL, A.; SIMON, H. A. Computer science as empirical inquiry: symbols and search.
Commun. ACM, v. 19, p. 113126, 1976.
PFEIFER, R.; IIDA, F. Embodied articial intelligence: Trends and challenges. In: Embodied
Articial Intelligence. [S.l.: s.n.], 2003.
PFEIFER, R.; IIDA, F.; BONGARD, J. New robotics: Design principles for intelligent
systems. Articial Life, January 2005, v. 11, p. 12, 2005.
RUSSELL, S.; NORVIG, P. Articial Intelligence: A Modern Approach. 3. ed. [S.l.]: Pearson
Education, 2010.
67
SEARLE, J. R. Minds, brains, and programs. Behavioral and Brain Sciences, v. 3, p. 417457,
1980.
SHAPIRO, L. The embodied cognition research programme. Philosophy Compass, v. 2, p.
338346, 2007.
SLAGLE, J. R. A heuristic program that solves symbolic integration problems in freshman
calculus. J. ACM, v. 10, p. 507520, 1963.
VARELA, F. J. Autopoiesis and a biology of intentionality. In: Proceedings of a workshop on
Autopoiesis and Percetion. [S.l.: s.n.], 1991. p. 414.
VARELA, F. J.; THOMPSON, E. T.; ROSCH, E. The Embodied Mind: Cognitive Science and
Human Experience. [S.l.]: The MIT Press, 1992.
WEBER, A.; VARELA, F. J. Life after kant: Natural purposes and the autopoietic foundations
of biological individuality. Phenomenology and the Cognitive Sciences, v. 1, p. 97125, 2002.
WHEELER, M. Reconstructing the Cognitive World: The Next Step. [S.l.]: MIT Press, 2005.
WILSON, R. Boundaries of the Mind: The Individual in the Fragile Sciences : Cognition.
[S.l.]: Cambridge University Press, 2004.
WILSON, R. A.; FOGLIA, L. Embodied cognition. In: ZALTA, E. N. (Ed.). The Stanford
Encyclopedia of Philosophy. Fall 2011. [S.l.: s.n.], 2011.
WOOD, R.; DI PAOLO, E. New models for old questions: Evolutionary robotics and the a
not b error. In: Costa (Eds.) Proceedings of the 9th European Conference on Articial life.
[S.l.: s.n.], 2007.
YU, V. L. et al. Antimicrobial selection by a computer: a blinded evaluation by infectious
disease experts. Journal of the American Medical Association, v. 242, p. 12791282, 1979.

Das könnte Ihnen auch gefallen