No Renascimento, e com a expansão de um espírito prático e quantitativo, surge a mecânica e, com ela, (e com o aperfeiçoamento do mecanismo do relógio) uma nova concepção do homem.
Imprescindíveis para o avanço da I.A. foram os trabalhos dos matemáticos dos séculos XVII a XIX. No séc. XIX, surge a figura de Alan Turing, mas só em 1956 é que a Inteligência Artificial começa a ser reconhecida como ciência.
Os desenvolvimentos em I.A. avançam lado a lado com a evolução dos computadores que, ao longo do tempo foram fazendo com que se começassem a encarar essas máquinas como inteligentes alterando mesmo o nosso conceito de inteligência e aproximando os conceitos ‘máquina’, tradicionalmente não inteligente da ‘inteligência’, capacidade antes consignada exclusivamente ao homem.
No entanto o seu objeto de estudo continua rodeado de uma certa bruma, no sentido em que o homem ainda não possui uma definição suficientemente satisfatória de inteligência e para se compreenderem os processos da inteligência artificial e da representação do conhecimento terão de se dominar os conceitos de inteligência humana e conhecimento.
Mas chegará o conhecimento através da manipulação de conceitos complexos ou através da percepção?
Devemos então fornecer à máquina uma avalanche de dados, teorias formais de ‘bom senso’, de crenças, de um universo simbólico superior ou, pelo contrário, basear o estudo da cognição no nível inferior da percepção e do controlo motor. A tendência geral foi no sentido de conciliar as duas teorias numa terceira teoria híbrida, segundo a qual a máquina seria capaz de raciocinar utilizando conceitos complexos, e de perceber o seu meio envolvente.
Nos últimos anos tem-se dado atenção a alguns dos sectores de pesquisa abandonados no passado, como a representação de redes neuronais e a tradução automática, interesses renovados graças aos enormes progressos a que se tem assistido no domínio das ciências da computação.
Assim a história da I.A. é povoada de diferentes paradigmas que se contrapõem, de teorias que se defendem e abandonam, e que são consecutivamente retomadas.
ANTIGUIDADE CLÁSSICA
De fato, a construção de "máquinas" para auxílio do homem nas suas atividades, surge pela primeira vez em Homero, na Ilíada(canto XVIII), onde eram descritas as trípodes, criadas por Hephaistos, Deus do fogo, que tinham nos seus pés umas rodinhas de ouro, sobre as quais, por si mesmo, e por seu alvítrio, podiam girar na sala (...) mui bem mandadas" e as "servas da casa (...) artefatos, e todas de ouro, e muito semelhantes às raparigas que vivem realmente (...) que aprenderam com os deuses o que é preciso e o fazem com perfeição.
NOVA CONCEPÇÃO DO HOMEM
Descartes introduz a idéia de que eu sou uma máquina que pensa, os meus músculos são comandados pelo cérebro através do sistema nervoso- Tratado do Homem. Com efeito, ele acreditava que certas atividades humanas poderiam ser realizadas por máquinas, mas com algumas restrições. Ele nega-lhes a capacidade de compreender de modo a responder ao sentido de tudo o que se diz na sua presença- 5ª parte do Discurso do Método.
Assim Descartes aborda a problemática da I.A. ao definir o Homem como um corpo capaz de movimento resultante do engenho divino e um Autômato como um corpo capaz de movimento resultante do engenho humano. Ora esta pretensão de ascender à ‘categoria’ divina, pela criação de um ser, esta pretensão metafísica seria, segundo Descartes, inata ao próprio Homem.
SÉCULOS XVII-XIX
No século XVII, com Pascal (1623-1662), surge a primeira máquina de calcular, acontecimento que desencadearia os estudos precursores da I.A.. Leibniz (1646-1716), parte do princípio que uma máquina poderia ser capaz de deduzir, dando início à pesquisa em I.A.. Para ele, o pensamento é redutível ao cálculo (pela lógica), logo, uma máquina capaz de executar logicamente operações algébricas, poderia, através da lógica formalizada, raciocinar.
Os trabalhos destes matemáticos foram posteriormente retomados por outros que os aprofundaram, Babbage (1792-1871) retomou assim o trabalho de Pascal projetando uma máquina de calcular (que não foi concluída durante a sua vida) que permitiria a realização das quatro operações aritméticas básicas e o encadeamento das mesmas. Ele pretendia ainda efetuar o cálculo automático de tabelas matemáticas para as funções trigonométricas e logarítmicas.
Boole (1815-1864) segue as idéias de Leibniz, chegando à matematização da lógica. Consegue assim reduzi-la a um simples cálculo, que não precisava de ser memorizado, (como as regras lógicas e as figuras silogísticas), mas que poderia ser aprendido por qualquer um, devido à sua simplicidade. Triunfa ainda ao matematizar as leis do pensamento aplicando-as à lógica. Tudo se reduz, assim, à matemática, à álgebra ou ao cálculo logarítmico.
ALAN TURING
Alan Turing propõe o chamado jogo da imitação, segundo o qual, se uma máquina fosse capaz de ganhar, não restariam as mínimas dúvidas quanto à evidência da existência de máquinas inteligentes (pela imitação dos comportamentos humanos).
Em 1935 elabora a máquina abstrata, cuja premissa fundamental consistia em fornecer uma descrição rigorosa do processo automático, refazendo o comportamento do agente humano que a executa. Assim, as teorias de Turing são de certa forma precursoras dos posteriores sistemas periciais, que procuram imitar os procedimentos dos peritos humanos assim como a máquina de Turing o procurava fazer.
O maior opositor de Turing foi o neurologista Jefferson que afirmava a impossibilidade de poder reproduzir as características da mente humana num artefato não biológico.
Mas nesta época o debate era sobretudo teórico e abstrato, pois só com o aparecimento dos primeiros computadores, depois da segunda guerra mundial, é que as noções de automatismo e inteligência se revolucionaram tornando possível a sua discussão em torno da modelação da inteligência humana e da construção de autômatos à imagem do homem.
PRIMEIRO PERÍODO
Na história da I.A. identificam-se quatro períodos.
O primeiro, chamado de "euforia" ou "período dos profetas" caracterizou-se pelas previsões das "fadas" que se abeiraram do berço da nova ciência, após a criação, em 1956, por Newell e Simon, do primeiro programa de I.A., logic theoristic. Este, era capaz de demonstrar teoremas não triviais da lógica matemática, baseando-se na utilização de sistemas simbólicos e na introdução de heurísticas. Dois anos depois, os seus criadores, previram que, no espaço de 10 anos, ou seja, até ao ano de 1968 os computadores seriam campeões de xadrez, comporiam peças musicais, descobririam importantes teoremas matemáticos e demonstrariam teorias no domínio da psicologia. Previsão que não chegou a concretizar-se.
Os primeiros anos da I.A. caracterizam-se pelo debate entre aqueles que achavam oportuno simular a estrutura do cérebro humano e aqueles que, pelo contrário, concentravam o interesse da ciência mais sobre as suas funções do que sobre o seu procedimento.
Neste período nascem e desenvolvem-se, sobretudo programas capazes de jogar damas, xadrez, demonstrar teoremas, ou seja, baseados no estudo do comportamento decisório a par de máquinas, como o perceptron que aprendiam a classificar e distinguir estímulos provenientes do exterior.
A investigação dividia-se então em duas áreas, por um lado, a pesquisa sobre a simulação dos processos cognitivos do ser humano e, por outro, a pesquisa sobre o rendimento, tão eficiente quanto possível, dos programas através de processos ‘não humanos’.
KAREL CAPEK
It is with horror, frankly that he rejects all responsability for the idea that metal contraptions could ever replace human beings, that by means of wires they could awaken something like life, love, or rebellion. He would deem this dark prospect to be either an overstimation of machines, or a gave offense against life.Karel Capek
Karel Capek, nasceu em 1890 e morreu em 1938. Novelista, dramaturgo e encenador Checo, nasceu em Malé Svatonovice, e formou-se na Universidade de Praga. Capek foi um grande amigo do primeiro presidente Checo, Tomás Masaryk, com quem partilhou o esforço para preservar a nação Checa depois da I Grande Guerra Mundial. Simultaneamente Capek foi o editor do jornal de Praga, fundador e director do "Vinohradsky Art Theater" em Praga, ensaísta político, dramaturgo e novelista.
Karel Capek é reconhecido pelas suas peças, sendo a R.U.R. a mais famosa. Realizada em 1921, retrata uma fantasia dramática em que cada uma das personagens é desumanizada pela máquina da idade. R.U.R. é a sigla de "Rossum´s Universal Robots" e foi nesta peça que surgiu a palavra Inglesa robot.
Ficou igualmente célebre por outros dois dramas que escreveu: "The world we live in", uma sátira e "Power and Glory", uma crítica.
ALLEN NEWELL (1927-1992)
Um sistema físico simbólico é necessário e suficiente para a ação inteligente
Allen Newell
Professor Norte Americano, nasceu em San Francisco a 19 de Março de 1927. Faz o curso Universitário de Física em Standford em 1949, e a sua pós graduação em Matemática na Universidade de Princeton (1949-50).
É doutorado em Administração Industrial pelo Instituto tecnológico de Carnegie e torna-se investigador científico na Rand Corporation (Universidade de Santa Monica) entre 1950 e 1961, onde conhece Herber Simon.
Allen Newell, juntamente com Herbert Simon, criou em 1956 o primeiro programa de I.A., logic theoristic. Este era capaz de demonstrar teoremas não triviais da lógica matemática, baseando-se na utilização de sistemas simbólicos e na introdução de heurísticas. Estes cientistas acreditavam que os computadores podiam ser inteligentes porque processavam símbolos e ainda porque o conhecimento pode ser descrito por estruturas simbólicas.
Em 1957, Newell e Simon previram que, no espaço de 10 anos, os computadores seriam campeões de xadrez, comporiam peças musicais, descobririam importantes teoremas matemáticos e demonstrariam teorias no domínio da psicologia. Este era o reflexo da grande euforia que rodeava a I.A. no seu começo, mas que em breve esmoreceria uma vez que nos dez anos seguintes praticamente não se evoluiu em I.A..
Em 1961 transita para a Universidade de Carnegie-Mellon onde foi professor de Ciências da Computação a partir dessa data.
Este investigador e cientista ficou ainda conhecido pelo enorme contributo que representou no domínio da I.A. e das Ciências Cognitivas. Dois dos seus maiores contributos são as suas teorias da cognição e a aplicação das mesmas no Sistema SOAR.
Posteriormente especializa-se em Sistemas de Informação, armazenamento e procura em Ciências da Computação e em Inteligência Artificial.
Em 1971 recebe o Harry Good Award e é galardoada, ao lado de Herbert Simon, em 1975 com o A. M. Turing Award.
Obras: GPS, 1969; A case study in Generality, 1969; Computer structures, 1971; Human Problem Solving, 1972; Designing computers and digital systhems, 1972.
HERBERT ALEXANDER SIMON (1916- …) Economista Norte americano, nasceu em Milwaukee, Wisconsin em 15 de Agosto de 1916. Doutorado em Ciências Políticas pela Universidade de Chicago em 1943 onde foi assistente da cadeira de Investimento, entre os anos de 1936 e 1938, anos em que colaborou com a Universidade da Califórnia. De 1942 a 1949 lecionou no Instituto tecnológico do Illinois, transitando nesse último ano para a Universidade de Carnegie-Mellon, em Pittsburg, onde foi titular da cadeira de Administração e Psicologia até 1965 e regente da cátedra de Informação e Psicologia. Antigo colaborador da Rand Corporation, consultor do Governo dos EUA, da NASA, ex-director do conselho de pesquisas de Ciências Sociais. Laureado com o Prêmio Nobel de Economia em 1978, pelas suas pesquisas realizadas na área de "tomada de decisões no interior das organizações econômicas". Segundo a sua teoria, a empresa deve ser encarada como um sistema de decisões onde o indivíduo é responsável pela tomada das mesmas. Segundo ele, o planejamento é necessário a todos os níveis e é o substrato da racionalidade no comportamento administrativo. Membro da Academia Nacional de Ciências dos EUA e da sua congénere Jugoslava e da Sociedade Americana de Filosofia. Professor Honorário da Universidade de Tiangin, Doutor Honorário em Leis pelas Universidades de Chicago, McGill, Michigan, Pittsburg; em Filosofia pela Universidade de Lund e em Ciências Econômicas pela Universidade Erasmus. Galardoado com os prêmios A. M. Turing, em 1975, ao lado de Allen Newell, e Procter em 1980. Obras, Administrative behavior, 1947; Public Administration, 1950; Models of Man, 1957; Organizations, 1958; The shape os automaton, 1960; The Sciences of Artificial, 1969; Human Problem-Solving, 1972; Models of discovery, 1977; Models of thought, 1979; Models of bounded rationality (I e II), 1982; Reasons in Human Affairs, 1983; Organizations and Markets, 1991. |
SEGUNDO PERÍODO
A tradução automática, apressada pela guerra e pela extrema necessidade de informação com rapidez, tinha deixado uma conotação negativa em relação à I.A. que limitaria os progressos neste campo, impedindo-os de ver a luz do dia durante quase 10 anos. A verdade é que, durante este segundo período, as teorizações da I.A. não foram acompanhadas pela evolução da sua técnica que permitiria a sua realização.
Nos anos ’60 difundiu-se o interesse pelos programas capazes de compreender a linguagem humana, mas estes programas não respondiam às expectativas dos investigadores, sendo ainda muito limitados e sendo o seu conhecimento fornecido totalmente pelo programador e em linguagens de baixo nível que ainda não permitiam abstracções e que estavam demasiado próximas do algoritmo.
No entanto, estes programas tiveram o mérito de introduzir aquele que seria o pilar das posteriores investigações em I.A.. Estava aberto o caminho para a construção de sistemas capazes de gerir conhecimentos empíricos através das suas representações.
A impossibilidade, causada pelas limitações dos programas da altura em fornecerem representações gerais do mundo sensível, deslocou o interesse da pesquisa no sentido de temas menos ambiciosos e mais ligados a conhecimentos relativos a domínios específicos - sistemas periciais.
TERCEIRO PERÍODO
Em 1969, dá-se o primeiro congresso de I.A. de onde provém a primeira revista sobre este tema, a Artificial Intelligence, abrindo-se deste modo as portas ao terceiro período, o dos sistemas periciais. Estes, também chamados de agentes inteligentes, são programas que possuem um vasto e específico conhecimento sobre um determinado assunto.
Os sistemas periciaispretendem simular o pensamento de um perito humano. O primeiro sistema pericial, o DENDRAL foi criado em 1985 por Edward Feigenbaun.
AGENTES INTELIGENTES / SISTEMAS PERICIAIS
"Gatinho Chesshire", começou Alice,
"Podes-me dizer que caminho tomar?"
"Isso depende de aonde queres chegar", disse o gato.
Lewis Carrol, Alice no país das maravilhas
A questão dos agentes inteligentes ou sistemas periciais tornou-se desde cedo uma espécie de calcanhar de Aquiles da I.A. isto porque a sua realização e aperfeiçoamento implicava que haviam sido atingidos os principais objetivo da ciência, por um lado conseguia-se simular os processos inteligentes do homem, de procura, planejamento, raciocínio e representação de conhecimentos e por outro lado com os contínuos avanços implicava que estivéssemos na via da replica dos processos mentais em representações computacionais.
Há então dois tipos de agentes inteligentes, um primeiro, denominados de agentes cognitivos e capazes de prever, de calcular racionalmente as suas ações e depois decidirem de acordo com os seus cálculos e previsões e um segundo incapaz de calcular a utilidade das suas ações ou de as planearem no sentido estrito de justificar as suas ações.
Fundamental quando se fala em sistemas periciais é sem dúvida mencionar a noção de conhecimento, de epistemologia (filosofia do conhecimento) e salientar que muitas vezes se pensa em I.A. como conhecimento + inferência.
O primeiro sistema pericial criado foi o sistema DENDRAL, por Feigenbaum, Lenderberg e Buchanan. Atualmente vamos já na terceira geração de Sistemas Periciais.
Ao criar sistemas periciais ou agentes inteligentes procura-se utilizar uma linguagem de ação, tão próxima quanto possível da nossa, com um alto nível de abstração, e através da lógica procura-se estabelecer as normas para o comportamento do agente. Assim, procura-se construir uma linguagem de programaçãoque, respeitando os princípios lógicos, se aproxime da forma como nós falamos e aperfeiçoar as técnicas de programação de forma a construir programas de I.A. que simulem os mecanismos cognitivos do homem.
A sua linguagem é feita de símbolos e abstrações, sendo simultaneamente artificial e natural. O agente deve agir em tempo real. Assim o agente inteligente vive autonomamente dentro de uma comunidade artificial, alimentando relações ativas entre ele e o meio e dentro das suas próprias estruturas.
Elementos fundamentais para a compreensão dos agentes inteligentes ou sistemas periciais são a representação de conhecimentos, a procura, o raciocínio e a resolução de problemas.
A adoção de novas linguagens de programação que permitiram modelar o pensamento simbólico levará os computadores muito mais longe não só ao nível dos sistemas periciais, onde se avançará no domínio do raciocínio e da resolução de problemas, da compreensão da língua natural, das capacidades cognitivas e dos grandes mistérios da mente (memória e consciência) mas também impulsionará as áreas da percepção, da locomoção e dos sistemas sensoriais.
Hoje os grandes problemas colocam-se no sentido de formar e formalizar conceitos e ampliar o poder de expressão das linguagens de programação.
QUARTO PERÍODO
O quarto período, é caracterizado pela maturidade da I.A., é o período das redes conexionistas e da cibernética. O conexionismo provém de um modelo inicial de máquina inspirado na rede neurológica humana. Assim, as suas investigações são no sentido de, através da modelagem dos processos cognitivos do homem, construir autômatos que, à semelhança do sistema neuronal humano, se encontrem interligados por um conjunto de conexões. Por seu lado, a cibernética, ciência que acabou por ser anexada pela I.A., estuda a modelagem do cérebro humano não podendo assim separar-se dos estudos conexionistas ou dos de I.A., como o estudo dos comportamentos cognitivos.
A aprendizagem computacional constituí um dos temas principais da pesquisa dos anos ’80. Qualquer investigador tinha então como objetivo, fornecer ao programa o ‘bom senso’ necessário para a compreensão de qualquer conceito.
ATRIBUIÇÕES DOS AGENTES INTELIGENTES
Mas o que fazem realmente os agentes inteligentes, quais são as suas atribuições (segundo Allen Newell)?
Um agente inteligente ou sistemas periciais devem ser capazes de se comportarem como ‘funções’ do ambiente, ou seja, se o meio envolvente se alterar o agente deve ser capaz de se adaptar na mesma medida e, orientado por certos objetivos, deve ser capaz de adaptar os meios aos fins desejados.
No entanto, tenhamos em conta que o ambiente em que se move é um ambiente rico e complexo, com o qual ele aprende conhecimentos, estando atento sobre o que o rodeia e sobre si mesmo, e no qual percebe uma série de elementos em mudança, gerindo grandes quantidades de informação e conhecimento, onde o seu ‘motor’ se movimenta segundo vários graus de liberdade.
Os agentes inteligentes devem ser capazes de operar em tempo real, de explorar vastas quantidades de conhecimento, de tolerar entradas como: erros, inesperadas, desconhecidas, usar símbolos e abstrações, comunicar através da língua natural, aprender com o ambiente circundante a exibir comportamentos adaptativos e orientados por objetivos (Coelho:1999). Assim eles ligariam capacidades de raciocínio à resolução de problemas.
O agente deve então estar atento a entradas de informação através da percepção que tem do meio e através da linguagem.
PERCEPÇÃO
Hoje, com a contínua evolução no domínio dos agentes inteligentes torna-se necessário que eles se apercebam do ambiente que os envolve, onde eles estão inseridos, e quais os objetos e acontecimentos que povoam o seu espaço de percepção. Assim têm sido cruciais as investigações no domínio da visão e da imagem.
Mas uma outra questão que surge é a de integrar a percepção do meio com o raciocínio simbólico. Questão já mais complexa e que levanta novos problemas. Mesmo no domínio da filosofia a questão da percepção é debatida há anos, lembramos que a percepção pode ser enganadora (uma superfície branca pode parecer cinzenta na sombra, o objeto ‘a’ pode parecer o ‘b’ ao longe), o que levaria o agente a errar ao atribuir um valor de verdade à informação percebida pelos seus sensores.
Então torna-se necessário primeiro aprofundar o conhecimento no domínio da percepção humana, onde se destacam os trabalhos de Kurt Konolige, no sentido de tentar modelar a percepção, construindo uma teoria das crenças e da sua respectiva formação pela percepção e recorrendo à lógica não monótona e à lógica auto- epistêmica na representação de relações causais crença-percepção.
LINGUAGENS DE PROGRAMAÇÃO
O principal é resolver problemas e compreender que a informação nem sempre é numérica, e por isso existe a necessidade de recorrer a técnicas e ferramentas informáticas de diferente natureza (simbólica).
Mark Fox
A utilização de diferentes linguagens define mesmo períodos da história da I.A., assim consideramos o período funcional, linguagem LISP e o declarativo, linguagem PROLOG. A linguagem é por excelência o meio de comunicação de conhecimentos, e ao longo da história da I.A. as de nível mais elevado têm substituído as mais simplistas e mais próximas do algoritmo.
E realmente o processamento computacional não se pode limitar ao número nem ao algoritmo, pois para se falar em inteligência e em agentes inteligentes temos de partir do princípio que eles são capazes de representar e manipular conceitos complexos, descritos através de estruturas simbólicas.
Um dos últimos desafios com que se tem deparado a I.A. tem sido o da construção de grandes bases de dados/conhecimentos descritos não em linguagens lógicas mas em linguagens naturais e em bom senso. Exemplo disto é o Projeto CYC (Large Common Sense Knoledge Base) que combina enquadramentos com cálculo de predicados.
Assim têm-se procurado modelar em termos computacionais o raciocínio humano baseado em argumentos, apoiando-o computacionalmente com uma componente lógica, assim o computador já não trabalha só com verdadeiros/falsos mas com conceitos e argumentos.
Este constitui um novo formalismo de representação e a concretização de um dos sonhos mais antigos da I.A. o raciocínio por bom senso e a possibilidade de raciocínios não monótonos (não exclusivamente assentes em princípios lógicos).
Assim têm-se aperfeiçoado as técnicas de programação e hoje cada vez mais próximos da modelagem do pensamento humano.
PROLOG
A linguagem de programação PROLOG, é servida por técnicas declarativas de representação + procura tipo primeiro em profundidade + raciocínio para trás. O mecanismo de resolução de problemas de programação em lógica, como o PROLOG é um demonstrador de teoremas que manipula estruturas simbólicas, conduzido por regras de inferência.
Esta linguagem alia a lógica e o controlo no algoritmo, ou seja não é puramente lógica, mas contém teorias de procura que se enquadram no contexto das evoluções em Inteligência Artificial, o aperfeiçoamento dos agentes inteligentes.
Mas o recurso à lógica implica que o conhecimento só possa ser apreendido de forma declarativa e, assim sendo, procedimental, impedindo uma manipulação dos conceitos propriamente dita e restringindo de certa forma o alcance da linguagem, que apesar de trazer várias vantagensquando comparada com as antigas linguagens está ainda longe de ser completamente satisfatória em termos de representação do conhecimento.
O estudo das linguagens de programação é fundamental na evolução da ciência I.A., são elas que definem a representação do conhecimento e que medeiam a relação homem máquina, esta é uma área de investigação de relevo em Portugal.
TÉCNICAS DE PROGRAMAÇÃO
As técnicas de programação são usadas primeiramente em aplicações relacionadas com a visão, em 1972 por David Waltz, no sentido de interpretarem desenhos. Em 1977 são usadas por Stallmen e Sussman para analisar os circuitos elétricos. Em 1979 são usadas para simular gráficos, por Borning. E é esta interdisciplinaridade que as marcou desde o princípio que as caracteriza desde então.
Estas técnicas pretendem o aperfeiçoamento dos sistemas periciais, pretendem colocá-los em contacto com o meio, de forma a que eles passem de sistemas fechados para sistemas abertos.
Reconheçamos então duas vias de evolução importantes no domínio das técnicas de programação, por um lado a compreensão subjetiva de conversas (Jaime Carbonell, 1979), cuja estratégia se baseia no princípio do‘melhor em primeiro lugar’ - que já tinha sido adotada por Newell e Simon em 1972- e na ‘procura heurística convencional’. Este é um estudo muito interessante, nomeadamente para a evolução da automatização das conversas entre criaturas artificiais nas sociedades de agentes.
Uma outra via importante á a da formalização do raciocínio não monótono (John McCarthy, 1996) usando circunscrições para os conceitos, particularmente importantes no que toca a formalização do raciocínio humano (grande parte do qual conjectura e não lógico).
Uma das principais criticas feitas à ação dos sistemas periciais é a da sua falta de flexibilidade e o seu comportamento rígido, assim tem-se procurado dar resposta a estas criticas através das suas investigações no domínio das linguagens e técnicas de programação e das investigações em formas mais avançadas de heurísticas, de forma a raciocinar sobre hipóteses e enfrentar problemas complexos.
A comunicação homem-máquina e máquina-máquina baseia-se em conhecimentos e quanto mais eficiente for a sua representação mais êxito terá essa mesma comunicação.
MODELOS COMPUTO-SIMBÓLICOS DA MEMÓRIA HUMANA
Estes modelos consideram a hipótese de existir uma semelhança entre a memória humana e os sistemas de memória artificial elaborados atualmente. Os sistemas artificiais, compostos de módulos de tratamento ligados funcionalmente, onde se integra o mecanismo de controlo que lhes possibilita o gerir dos fluxos de informação que circula no sistema, têm uma organização espacial das unidades de armazenamento em lugares definidos da memória, o que acaba por se transformar numa das suas maiores limitações - conhecidas como a metáfora espacial. Dos sistemas de memória permanente artificial podemos destacar o modelo de Atkinson e Shiffrin(1968), e ainda o ACT de Anderson(1983). É de salientar que, estes sistemas de memória, são inspirados nos sistemas periciaisclássicos, o que permite a abordagem de uma descrição rigorosa de determinados "mecanismos psicológicos" que caracterizariam, aparentemente, os funcionamentos da memória humana. No entanto, existem sectores onde esta tecnicidade ainda não penetrou, nomeadamente: são incapazes de apreender as articulações que fundam na memória humana o entrelaçamento entre estruturas neurofisiológicas e nível cognitivo; e não explicam a forma como se constituem, na memória do Homem, as representações simbólicas. São estas as questões com que se deparam os atuais modelos conexionistas.
MODELO DE ATKINSON E SHIFFRIN
Articula uma memória a curto prazo com uma memória a longo prazo, análoga a uma memória central de computador e a um processo de controlo, também ele semelhante aos das máquinas. A sua versão mais avançada permite o reconhecimento mnésico, através da associação de um mecanismo de avaliação da familiaridade com um processo de investigação serial numa memória constituída como stock de conhecimentos.
MODELOS COMPUTO-SIMBÓLICOS DA MEMÓRIA HUMANA
Estes modelos consideram a hipótese de existir uma semelhança entre a memória humana e os sistemas de memória artificial elaborados atualmente. Os sistemas artificiais, compostos de módulos de tratamento ligados funcionalmente, onde se integra o mecanismo de controlo que lhes possibilita o gerir dos fluxos de informação que circula no sistema, têm uma organização espacial das unidades de armazenamento em lugares definidos da memória, o que acaba por se transformar numa das suas maiores limitações - conhecidas como a metáfora espacial. Dos sistemas de memória permanente artificial podemos destacar o modelo de Atkinson e Shiffrin(1968), e ainda o ACT de Anderson(1983). É de salientar que, estes sistemas de memória, são inspirados nos sistemas periciaisclássicos, o que permite a abordagem de uma descrição rigorosa de determinados "mecanismos psicológicos" que caracterizariam, aparentemente, os funcionamentos da memória humana. No entanto, existem sectores onde esta tecnicidade ainda não penetrou, nomeadamente: são incapazes de apreender as articulações que fundam na memória humana o entrelaçamento entre estruturas neurofisiológicas e nível cognitivo; e não explicam a forma como se constituem, na memória do Homem, as representações simbólicas. São estas as questões com que se deparam os atuais modelos conexionistas.
MODELOS CONEXIONISTAS DA MEMÓRIA HUMANA
Nestes modelos é suposto que as unidades de tratamento representarem células nervosas simplificadas, e que as próprias conexões entre essas unidades simulem as sinapses: redes ou arquiteturas miméticas. As suas leis de funcionamento são simples , sendo fundadas em tipos de entradas/saídas das unidades e nas transformações das forças de ligação (excitadoras ou inibidoras) e das interconexões (plasticidade sináptica). As memórias associativas distribuídas são um exemplo destes modelos, porque o que está armazenado não são as configurações de acontecimentos ou de fatos, mas as relações que venham a existir entre eles, e isso, através das forças de ligação, entre unidades constitutivas de configurações (o que lhes permite serem constantemente recriadas). A sua forma de armazenamento é distribuída, porque as marcas deixadas pelos acontecimentos sucessivos sobrepõem-se ao conjunto de junções sinápticas. Na construção dum modelo conexionista de memória, a escolha do tipo de regra de transformação é bastante importante, de modo a que se possam adaptar, de uma forma satisfatória, às plasticidades recursivas da memória humana. Resumindo, a psicologia cognitiva progrediu de simples experimentações sobre as memórias de sílabas sem significação para a modelagem dos fatores de motorização dos rostos ou das narrações. Por outro lado, não se pode proceder aos tratamentos cognitivos de informação sem ter em conta as especificidades e as modelagens dos processos mnésicos. A memória já não é um auxiliar do conhecimento, é parte integrante desse conhecimento, podendo até ser a forma de todo o conhecimento.
MODELO ACT DE ANDERSON
O modelo Adaptative Control of Thought é constituído por uma memória de trabalho (onde estão representados a situação corrente da memória e os resultados dos tratamentos de informação), uma memória declarativa permanente e/ou uma memória procedimental permanente. A primeira armazena e organiza informações concretas e conceptuais numa rede semântica. A segunda armazena processamentos que tomam a forma de regras de aplicação que, por sua vez, permitem elaborar novos conhecimentos declarativos ou transformar antigas regras já armazenadas. Subentendem-se neste modelo quatro processos de funcionamento:
- armazenamento (cria representações declarativas em memória permanente);
- recuperação (encontra uma informação em memória declarativa);
- comparação seletiva ou matching (compara o conteúdo da memória de trabalho com as regras de produção em memória procedimental);
- execução (transfere para a memória de trabalho a parte de ação de uma regra de produção a propósito da qual se revelou uma comparação seletiva com sucesso).
MODELOS COMPUTO-SIMBÓLICOS DA MEMÓRIA HUMANA
Estes modelos consideram a hipótese de existir uma semelhança entre a memória humana e os sistemas de memória artificial elaborados atualmente. Os sistemas artificiais, compostos de módulos de tratamento ligados funcionalmente, onde se integra o mecanismo de controlo que lhes possibilita o gerir dos fluxos de informação que circula no sistema, têm uma organização espacial das unidades de armazenamento em lugares definidos da memória, o que acaba por se transformar numa das suas maiores limitações - conhecidas como a metáfora espacial. Dos sistemas de memória permanente artificial podemos destacar o modelo de Atkinson e Shiffrin(1968), e ainda o ACT de Anderson(1983). É de salientar que, estes sistemas de memória, são inspirados nos sistemas periciaisclássicos, o que permite a abordagem de uma descrição rigorosa de determinados "mecanismos psicológicos" que caracterizariam, aparentemente, os funcionamentos da memória humana. No entanto, existem sectores onde esta tecnicidade ainda não penetrou, nomeadamente: são incapazes de apreender as articulações que fundam na memória humana o entrelaçamento entre estruturas neurofisiológicas e nível cognitivo; e não explicam a forma como se constituem, na memória do Homem, as representações simbólicas. São estas as questões com que se deparam os atuais modelos conexionistas.
A MEMÓRIA E OS PROCESSOS MNÉSICOS
O estudo da célula nervosa testemunha os "traços" que as nossas experiências e os nossos acontecimentos passados depositam na memória. As investigações no campo da memória orientam-se para a análise das formas constitutivas de "redes" e de "agregados celulares" a fim de apreender melhor certas formas de associatividade ou de estabelecimento de conexões que vão constituir as bases da organização de processos mnésicos determinados. Estas concepções não são estranhas ao que se sabe, ou supõe, acerca do aperfeiçoamento progressivo das nossas capacidades de memória e de aprendizagem lentamente melhoradas, no decurso da evolução, pelo enriquecimento em conexões múltiplas do nosso cérebro. Esta capacidade de armazenagem é tal que nós podemos mesmo conservar a imagem duma pessoa encontrada uma única vez, e poderíamos armazenar recordações cobrindo cerca de um século das nossas experiências. Uma palavra, uma impressão fugaz, são suficientes, muitas vezes, para "reativar" todo um conjunto de percepções, de emoções e de conhecimentos que pensávamos desaparecidos. No sentido teórico, o cérebro utiliza para aprender ou memorizar dois tipos de estratégias não exclusivas, mas sim complementares: ou fabrica novos circuitos graças à criação de novos neurônios, ou transforma as conexões estabelecidas entre neurônios já existentes. Deste modo, tanto a aprendizagem como a memória são considerados conjuntos de sistemas organizadores cuja ativação, espontânea ou pela experiência, orienta a função cerebral final. Desde sempre se fez um esforço para construir esta memória associativa que caracteriza o agregado celular e é a partir dela que se estabelecem analogias entre rede de neurônios e rede de autômato.
ANALOGIAS ENTRE REDE DE NEURÓNIOS E REDE DE AUTÓMATO
A partir de 1943, o neuropsiquiatra Mac Culloch e o lógico W. Pitts avançaram uma primeira modelagem da função neuronal: os "neurônios formais" que eles propunham eram processadores lógicos possuidores de uma saída com dois estados (1=ativo; 0=inativo) e podendo receber vários sinais de entrada ativos ou inativos. Quando a soma dos sinais de entrada ultrapassava um certo limiar do estado interno, o processador tornava-se, então, ativo. Associados em rede, estes neurônios formais podiam conectar-se uns aos outros por meio de amplificadores de ganhos variáveis, que esquematizavam a transmissão sináptica. A regra de aprendizagem mais elementar era impor, em cada etapa do cálculo, sobre a forma de ordens dadas por um "professor", quer um aumento, quer uma diminuição dessas diferenças dos ganhos sinápticos das conexões ativas, conforme o "professor" considerava correta ou incorreta as respostas dos órgãos de saída da rede. Dessa forma podia ajustar-se os ganhos sinápticos em cada ponto da rede, e estes autômatos simples ofereciam a possibilidade de observar como funcionavam capacidades de aprendizagem quando elas convergem para estados estáveis, ao mesmo tempo que permitiam resolver orações lógicas do tipo predicativo.
Mais tarde, nesta mesma linha de ação, F. Rosenblatt propôs, em 1962, uma máquina chamada Gammaperceptron, que iria favorecer os começos da cibernética. Esta máquina não tinha, contudo, senão uma capacidade reduzida de reconhecimento e de classificação das formas; sobretudo, era incapaz de resolver os problemas topológicos associados à "conexidade". As críticas vigorosas de M. Minsky e S. Papert, em 1969, iriam levar ao abandono deste primeiro esboço de "cérebro eletrônico" e retardar, infelizmente, durante muito tempo os trabalhos conexionistas. O mesmo não aconteceu com as investigações em biologia celular e em neurofisiologia que continuavam a desenvolver-se, sustentadas pelos progressos conseguidos em especial nas técnicas de registro eletrofisiológico. Foi por isso que, no próprio momento em que a inteligência artificial renunciava à ideia do "perceptron", foram os biólogos que retomaram o projeto e decidiram trabalhar o papel do "professor" na aprendizagem celular estudando, em especial, os reforços ou as diminuições dos acoplamentos funcionais entre neurônios conforme os níveis de atividade da rede.
ANOS ‘80
Na década de 70 as preocupações centrais da I.A. eram sem dúvida as questões da representação dos conhecimentos, do raciocínio e da procura. Só na década de ’80, muitas vezes chamada como a década de ouro da I.A. é que se dá a grande explosão.
Nos anos 80 as evoluções das pesquisas e das concretizações em I.A. sucedem-se, e formam-se várias I.A.’s servidas por uma atividade científica dotada de um entusiasmo impulsionador de novas descobertas e avanços nesta prometedora área da ciência e tecnologia.
Assim, a par da engenharia do conhecimento, da programação em lógica, do raciocínio qualitativo, dos modelos de utilizadores, da Inteligência Artificial Distribuída surgem, aprofundam-se os estudos em redes neuronais em processamento de imagens, em linguística e visão computacional, em economia artificial e em vida artificial.
A I.A. procurava e procura ainda compreender a mente através de modelos computacionais, construir sistemas computacionais capazes de realizar ações tradicionalmente consideradas mentais e encontrar novos meios de representação baseados em computação, através dos quais o intelecto humano se poderia expressar de modo diferente mas com clareza e força.
DENDRAL
O DENDRAL foi o primeiro sistema pericial ou ‘à base de conhecimentos’ a ser criado, em 1985 por Edward Feigenbaum, Lenderberg e Buchanan.
O programa dividia-se em três partes, a base ou armazém de conhecimentos, que continha todas as informações do programa, a base de fatos, que armazenava os dados do problema corrente (memória de trabalho) e o motor de inferências, que selecionava e validava as regras para a resolução do problema, operando entre a base de fatos e a base de conhecimentos.
Este programa pretendia simular o pensamento de um perito humano, e dividia-se, sumariamente, em três níveis: o nível estruturante, onde se construía a certeza, onde se dava a formalização; o nível conceptual, onde se definiam as operações possíveis de realizar e o nível cognitivo, onde se reuniam os resultados das escolhas feitas pelo perito, exibindo-as posteriormente, ao homem.
Mas a partir deste sistema a evolução foi rápida e hoje estamos já muito próximos de atingir o sonho dos investigadores de, com melhores técnicas de programação e com melhores técnicas de formalização das nossos arquiteturas mentais, construir agentes inteligentes com capacidades cognitivas muito próximas das humanas.
AGENTES INTELIGENTES / SISTEMAS PERICIAIS
"Gatinho Chesshire", começou Alice,
"Podes-me dizer que caminho tomar?"
"Isso depende de aonde queres chegar", disse o gato.
Lewis Carrol, Alice no país das maravilhas
A questão dos agentes inteligentes ou sistemas periciais tornou-se desde cedo uma espécie de calcanhar de Aquiles da I.A. isto porque a sua realização e aperfeiçoamento implicava que haviam sido atingidos os principais objetivos da ciência, por um lado conseguia-se simular os processos inteligentes do homem, de procura, planejamento, raciocínio e representação de conhecimentos e por outro lado com os contínuos avanços implicava que estivéssemos na via da replica dos processos mentais em representações computacionais.
Há então dois tipos de agentes inteligentes, um primeiro, denominados de agentes cognitivos e capazes de prever, de calcular racionalmente as suas ações e depois decidirem de acordo com os seus cálculos e previsões e um segundo incapaz de calcular a utilidade das suas ações ou de as planearem no sentido estrito de justificar as suas ações.
Fundamental quando se fala em sistemas periciais é sem dúvida mencionar a noção de conhecimento, de epistemologia (filosofia do conhecimento) e salientar que muitas vezes se pensa em I.A. como conhecimento + inferência.
O primeiro sistema pericial criado foi o sistema DENDRAL, por Feigenbaum, Lenderberg e Buchanan. Atualmente vamos já na terceira geração de Sistemas Periciais.
Ao criar sistemas periciais ou agentes inteligentes procura-se utilizar uma linguagem de ação, tão próxima quanto possível da nossa, com um alto nível de abstração, e através da lógica procura-se estabelecer as normas para o comportamento do agente. Assim, procura-se construir uma linguagem de programaçãoque, respeitando os princípios lógicos, se aproxime da forma como nós falamos e aperfeiçoar as técnicas de programação de forma a construir programas de I.A. que simulem os mecanismos cognitivos do homem.
A sua linguagem é feita de símbolos e abstrações, sendo simultaneamente artificial e natural. O agente deve agir em tempo real. Assim o agente inteligente vive autonomamente dentro de uma comunidade artificial, alimentando relações ativas entre ele e o meio e dentro das suas próprias estruturas.
Elementos fundamentais para a compreensão dos agentes inteligentes ou sistemas periciais são a representação de conhecimentos, a procura, o raciocínio e a resolução de problemas.
A adoção de novas linguagens de programação que permitiram modelar o pensamento simbólico levará os computadores muito mais longe não só ao nível dos sistemas periciais, onde se avançará no domínio do raciocínio e da resolução de problemas, da compreensão da língua natural, das capacidades cognitivas e dos grandes mistérios da mente (memória e consciência) mas também impulsionará as áreas da percepção, da locomoção e dos sistemas sensoriais.
Hoje os grandes problemas colocam-se no sentido de formar e formalizar conceitos e ampliar o poder de expressão das linguagens de programação.