Inteligência Artificial 101 — Parte 1: Definições Básicas e um pouco de História

Paulo Assunção
17 min readMar 2, 2022
Fonte da Imagem: https://bit.ly/2Xpgd9b

Estamos no ano de 2022 e as tecnologias relacionadas à Inteligência Artificial (IA), um dos pilares do processo de Transformação Digital, estão no topo das discussões das empresas e da agenda dos líderes corporativos. Segundo o Gartner, somente 23% dos investimentos previstos em IA foram suspensos ou reduzidos durante a pandemia de Covid-19 e cerca de 30% das empresas, na verdade, aumentaram seus orçamentos dedicados à tecnologia. Ou seja, embora o interesse por IA não seja exatamente recente, estamos no momento em que o seu uso pelas organizações começa a acelerar. É o que os analistas de mercado chamam de “Industrialização da IA”.

Vale destacar que desde 1995, primeiro ano do Gartner Hype Cycle, tecnologias relacionadas à Inteligência Artificial como Agentes Inteligentes e o Reconhecimento de Voz e Caracteres já apareciam no famoso gráfico. Desde então, isso se tornou praticamente um padrão e a IA está cada vez mais no centro da Inovação Tecnológica, seja como protagonista ou como habilitadora, conforme mostra a imagem abaixo:

A IA sempre esteve presente nos Hype Cycles da Gartner como uma tecnologia importante. Note que a maior parte das tecnologias emergentes atuais são vertentes de IA ou se baseiam fortemente nesta tecnologia. (Fontes das Imagens: https://bit.ly/3k7uEYE e https://bit.ly/3lBlKSS, slide 7)

Segundo a consultoria McKinsey, há um crescimento da fatia dos ganhos relacionados à IA oriundos da geração de novas receitas. Ou seja, as empresas estão usando IA para criar novos modelos de negócio, produtos e serviços ou ampliar o faturamento dos revenue streams que já existem. Em seu relatório de insights “The State of AI in 2021”, a McKinsey revelou que 27% das empresas entrevistadas já geram ao menos 5% do seu EBIT (LAJI, em português) através de casos de uso de IA e que 56% delas utilizam essa tecnologia na otimização de alguma função de negócio.

Mas, esse não é um artigo sobre negócios. Eu tenho estudado tópicos teóricos e práticos de IA, especificamente Machine e Deep Learning, há alguns anos e gostaria de compartilhar nesse espaço pessoal, de forma simples, mas rigorosa, um pouco do que tenho aprendido em uma série de artigos juntamente com minhas reflexões sobre esse tema. Depois de alguns anos de uma verdadeira “febre da IA”, arrisco dizer que muitos desses conceitos já estão universalizados nos meios profissionais e provavelmente você já os conheça, mas como toda série precisa de um início, nada mais adequado que começar das ideias mais fundamentais desse tema fascinante.

Inteligência Artificial, Machine Learning e Deep Learning

Falando em ideias fundamentais, vamos começar nossa jornada esclarecendo um mal-entendido que eventualmente ocorre. Os termos Inteligência Artificial, Machine Learning (Aprendizado de Máquina) e Deep Learning muitas vezes são usados de forma intercambiável, geralmente por pessoas não especializadas no assunto, mas eles não são equivalentes. A relação entre eles é representada pelo seguinte diagrama, muito encontrado em livros e artigos.

Fonte da Imagem: Deep Learning, Capítulo 1 (Goodfellow, Bengio e Courville)

Ou seja, a Inteligência Artificial é uma área de estudo, originalmente, mas hoje em dia não somente, da Ciência da Computação que engloba o Machine Learning, mas também outros temas de interesse, visto que nem toda IA pode ser classificada como uma aplicação de Machine Learning. Do mesmo modo, todas as redes neurais profundas, objeto de estudo do Deep Learning, são exemplos de aplicações do Machine Learning, mas o inverso não é verdade.

Para deixar mais claro, vamos definir cada um desses termos:

Inteligência Artificial: É o nome que se dá ao campo mais amplo de estudo dedicado à reprodução em máquinas de capacidades cognitivas, como raciocínio, aprendizado, planejamento, representação, armazenamento e recuperação do conhecimento, processamento de linguagem natural e percepção, próprias de seres vivos dotados de um cérebro biológico, notadamente do ser humano, o animal inteligente por definição.

Já escutei de alguns professores com os quais tive o privilégio de aprender sobre o assunto que este se trata de ciência e ao mesmo tempo de arte, visto que a criatividade desempenha papel central na sua aplicação prática, o que concordo. Seu desenvolvimento se inspirou desde o princípio, e continua se inspirando, no que sabemos sobre o cérebro humano e seu funcionamento (como tomamos decisões baseadas em regras lógicas, por exemplo).

Nesse sentido, a IA costuma ser dividida em duas grandes subáreas principais: Simbólica, profundamente baseada na representação do conhecimento, lógicas formais e buscas de alternativas ótimas, e Machine Learning, centrada na detecção de padrões quase sempre ocultos em dados. Cada uma dessas subáreas enfrentam o problema central da IA, criar uma máquina que pensa ou age como um humano (ainda que em um escopo limitado de situações), a partir de uma abordagem própria. A verdade é que, hoje em dia, essa divisão, embora muito utilizada, não descreve todas as linhas de pesquisa da IA, porquanto o que é conhecido como “IA neurosimbólica” explora as contribuições das duas abordagens buscando combinar o melhor de ambas.

De um ponto de vista mais prático, quando falamos de IA, estamos falando de um paradigma de programação diferente do convencional. Ao invés de determinarmos instruções diretas, regras explícitas para a realização de tarefas específicas, como é o processo de desenvolvimento de software tradicional, em um software baseado em IA programamos métodos que permitem ao computador realizar tarefas para as quais nem mesmo sabemos exatamente como escrever algoritmos para a execução em um computador. Sem a IA, tarefas computacionais como reconhecimento de voz e de imagens, por exemplo, nunca atingiriam o nível de eficácia e eficiência que conhecemos atualmente.

Machine Learning (Aprendizado de Máquina): É a subárea que aborda o problema da IA através do paradigma do “aprendizado através de dados”. Assim como o ser humano adquire capacidade de realizar certas tarefas por meio da experiência, da exposição a situações, os algoritmos de Machine Learning “aprendem” por meio de um processo de treinamento baseado em “lições”, nome dado a exemplos conhecidos do problema previamente coletados.

Um exemplo disso é quando treinamos uma IA para detectar um objeto de interesse em imagens. Realizamos esse processo por meio de conjuntos de imagens que contém e não contém este objeto, informando ao algoritmo se este está ou não presente em cada uma das imagens. Cada par (imagem, indicador de presença ou não do objeto) é o que chamamos de uma “lição”.

Ou seja, quando falamos sobre Machine Learning, estamos falando de algoritmos que se adaptam automaticamente a exemplos conhecidos do problema com as quais terão de lidar posteriormente. Esses algoritmos, uma vez adaptados a esses dados de treinamento, “aprendem” padrões gerais presentes nas “lições”, o que lhes permitir inferir respostas corretas para novas situações (representadas por conjuntos de dados não utilizados no treinamento). Uma das melhores definições de Aprendizado de Máquina, que sintetiza o que tentamos explicar nos parágrafos acima, foi dada por Tom Mitchell, cientista da computação norte-americano:

“Um programa de computador é dito aprender da experiência E com respeito a um tipo de tarefas T e medida de desempenho P se seu desempenho em realizar T, conforme medido por P, melhora com a experiência E” (Fonte: Machine Learning, Tom Mitchell)

Podemos dizer que o Aprendizado de Máquina é a subárea da IA mais utilizada nos dias atuais*, mas sua capacidade ainda é bastante limitada quando pensamos no objetivo final da IA, a completa reprodução e, em momento subsequente, superação, em máquinas da capacidade humana de resolver problemas inteiramente novos, definição prática da própria Inteligência. Isto é, algoritmos de Machine Learning “aprendem” como resolver problemas específicos, sendo para eles impossível resolver problemas para os quais não tenham sido treinados previamente ou que estão além do escopo de algumas técnicas que reduzem ou dispensam a necessidade de um treinamento, mas que ainda demandam um tempo de “prática e autoaprendizado”, digamos assim, do próprio algoritmo.

* o Aprendizado de Máquina (Machine Learning) é, na verdade, quase toda a IA que usamos no cotidiano atual

Por esse motivo, o Machine Learning é conhecido como uma forma de Narrow AI (IA restrita, estreita) em contraposição à inteligência artificial ampla e definitiva, a Artificial General Intelligence (AGI)**, popularmente conhecida como “Singularidade”.

** aquela exibida pelo robô TARS do filme Interstellar, por exemplo

Deep Learning: É a subárea do Aprendizado de Máquina que trabalha com redes neurais*** que possuem uma ou mais camadas ocultas, aquelas que não são de entrada nem de saída da rede. Ganhou muito destaque nos últimos anos pelo seu enorme poder de modelar relações dos mais diversos tipos, pela maior disponibilidade de dados para o treinamento de modelos (nome técnico costumeiramente dado a uma IA) e pela popularização do uso das GPUs no treinamento das redes neurais, um processo computacionalmente bastante intensivo.

*** Redes neurais são modelos matemático-computacionais que emulam a estrutura básica do cérebro humano, um conjunto de células (os neurônios) conectadas entre si.

História e Desenvolvimento

Sem querer sermos extensivos nesse tópico, visto que ele é gigantesco, acredito que vale a pena dar um pouco de contexto histórico ao tema. Sendo assim, vou enfocar mais nos pioneiros da área e apenas pontuar alguns dos desenvolvimentos mais recentes.

Apesar de muitos filósofos e escritores ao longo das eras, entre eles Platão, Aristóteles, René Descartes, Leibiniz e Isaac Asimov, terem especulado acerca da inteligência humana e da criação de máquinas inteligentes, foram o médico Warren McCulloch e o matemático Walter Pitts Jr, ambos norte-americanos, os autores do trabalho inaugural da área que hoje conhecemos como Inteligência Artificial.

McCulloch e Pitts (de óculos). Fonte da Imagem: https://bit.ly/3nG0DkO

Em 1943, quando nem existia ainda o próprio termo “Inteligência Artificial”, McCulloch e Pitts publicaram o artigo “A Logical Calculus of the Ideas Immanent in Nervous Activity” no Bulletin of Mathematical Biophysics, onde propuseram o modelo matemático de um neurônio artificial hoje conhecido como “Neurônio de McCulloch-Pitts”. Importante destacar que, no ano anterior, Pitts já havia publicado dois artigos nos quais expôs algumas ideias sobre o funcionamento dos “circuitos neurais” e como estes poderiam ser descritos matematicamente. Observe que desde o seu nascimento a área surge como multidisciplinar e buscando inspiração na natureza, características que marcaram muitas de suas pesquisas ao longo do tempo.

Outro nome muito importante no surgimento da Inteligência Artificial é o do matemático inglês Alan Turing, personagem que se tornou conhecido do público em geral graças ao filme O Jogo da Imitação, no qual foi interpretado pelo ator Benedict Cumberbatch.

Em 1950, Turing, considerado o pai de toda a computação, publicou um artigo chamado “Computing Machinery and Intelligence” onde fez um questionamento filosófico essencial para a IA, “As máquinas podem pensar?”, e propôs um método para classificar uma máquina como pensante, o famoso Teste de Turing. Passados 70 anos, essa pergunta permanece sem resposta e objeto de grande controvérsia, como veremos a seguir.

Alan Turing (Fonte da Imagem: https://bit.ly/2VPPBhs)

Com a aceleração do Deep Learning e do Big Data nos últimos 20 anos e a popularização das tecnologias de computação paralela, há um frenesi, notadamente na mídia popular, em torno da Singularidade e alguns futuristas acreditam que ela será inevitavelmente atingida a partir da evolução e combinação de teorias já existentes, (muuuuuuitos) dados e mais poder de computação. Ou seja, para eles, os ingredientes necessários da AGI já existem e não se trata mais de “se”, mas de “quando”. Há até quem arrisque o ano.

O inventor e futurista do Google, Ray Kurweil, afirma que a Singularidade está próxima e será atingida antes da metade do Século XXI, mas é confrontado por pesquisadores como Erik Larson

Mas, essa opinião não é unânime. Uma parte importante da comunidade científica é bem mais cautelosa e afirma que não estamos trilhando o caminho para uma AGI porque esse caminho simplesmente ainda não existe. Para estes pesquisadores, é possível que estejamos numa corrida onde a linha de chegada não é uma certeza. “Mas, pensando bem, não é assim em tudo na vida e, em particular, na Ciência?”, você pode estar se perguntando. Bem, esse é justamente o ponto daqueles que questionam a inevitabilidade da criação da Singularidade. No livro “The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do”, por exemplo, Erik Larson, um desses pesquisadores céticos, defende que apenas aprimorar as teorias atuais e processar todos os dados de que dispomos não será suficiente para que consigamos criar uma IA de nível humano. Segundo Larson, precisamos de novos saltos teóricos e não sabemos nem mesmo em quais as direções esses saltos deverão ocorrer. Isto é, a criação de uma AGI dependeria de desenvolvimentos científicos ainda completamente desconhecidos e, portanto, não pode ser vaticinada e muito menos datada.

A propósito, apenas por curiosidade, em oposição a Ada Lovelace, primeira pessoa programadora de computadores da história, que afirmava serem os computadores capazes exclusivamente de executar ordens, Turing acreditava que, sim, computadores de propósito geral são capazes de aprender e até demonstrar criatividade.

Mas, essa é uma polêmica que ultrapassa as ambições desse artigo. Voltemos à linha do tempo da IA.

Alguns dos cientistas que atenderam ao “The Dartmouth Summer Research Project on Artificial Intelligence” (da esquerda para direita: Oliver G. Selfridge, Nathaniel Rochester, Ray Solomonoff, Marvin Minsky, Trenchard More, John McCarthy e Claude Shannon) e a placa comemorativa da criação do termo “Inteligência Artificial” (Fonte das Imagens: https://bit.ly/3kh3caS)

Outro momento central da história da IA foi a Conferência de Dartmouth (“The Dartmouth Workshop”), onde o termo Inteligência Artificial, de autoria de John McCarthy (Prêmio Turing de 1971), foi usado pela primeira vez. Era o verão do ano de 1956 quando nomes como Claude Shannon (pai da Teoria da Informação), John Nash (expoente da Teoria dos Jogos Colaborativos, Prêmio Nobel de Economia de 1994 e Prêmio Abel de 2015) e Marvin Minsky (Prêmio Turing de 1969) se reuniram no Dartmouth College com o objetivo de discutir e resolver algumas das questões relativas às “máquinas pensantes”, tema de interesse de todos os participantes. A estimativa original era concluir o trabalho em 2 meses.

As coisas não ocorreram exatamente como o planejado e por diversos motivos. Primeiro, o financiamento conseguido junto à Fundação Rockefeller foi apenas metade do solicitado, o que prejudicou a organização do evento. Mas, os principais obstáculos foram mesmo a disponibilidade apenas parcial de boa parte dos 20 participantes (conforme contabilizado por Ray Solomonoff) e o próprio escopo do projeto. Ao final, os problemas discutidos, entre eles Processamento de Linguagem Natural, Raciocínio e Criatividade, mostraram-se tão amplos e complexos, mesmo para a plêiade de gênios que atenderam à Conferência, que são linhas de pesquisa muito ativas até hoje.

Para que não fique a impressão de que a conferência não foi produtiva, vale destacar que alguns avanços importantes foram lá apresentados e discutidos. Allen Newell e Herbert Simon, por exemplo, apresentaram o seu “Logic Theorist” (LT), a primeira demonstração do que conhecemos hoje como Raciocínio Automatizado. Capaz de demonstrar certos tipos de teoremas, o LT teve enorme influência no rumo inicial das pesquisas em IA, fortalecendo a abordagem simbólica do tema, predominante à época. Posteriormente, como evolução do trabalho inicial feito com o LT, Newell e Simon criaram o General Problem Solver (GPS), um software capaz de resolver qualquer problema que pode ser representado através de cláusulas de Horn.

Frank Rosenblatt, o Perceptron Mark 1 e Yann LeCun em palestra no Princeton IAS. O Perceptron, mesmo não tendo múltiplas camadas, é considerado como um marco no desenvolvimento das redes neurais profundas (Fontes das Imagens: https://bit.ly/39ddOBe, https://s.si.edu/3tNjQCj e https://youtu.be/gG5NCkMerHU).

Logo após a Conferência de Darthmout, em 1960, um psicólogo americano chamado Frank Rosenblatt, que já vinha desenvolvendo teorias baseadas nas ideias de McCulloch e Pitts, adaptou um computador IBM e o transformou em uma máquina baseada em conexões de unidades de processamento capaz de aprender. Ela se chamava (Mark I) Perceptron e é um marco importante do conexionismo, nome dado à abordagem de IA, e também de outras ciências cognitivas como a Psicologia, que aposta nas redes neurais como mecanismo de compreensão do funcionamento da mente humana. Embora o trabalho de Rosenblatt, descrito no seu livro “Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms” de 1962, tenha se tornado mais conhecido graças à enorme influência do clássico algoritmo Perceptron, o crédito pela implementação da primeira rede neural é de Marvin Minsky, um aluno de McCulloch e Pitts, e Dean S. Edmonds Jr., posteriormente professor de Física da Universidade de Boston, pela criação do computador SNARC (1950).

Marvin Minsky e o SNARC (Fonte das Imagens: https://bit.ly/3hFLYSL)

Como já dá para notar, diversas áreas de conhecimento contribuem para o desenvolvimento da IA. Entre elas, ainda não mencionadas explicitamente, mas entre as mais importantes, estão a Estatística e a Probabilidade. Ainda nos anos 60, em paralelo ao desenvolvimento das abordagens simbólicas e das Redes Neurais, técnicas probabilísticas como os métodos bayesianos, por exemplo, foram sendo exploradas com sucesso no contexto da IA e adicionadas ao corpus do que hoje chamamos de Teoria da Aprendizagem Estatística, um ramo do Machine Learning (há quem considere os dois termos como sinônimos, devido ao enorme número de algoritmos de Machine Learning que se baseiam em técnicas estatísticas).

Dentro desse tema de estudo em particular, grandes desenvolvimentos foram realizados. Às técnicas clássicas da Estatística como Regressão Linear (Simples e Multivariada), Regressão Logística, Cadeias de Markov e discriminantes (como o de Fischer e a Distância de Mahalanobis), somente para mencionar algumas, juntaram-se outras mais modernas como Árvores de Decisão (baseadas em métodos de agrupamento), Florestas Aleatórias e as poderosas Máquinas de Vetores de Suporte (SVM), o “estado da arte” do Machine Learning na década de 90 e início dos anos 2000. Essas técnicas, juntamente com as redes neurais mais simples e algoritmos oriundos da Mineração de Dados, uma área correlata, formam basicamente todo o arsenal do Machine Learning tradicional, aquele não baseado em redes neurais profundas.

Um fato bastante importante de mencionar é que a história da IA é marcada pela alternância entre momentos de euforia e otimismo, todos iniciados por algum avanço teórico de impacto ou o surgimento de novas tecnologias, como ocorre atualmente, e de muito ceticismo e estagnação nos desenvolvimentos. Esses últimos são comumente chamados de “Invernos da IA”.

As dificuldades enfrentadas na solução do problema de tradução automática na década de 60 (em plena Guerra Fria, os militares americanos tentaram desenvolver um “Google Translator” para o idioma russo), por exemplo, mostraram-se intransponíveis à época, suscitando a descrença, especialmente em agentes de financiamento como a DARPA (Defense Advanced Research Project Agency), na capacidade da IA de resolver problemas reais de grande complexidade. Da mesma forma, redes neurais mais potentes tinham grandes dificuldades de serem implementadas devido às limitações computacionais e de dados disponíveis daqueles tempos. Embora houvesse um grande hype por parte dos pesquisadores com relação às redes neurais, os problemas nessa área pareciam tão intratáveis na prática que houve praticamente um abandono dessa linha de pesquisa por um tempo, com retomada em escala significativa somente na década de 80.

Para finalizar, uma vez que esse histórico (que era para ser pequeno) já vai deveras longo, vamos dar um salto no tempo até os dias atuais. A partir dos anos 2010, com o advento da web 2.0 e, particularmente, das redes sociais, da computação distribuída em nuvem, do uso de GPUs e o fenômeno do Big Data, as condições estavam dadas para a explosão das redes neurais profundas. E elas explodiram, nos lançando na onda de Deep Learning em que estamos hoje.

Personagens como Geoffrey Hinton, um dos responsáveis pela aplicação e popularização do algoritmo de backpropagation no treinamento das redes neurais de múltiplas camadas, Yoshua Bengio, orientador de Ian Goodfellow no desenvolvimento das redes adversárias generativas (GANs), e Yann LeCun, pai da redes neurais convolucionais (CNN), são alguns dos principais responsáveis pelos avanços teóricos e de engenharia que iniciaram esse grande movimento.

Conforme já mencionado, o Deep Learning (Aprendizado Profundo, em Português) é um subcampo da Inteligência Artificial que tem a criação de redes neurais artificiais de grande porte como abordagem para os problemas que tenta resolver. Esse tipo de IA é particularmente indicada para dados complexos (imagens, textos, sons, etc.) em larga escala. Apesar de exigirem um maior poder computacional, estão hoje presentes em qualquer smartphone moderno devido ao avanço exponencial da tecnologia de microprocessadores. São redes neurais que reconhecem a nossa face e desbloqueiam o celular, por exemplo. Foi utilizando o Deep Learning que a Google Deep Mind conseguiu, em 2016, um feito considerado impossível até então: vencer um campeão nono dan de Go, um jogo de tabuleiro de origem chinesa considerado mais difícil do que o próprio xadrez.

Esse feito é importante especialmente devido à velocidade com que foi conseguido. Foram necessários cerca de 30 anos para que os programas de computador evoluíssem do nível de um amador competente ao ponto de derrotar o campeão mundial de xadrez (Garry Kasparov foi derrotado pelo IBM Deep Blue em 1997). Para derrotar Lee Sedol, super campeão sul-coreano de Go, foram necessários apenas 7 anos de desenvolvimento tecnológico. Para saber mais dessa história, vale a pena assistir o documentário AlphaGo — The Movie. Esse enorme salto só foi conseguido devido ao emprego de redes neurais profundas, especificamente da técnica conhecida como Deep Reinforcement Learning. Através dessa técnica, é possível desenvolver um modelo de Inteligência Artificial sem nenhuma lição, somente através de tentativas penalizadas (em caso de falha) e recompensadas (em caso de sucesso). Enquanto o AlphaGo original foi desenvolvido em parte com base na técnica de aprendizado supervisionado (onde lições são utilizadas), uma nova versão, batizada de AlphaGo Zero, foi criada sem nenhum treinamento humano. Recebendo apenas as regras básicas do jogo, o AlphaGo Zero aprendeu a jogar Go em um nível de campeão mundial praticando contra ele mesmo. Tudo isso em apenas 40 dias. Essa nova versão foi capaz de derrotar o AlphaGo que venceu Lee Sedol 100 vezes, sem nenhuma derrota. Ou seja, aprender inteiramente sozinho mostrou-se ser mais eficiente que receber lições humanas.

Mas, a IA não somente joga melhor do que os humanos. Aplicações de Deep Learning estão sendo utilizadas também no diagnóstico por imagem, por exemplo, com resultados superiores aos dos médicos em muitos casos. Essa é uma boa notícia, uma verdadeira esperança de democratização do acesso à saúde, hoje um benefício nem sempre conseguido pelos mais pobres. Se dividirmos o processo adotado pelos médicos em pequenas partes, é perfeitamente factível considerar que uma parte da Medicina pode, desde um ponto de vista técnico, ser automatizada ou, ao menos, ser profundamente auxiliada por IA dentro de algumas poucas décadas. Certamente haverá resistência dos conselhos médicos, mas, creio que ela será inevitavelmente superada, com ganhos inclusive para a própria classe médica, pois esta passará a ter um poderosíssimo aliado na realização de sua missão. Além disso, a IA também tem ajudado no desenvolvimento de novas drogas, com grande êxito. O AlphaFold, outra criação do Google DeepMind, por exemplo, resolveu um problema que há décadas os cientistas tentavam resolver: encontrar um método confiável que determinasse a estrutura 3D de uma proteína a partir apenas do conhecimento de seus aminoácidos.

Mesmo as disciplinas teóricas como a Matemática já começam a adotar a IA como um auxiliar capaz de descobrir padrões que até os maiores gênios matemáticos de todos os tempos teriam dificuldade de perceber e descrever, objetivo central da “Rainha e Serva das Ciências”. Além disso, a evolução de tecnologias como a GPT-III, um desenvolvimento da Open AI focado na geração de Linguagem Natural, nos permitirá interagir de forma sofisticada, nada comparado ao que temos hoje com Siri, Alexa, etc., com tais inteligências artificiais usando nossa própria língua (Português, Inglês, etc.), tornando a adoção de tais tecnologias algo muito simples para qualquer tipo de pessoa e integrando-as completamente ao nosso modo de viver. Por fim, até os famigerados bugs tendem a desaparecer ou diminuir drasticamente com o desenvolvimento de código de computador realizado ou suportado por softwares de inteligência artificial como o AlphaCode.

Finalmente caminhando para o final (prometo), vale mencionar um recente desenvolvimento da Google: o Google Pathways. Trata-se de uma nova arquitetura para softwares de IA. Sua promessa consiste em “treinar um único modelo a fazer milhares e até milhões de coisas”. Se confirmados todos os benefícios propagandeados, o impacto dessa nova forma de pensar a IA será muito profundo. Todos os modelos hoje desenvolvidos são extremamente especializados (“Narrow AI”, lembra?). Ou seja, um modelo capaz de detectar invasões de hackers em uma rede de computadores não consegue realizar diagnósticos médicos baseados em imagens. A Google está afirmando que sua tecnologia Pathways acabará com esta limitação. Será essa a peça que faltava no quebra-cabeça da AGI? É cedo para dizer, mas pode ser o início de uma nova era.

Graças a esses grandes avanços, predomina hoje a crença de que não teremos um novo “Inverno da IA”. Empresas de tecnologias como Facebook, Apple, Amazon, Netflix e Google (as famosas “FAANG”) estão acelerando a adoção de IA em todo mundo por meio de investimentos maciços em pesquisa, desenvolvimento de plataformas cada vez mais amigáveis e a aplicação intensiva em quase todos os seus produtos e serviços, o que tem mudado as expectativas do que sistemas computacionais são capazes de fazer. Não é exagerado afirmar que boa parte do faturamento atual das “FAANG” depende de algoritmos de Inteligência Artificial. Ou seja, existe hoje um forte interesse econômico, dessas empresas certamente, mas não somente delas, em continuar expandindo os limites do que a IA pode realizar. E onde há dinheiro e inteligência, há avanço.

Conclusão

Neste primeiro artigo, examinamos as definições mais básicas desse tema tão comentado nos dias atuais: a Inteligência Artificial. Apresentamos também um histórico resumido do seu desenvolvimento, uma empreitada de pouco mais de 70 anos. Naturalmente, muito mais poderia ser dito sobre o histórico, mas isso demandaria um artigo ainda maior ou uma sucessão de artigos dedicados, o que não é o nosso objetivo neste espaço.

Se você tem interesse em conhecer mais sobre a História da IA, recomendo um artigo do curso de história da computação da Universidade de Washington como uma leitura complementar (ainda no nível de um overview), o primeiro capítulo do livro “Artificial Intelligence: A Modern Approach” de Peter Norvig e Stuart Russell ou a leitura do livro “A Brief History of Artificial Intelligence: What It Is, Where We Are, and Where We Are Going” de Michael Wooldridge.

Até o próximo artigo.

--

--

Paulo Assunção

Mgmt / IT Consultant, Data Enthusiast. I write about management, technology applied to business, Data Science, and my professional experiences. bit.ly/39wA2xZ