Por definição não gosto de produzir textos que ultrpassem uma página; entretanto no caso presente tenho que pedir desculpas por ter ultrpassado tal limite. Justifico esta falha para poder introduzir uma pesquisa feita no DeepSeek . Tal pesquisa se relaciona à evolução do que chamaria de "IA". Inteligência Artificial, termo que a contragosto aqui aplico, após assitir uma palestra/enttrevista do Prof. Dr. Miguel Nicollelis que relativizava, ou melhor esclarecia, a aplicação da IA.
Como tive a oportunidade de analisar e praticar alguns destes métodos na então Secretaraia de Segurança do Rio de Janeiro, e como pesquisava há mais tempo sobre o tema, resolvi destacar (após a o resultado da pesquisa do DeepSeek) as conclusões a que cheguei desde os ensaios sobre a gestão industrial baseada na metodologia MRPII, que evolui desde os anos 70, e para qual imaginava a aplicação de IA. Não é bem assim: a utilização das ferramentas de IA são válidas em pesquisas, tanto que as utilizei neste presente blog. Mas as conclusões a que cheguei exigem que aqui sejam apresentadas. (neste blog foram postados textos sobre a matéria de 18/11/22 até 28/02/23 ).
=====================================================================
Redes Neurais Artificiais (RNAs) - Primeira "Era de Ouro":
- Perceptron (Frank Rosenblatt, 1958/60): A primeira rede neural implementada em hardware, capaz de classificação linear simples. A publicação do livro "Perceptrons" por Minsky e Papert (1969), que mostrou as suas limitações, levou ao primeiro "Inverno da IA".
Algoritmos de Aprendizagem por Reforço (AR) - Fundamentos:
Dynamic Programming (Richard Bellman, anos 50/60): Base terica para o AR moderno.
O problema do "Credit Assignment" (Minsky, 1961): Formalizou o desafiode atribuir crédito pelas ações ao longo do tempo.
Métodos Estatísticos Clássicos:
Análise de Cluster (K-Means): Proposto por Hugo Steinhaus (1956) e formalizado por James MacQueen em 1967. Um dos algoritmos de agrupamento mais simples e populares.
Análise de Componentes Principais (PCA): Desenvolvida por Karl Pearson (1901) e Harold Hotelling (1933), mas a sua aplicação computacional ganhou força nos anos 60.
Sistemas Especialistas (Embrião):
Dendral (iniciado em 1965): Frequentemente considerado o primeiro sistema especialista, foi desenvolvido para analisar dados espectrométricos e inferir a estrutura de moléculas orgânicas.
Década de 1970: A Ascensão dos Sistemas Baseados em Conhecimento
Como reação às limitações das redes neurais, a IA simblica tornou-se dominante.
Sistemas Especialistas:
MYCIN (Edward Shortliffe, ~1976): Um sistema pioneiro para diagnstico de infeções bacterianas e recomendação de antibiticos. Introduziu conceitos fundamentais como o motor de inferência e a base de conhecimento, separando a lgica do conhecimento factual.
Estruturas de Representação de Conhecimento:
Frames (Marvin Minsky, 1974): Estruturas para representar conhecimento estereotipado sobre objetos e eventos.
Scripts (Roger Schank e Robert Abelson, 1977): Para representar sequências de eventos típicas (ex: ir a um restaurante).
Algoritmos de Redes Neurais:
Backpropagation (Ideias Iniciais): A base do algoritmo foi proposta por Paul Werbos na sua tese de doutoramento (1974), mas não recebeu atenção imediata.
Década de 1980: A Explosão da IA Simblica e o Renascimento Conexionista
Foi a era de ouro dos sistemas especialistas comerciais e, ao mesmo tempo, viu o retorno das redes neurais.
Redes Neurais - Segunda Vaga:
Backpropagation (Rumelhart, Hinton, Williams, 1986): O artigo que popularizou e demonstrou a eficácia do algoritmo de retropropagação para treinar redes multi-camadas (perceptrões multicamadas), superando as limitações do perceptron simples.
Hopfield Network (John Hopfield, 1982): Um tipo de rede recorrente que podia funcionar como memória associativa.
Algoritmos de Aprendizagem Automática (Machine Learning):
Árvores de Decisão (ID3): Desenvolvido por Ross Quinlan em 1986. Um algoritmo fundamental para a classificação que deu origem a versões mais modernas (C4.5, C5.0).
Algoritmos Genéticos (John Holland, anos 60/70): Ganharam popularidade e aplicação prática nesta década, inspirados na seleção natural.
Sistemas Especialistas e Ferramentas:
Proliferação de shells (como CLIPS) e linguagens (como Prolog) para construir sistemas especialistas. O mercado comercial floresceu, mas depois entrou em declínio devido aos seus prprios limites (dificuldade de manutenção, conhecimento não comum).
Década de 1990: A Ascensão dos Métodos Estatísticos e Práticos
A IA tornou-se mais prática e estatística, com métodos robustos que são usados até hoje.
Métodos de Conjunto (Ensemble Methods):
Random Forests (Leo Breiman, 2001, mas baseado em bagging dos anos 90): A ideia de bagging foi introduzida por Breiman em 1996.
AdaBoost (Yoav Freund e Robert Schapire, 1996): Um dos primeiros e mais bem-sucedidos algoritmos de boosting.
Máquinas de Suporte Vetorial (SVMs):
Tornaram-se populares com os trabalhos de Corinna Cortes e Vladimir Vapnik (1995). Ofereciam fortes garantias teóricas e alto desempenho em problemas de classificação.
Métodos Probabilísticos:
Redes Bayesianas: Tornaram-se um modelo gráfico probabilístico amplamente adotado para representar conhecimento sob incerteza.
Processamento de Linguagem Natural (PNL) Estatístico:
Transição de abordagens baseadas em regras para modelos estatísticos alimentados por incorporação de texto.
Mineração de Dados (Data Mining):
O termo ganhou popularidade. Algoritmos como Apriori (para regras de associação, 1994) foram desenvolvidos para descobrir padrões em grandes conjuntos de dados.
Década de 2000: A Fundação para o Big Data
A internet e a digitalização geraram mais dados, exigindo métodos escaláveis.
Aprendizagem por Reforço Moderna:
Consolidação teórica e aplicações práticas. O livro de Sutton e Barto ("Reinforcement Learning: An Introduction", 1998) tornou-se a bíblia da área.
Aplicação no roteamento de viaturas de polícia
Algoritmo de Colônia de Formigas (Marco Dorigo, 1992): Pertence à área da Inteligência de Enxame (Swarm Intelligence) e ganhou grande aplicação na década de 2000 para otimização combinatorial
Métodos de Dimensionalidade Não-Linear:
t-SNE (Laurens van der Maaten e Geoffrey Hinton, 2008): Para visualização de dados de alta dimensão.
Isomap e LLE: Outros métodos de manifold learning.
O Paradigma do Ensemble Amadurece:
Gradient Boosting Machines (Jerome Friedman, 2001): A base para ferramentas extremamente poderosas como XGBoost (2016), LightGBM e CatBoost, que dominariam competições de ciência de dados (como o Kaggle) na década de 2010.
Década de 2010 até ao Presente: A Era do Deep Learning e do Big Data
A convergência de grandes dados (Big Data), poder computacional (GPUs) e avanços algorítmicos levou à revolução do Deep Learning.
Deep Learning (Aprendizagem Profunda):
Redes Neurais Convolucionais (CNNs): AlexNet (2012) venceu uma competição de visão computacional por uma margem enorme, iniciando a febre do DL. Evoluiu para arquiteturas como VGG, GoogLeNet, ResNet.
Redes Neurais Recorrentes (RNNs) e LSTMs: Para dados sequenciais (linguagem, séries temporais).
Transformers (2017): A arquitetura por trás da revolução atual em PNL (ex: BERT, GPT) e além, substituindo em grande parte as RNNs.
===========================================================================
A partir de 2017 estudei este tema mais por curiosidade e diletantismo
Aprendizagem por Reforço Profunda (Deep RL):
Combina Deep Learning com AR. Exemplos famosos: AlphaGo (2016) da DeepMind, que venceu o campeão mundial de Go.
Aprendizagem Generativa:
GANs (Generative Adversarial Networks - 2014): Duas redes neurais que competem para gerar dados novos e realistas (imagens, áudio).
Modelos de Difusão (2020s): A tecnologia por trás de ferramentas como DALL-E, Midjourney e Stable Diffusion, que superaram as GANs em qualidade e estabilidade para geração de imagens.
Métodos Escaláveis para Big Data:
Processamento Distribuído: Frameworks como Apache Hadoop e Apache Spark tornaram-se essenciais para processar petabytes de dados.
Aprendizagem Automática em Plataformas Distribuídas: Bibliotecas como MLlib do Spark permitiram aplicar algoritmos clássicos de ML a conjuntos de dados extremamente grandes
Resumo Visual da Linha do Tempo:
Esta linha do tempo mostra uma evolução clara: dos fundamentos matemáticos e lógicos, passando pelo conhecimento especializado simbólico, pelos modelos estatísticos robustos, até aos modelos de representação profunda e generativa alimentados por grandes volumes de dados , o que caracteriza a inteligência artificial modernaDécada
Paradigma Dominante
Métodos e Inovações Chave
1960s
IA Simbólica & Algoritmos Fundamentais
Perceptron, K-Means, Sistemas Especialistas (embrião)
1970s
Sistemas Baseados em Conhecimento
MYCIN, Frames, Scripts, Backpropagation (teoria)
1980s
IA Simbólica & Conexionismo
Backpropagation (prática), Hopfield Nets, Árvores de Decisão (ID3)
1990s
Modelos Estatísticos Práticos
SVMs, Random Forests (Bagging), AdaBoost (Boosting), Redes Bayesianas
2000s
Ensembles & Escalabilidade
Gradient Boosting, XGBoost, Inteligência de Enxame, t-SNE
2010s+
Deep Learning & Big Data
CNNs, RNNs/LSTMs, Transformers, GANs, Modelos de Difusão, Deep RL
Nenhum comentário:
Postar um comentário