quarta-feira, 26 de novembro de 2025

"Deus ex machina".

 Por definição não gosto de produzir textos que ultrpassem uma página; entretanto no caso presente tenho que pedir desculpas por ter ultrpassado tal limite. Justifico esta falha para poder introduzir uma pesquisa feita no DeepSeek . Tal pesquisa se relaciona à evolução do que chamaria de "IA". Inteligência Artificial, termo que a contragosto aqui aplico, após assitir uma palestra/enttrevista do Prof. Dr. Miguel Nicollelis que relativizava, ou melhor esclarecia, a aplicação da IA.

Como tive a oportunidade  de analisar e  praticar alguns  destes métodos na então Secretaraia de Segurança do Rio de Janeiro, e como pesquisava há mais tempo sobre o tema, resolvi destacar (após a o resultado da pesquisa do DeepSeek) as conclusões a que cheguei desde os ensaios sobre a gestão industrial baseada na metodologia MRPII, que evolui desde os anos 70, e para qual imaginava a aplicação de IA. Não é bem assim: a utilização das ferramentas de IA são válidas em pesquisas, tanto que as utilizei neste presente blog. Mas as conclusões a que cheguei exigem que aqui sejam  apresentadas.  (neste blog foram postados textos sobre a matéria de 18/11/22 até 28/02/23 ).

=====================================================================

Redes Neurais Artificiais (RNAs) - Primeira "Era de Ouro":

  1. Perceptron (Frank Rosenblatt, 1958/60): A primeira rede neural implementada em hardware, capaz de classificação linear simples. A publicação do livro "Perceptrons" por Minsky e Papert (1969), que mostrou as suas limitações, levou ao primeiro "Inverno da IA".
    Algoritmos de Aprendizagem por Reforço (AR) - Fundamentos:
    Dynamic Programming (Richard Bellman, anos 50/60): Base terica para o AR moderno.
    O problema do "Credit Assignment" (Minsky, 1961): Formalizou o desafiode atribuir crédito pelas ações ao longo do tempo.
    Métodos Estatísticos Clássicos:
    Análise de Cluster (K-Means): Proposto por Hugo Steinhaus (1956) e formalizado por James MacQueen em 1967. Um dos algoritmos de agrupamento mais simples e populares.
    Análise de Componentes Principais (PCA): Desenvolvida por Karl Pearson (1901) e Harold Hotelling (1933), mas a sua aplicação computacional ganhou força nos anos 60.
    Sistemas Especialistas (Embrião):
    Dendral (iniciado em 1965): Frequentemente considerado o primeiro sistema especialista, foi desenvolvido para analisar dados espectrométricos e inferir a estrutura de moléculas orgânicas.
    Década de 1970: A Ascensão dos Sistemas Baseados em Conhecimento
    Como reação às limitações das redes neurais, a IA simblica tornou-se dominante.
    Sistemas Especialistas:
    MYCIN (Edward Shortliffe, ~1976): Um sistema pioneiro para diagnstico de infeções bacterianas e recomendação de antibiticos. Introduziu conceitos fundamentais como o motor de inferência e a base de conhecimento, separando a lgica do conhecimento factual.
    Estruturas de Representação de Conhecimento:
    Frames (Marvin Minsky, 1974): Estruturas para representar conhecimento estereotipado sobre objetos e eventos.
    Scripts (Roger Schank e Robert Abelson, 1977): Para representar sequências de eventos típicas (ex: ir a um restaurante).
    Algoritmos de Redes Neurais:
    Backpropagation (Ideias Iniciais): A base do algoritmo foi proposta por Paul Werbos na sua tese de doutoramento (1974), mas não recebeu atenção imediata.
    Década de 1980: A Explosão da IA Simblica e o Renascimento Conexionista
    Foi a era de ouro dos sistemas especialistas comerciais e, ao mesmo tempo, viu o retorno das redes neurais.
    Redes Neurais - Segunda Vaga:
    Backpropagation (Rumelhart, Hinton, Williams, 1986): O artigo que popularizou e demonstrou a eficácia do algoritmo de retropropagação para treinar redes multi-camadas (perceptrões multicamadas), superando as limitações do perceptron simples.
    Hopfield Network (John Hopfield, 1982): Um tipo de rede recorrente que podia funcionar como memória associativa.
    Algoritmos de Aprendizagem Automática (Machine Learning):
    Árvores de Decisão (ID3): Desenvolvido por Ross Quinlan em 1986. Um algoritmo fundamental para a classificação que deu origem a versões mais modernas (C4.5, C5.0).
    Algoritmos Genéticos (John Holland, anos 60/70): Ganharam popularidade e aplicação prática nesta década, inspirados na seleção natural.
    Sistemas Especialistas e Ferramentas:
    Proliferação de shells (como CLIPS) e linguagens (como Prolog) para construir sistemas especialistas. O mercado comercial floresceu, mas depois entrou em declínio devido aos seus prprios limites (dificuldade de manutenção, conhecimento não comum).
    Década de 1990: A Ascensão dos Métodos Estatísticos e Práticos
    A IA tornou-se mais prática e estatística, com métodos robustos que são usados até hoje.
    Métodos de Conjunto (Ensemble Methods):
    Random Forests (Leo Breiman, 2001, mas baseado em bagging dos anos 90): A ideia de bagging foi introduzida por Breiman em 1996.
    AdaBoost (Yoav Freund e Robert Schapire, 1996): Um dos primeiros e mais bem-sucedidos algoritmos de boosting.

    Máquinas de Suporte Vetorial (SVMs):
    Tornaram-se populares com os trabalhos de Corinna Cortes e Vladimir Vapnik (1995). Ofereciam fortes garantias teóricas e alto desempenho em problemas de classificação.
    Métodos Probabilísticos:
    Redes Bayesianas: Tornaram-se um modelo gráfico probabilístico amplamente adotado para representar conhecimento sob incerteza.
    Processamento de Linguagem Natural (PNL) Estatístico:
    Transição de abordagens baseadas em regras para modelos estatísticos alimentados por incorporação de texto.
    Mineração de Dados (Data Mining):
    O termo ganhou popularidade. Algoritmos como Apriori (para regras de associação, 1994) foram desenvolvidos para descobrir padrões em grandes conjuntos de dados.
    Década de 2000: A Fundação para o Big Data
    A internet e a digitalização geraram mais dados, exigindo métodos escaláveis.
    Aprendizagem por Reforço Moderna:
    Consolidação teórica e aplicações práticas. O livro de Sutton e Barto ("Reinforcement Learning: An Introduction", 1998) tornou-se a bíblia da área.
    Aplicação no roteamento de viaturas de polícia
    Algoritmo de Colônia de Formigas (Marco Dorigo, 1992): Pertence à área da Inteligência de Enxame (Swarm Intelligence) e ganhou grande aplicação na década de 2000 para otimização combinatorial
    Métodos de Dimensionalidade Não-Linear:
    t-SNE (Laurens van der Maaten e Geoffrey Hinton, 2008): Para visualização de dados de alta dimensão.
    Isomap e LLE: Outros métodos de manifold learning.
    O Paradigma do Ensemble Amadurece:
    Gradient Boosting Machines (Jerome Friedman, 2001): A base para ferramentas extremamente poderosas como XGBoost (2016)LightGBM e CatBoost, que dominariam competições de ciência de dados (como o Kaggle) na década de 2010.
    Década de 2010 até ao Presente: A Era do Deep Learning e do Big Data
    A convergência de grandes dados (Big Data), poder computacional (GPUs) e avanços algorítmicos levou à revolução do Deep Learning.
    Deep Learning (Aprendizagem Profunda):
    Redes Neurais Convolucionais (CNNs): AlexNet (2012) venceu uma competição de visão computacional por uma margem enorme, iniciando a febre do DL. Evoluiu para arquiteturas como VGG, GoogLeNet, ResNet.
    Redes Neurais Recorrentes (RNNs) e LSTMs: Para dados sequenciais (linguagem, séries temporais).
    Transformers (2017): A arquitetura por trás da revolução atual em PNL (ex: BERT, GPT) e além, substituindo em grande parte as RNNs.
    ===========================================================================
    A partir de 2017 estudei este tema mais por curiosidade e diletantismo
    Aprendizagem por Reforço Profunda (Deep RL):
    Combina Deep Learning com AR. Exemplos famosos: AlphaGo (2016) da DeepMind, que venceu o campeão mundial de Go.
    Aprendizagem Generativa:
    GANs (Generative Adversarial Networks - 2014): Duas redes neurais que competem para gerar dados novos e realistas (imagens, áudio).
    Modelos de Difusão (2020s): A tecnologia por trás de ferramentas como DALL-E, Midjourney e Stable Diffusion, que superaram as GANs em qualidade e estabilidade para geração de imagens.
    Métodos Escaláveis para Big Data:
    Processamento Distribuído: Frameworks como Apache Hadoop e Apache Spark tornaram-se essenciais para processar petabytes de dados.
    Aprendizagem Automática em Plataformas Distribuídas: Bibliotecas como MLlib do Spark permitiram aplicar algoritmos clássicos de ML a conjuntos de dados extremamente grandes

    Resumo Visual da Linha do Tempo:

    Década

    Paradigma Dominante

    Métodos e Inovações Chave

    1960s

    IA Simbólica & Algoritmos Fundamentais

    Perceptron, K-Means, Sistemas Especialistas (embrião)

    1970s

    Sistemas Baseados em Conhecimento

    MYCIN, Frames, Scripts, Backpropagation (teoria)

    1980s

    IA Simbólica & Conexionismo

    Backpropagation (prática), Hopfield Nets, Árvores de Decisão (ID3)

    1990s

    Modelos Estatísticos Práticos

    SVMs, Random Forests (Bagging), AdaBoost (Boosting), Redes Bayesianas

    2000s

    Ensembles & Escalabilidade

    Gradient Boosting, XGBoost, Inteligência de Enxame, t-SNE

    2010s+

    Deep Learning & Big Data

    CNNs, RNNs/LSTMs, Transformers, GANs, Modelos de Difusão, Deep RL

    Esta linha do tempo mostra uma evolução clara: dos fundamentos matemáticos e lógicos, passando pelo conhecimento especializado simbólico, pelos modelos estatísticos robustos, até aos modelos de representação profunda e generativa alimentados por grandes volumes de dados , o que caracteriza a inteligência artificial moderna
=================================================================================
O ciclo da Administração da Produção e da Gestão de Recursos (Estoques, Pessoal, etcc...)  se inicia quando se conhece uma previsão de demanda, ou por inicação formal de "Vendas" ou por uma pesquisa de Mercado, ou ambas. 
O desdobramento deste conhecimento da demanda é aquela que, após a técnica criada por Joseph Orlicki, o MRP, é que irá desencadear o planejamento das ações de abastecimento de recursos (materiais, mão de obra, energia, etc...) -A representação gráfica está disponível nas postagens anteriores. 
Ocorre que tal planejamento ocorre em um ambiente dinâmico, onde todas as variáveis , daí este nome, variam. No tempo e no espaço. Alguns exemplos: O fornecedor não consegue abastecer a tempo, o percurso dos meios de liberação de carga está interrompido (enchente, greve...), um recurso produtivo (máquina operatriz, mão de obra estão provisoriamente indisponíveis, imprevisões financeiras, remanejamentos urgentes na fila de produçao....a lista é imensa. 
Agora vejamos: os instrumentos de IA que se baseiam em "experiência pretérita" terão que, além de buscar uma ocorrência no tempo "razoavelmente semelhante", indicar a melhor solução para o específico problema. Para tal existem recursos computacionais que mostram por simulação as possíveis saídas e seus respectivos "graus de mérito". Ou seja, aquela mesma técnica que "rodou" o Planejamento/Programação/Ação é utilizadas em carater "what-if", Ou seja, o "net-change" já sugerido por George Plossl, (aquele velhinho simpático que tive o privilégio de conhecer em 1978 no congresso da APICS), e que fora implementado pelo COPICS da IBM. 
A evolução dos MRPII que desencadeou a produção dos ERP mundo afora, inclusivre aqui no Brasil, não sofreu a tentação de buscar uma solução IA para substituir o profissional de Planejamento e Programação de Produção e Suprimentos. Portanto faço aqui o meu ato de contrição de ter tentado adequar os métodos que ensaiara na busca de solução de prolemas de "atendimento policial" e "identificação de áreas de risco" , notoriamente derivados de tratamentos estatísticos de "Grandes Dados" a Administração da Produção.
Mas (quem sabe?) se algum dia alguem mais esperto poderá conseguí-lo. Afinal "deus ex machina".


Nenhum comentário:

Postar um comentário