sábado, 20 de dezembro de 2025

Gaia

 Vejo em recente publicação (https://www.blogger.com/blog/post/edit/7714812914870144096/3643943140453545578) a notícia do desenvolvimento na Coreia do Sul, a geração de chips quânticos baseado em camada 2D de substrato de dissulfeto de molibdênio (MoS2) no lugar do Silício, com espessura de um átomo. Se combinarmos a matéria do blog anterior, onde comento as novas técnicas de produção de chips, que se estende desde a permanência comercial das versões pré-nano até a versão 3D e a substituição de corrente elétrica por feixe de luz, com esta última, podemos inferir a proximidade de um salto tecnológico equivalente à aquela experimentada quando se saltou do transistor para os processadores Intel 8080, passando pelo 4040 que dá início a era da miniaturização dos “chips”. As vantagens trazidas pela aplicação desta tecnologia micr-chip são tão grandes que nem dá para aqui se aquilatar, basta ver o tamanho e a potência dos smart-phones que estamos usando.

Com isso percebemos a proximidade do novo patamar tecnológico que advirá.

Podemos antever que a utilização de dissulfeto de molibdênio (MoS2) irá expandir uma demanda de molibdênio que se obtém desde a mineração do cobre, este já escasseando suas jazidas, ou melhor, diminuindo o teor de cobre das jazidas atuais, e com isto imporá um custo inicial que justificará a manutenção, durante um bom tempo, do silício como substrato. Assim a opção por construções 3D terá uma vantagem, sobre esta anunciada 2D, que requer muito maior precisão com custo inicial bem maior; inclusive o custo ecológico. O maior deles o custo da água. Água que se gasta enormemente no processo de produção dos “waffles”.

Temos que lembrar ainda que mesmo o silício, que é abundante na crosta terrestre, teve demanda predatória nos séculos IXX e XX, (tanto para construção civil quanto para produção de garrafas), destruindo praias fluviais, principalmente no continente europeu e também contaminando a água. Os principais rios da Europa tiveram problemas de destruição de margens e alta turbidez. Esta componente ecológica hoje tem notória importância, tanto do ponto de vista de custo, quanto do ponto de vista social.

Esta componente social, ou melhor, política e social, tem no presente uma importância diferenciada já que, junto com a expansão das capacidades humanas mímicas da tecnologia, se abre neste século uma janela de oportunidade com o advento do movimento ecológico e do multilateralismo, ainda que tendo de vencer a “natureza guerreira e dominadora”, inerente a nossa memória límbica de homem caçador dominante sobre o coletor e que nos empurra para a guerra e a dominação; como que imitando o demiurgo. O refinamento de nossas capacidades criativas e dominadoras sobre a natureza tem neste século um ponto de inflexão, mas que continua a depender da mãe solo; tanto que lutamos e morremos por ela, Gaia; cheia de molibdênio, lítio, silício, prata, nióbio, urânio, titânio, cobre, ferro, ouro e ...água.


Geração de Chips Quânticos - Aleksandra Lima dos Santos, Publicado 15 de Dezembro, 2025

 “Camadas atômicas perfeitas abrem caminho para a próxima geração de chips quânticos”

Por Aleksandra Lima dos Santos, Publicado 15 de Dezembro, 2025

Geração de Chips Quânticos

© LuchschenF – Shutterstock

Pesquisadores conseguiram produzir, em escala industrial, um semicondutor com a espessura de um único átomo e praticamente livre de defeitos. O feito pode transformar a estabilidade dos chips quânticos e abrir um novo capítulo na eletrônica avançada, indo além da teoria e funcionando em dispositivos reais.


Durante décadas, o progresso da eletrônica esteve ligado à miniaturização dos componentes. Transistores cada vez menores permitiram chips mais rápidos, eficientes e baratos. No entanto, essa estratégia está chegando a um limite físico delicado. Quando os dispositivos atingem a escala atômica, imperfeições quase invisíveis passam a comprometer seriamente o desempenho. Em tecnologias como a computação quântica, esses defeitos podem ser simplesmente fatais.
É nesse contexto que o recente avanço de um grupo de pesquisadores da Coreia do Sul ganha relevância. Pela primeira vez, foi possível fabricar camadas atômicas de um semicondutor de forma contínua, praticamente sem falhas e em tamanho compatível com a produção industrial.


O material que pode mudar o jogo

O centro da descoberta é o dissulfeto de molibdênio, conhecido como MoS₂. Trata-se de um material bidimensional, com espessura equivalente a um único átomo — mais de cem vezes mais fino que um fio de cabelo humano.
Há anos o MoS₂ desperta interesse porque, diferentemente do grafeno, ele é um semicondutor “completo”: permite ligar e desligar a corrente elétrica de forma controlada, algo essencial para transistores. O problema sempre foi a fabricação. Produzir grandes áreas desse material, uniformes e sem defeitos estruturais, parecia inviável fora do laboratório.

Defeitos microscópicos, impactos gigantes

Em escala atômica, pequenas falhas fazem enorme diferença. No MoS₂, os defeitos costumam surgir nas fronteiras entre domínios cristalinos. Embora invisíveis a olho nu, essas imperfeições interrompem o movimento dos elétrons e destroem propriedades quânticas fundamentais.

Para chips quânticos, isso significa ruído, perda de coerência e erros de processamento. Eliminar esses defeitos exigia algo além de ajustes pontuais: era necessário controlar o posicionamento dos átomos durante o crescimento do material.

Crescimento guiado átomo por átomo

A solução veio do aprimoramento da chamada epitaxia de van der Waals, aplicada sobre um tipo especial de safira levemente inclinada, conhecida como substrato vicinal. Em nível atômico, essa superfície apresenta “degraus” naturais que funcionam como guias invisíveis.

Esses degraus orientam os átomos do MoS₂ durante o crescimento, forçando uma organização mais ordenada. Com controle preciso de temperatura, pressão e deposição, os pesquisadores conseguiram formar monocamadas contínuas, uniformes e praticamente perfeitas em áreas do tamanho de uma bolacha de silício.


Geração De Chips Quânticos1

© Shutterstock – Yurchanka Siarhei


Quando o material prova seu valor

A validação definitiva veio dos testes eletrônicos. As camadas produzidas exibiram transporte quântico coerente, com sinais de fenômenos como localização fraca e indícios iniciais do efeito Hall quântico. Isso indica que os elétrons conseguem se mover sem perder sua fase quântica — algo essencial para chips quânticos estáveis.
Além disso, o material apresentou alta mobilidade eletrônica. Para demonstrar viabilidade prática, os pesquisadores fabricaram matrizes completas de transistores, que funcionaram de forma eficiente à temperatura ambiente, próximos dos limites teóricos do material.

Por que isso importa para o futuro

A computação quântica exige materiais extremamente estáveis, e cada defeito é uma fonte potencial de erro. Um semicondutor bidimensional, livre de imperfeições e fabricável em larga escala, remove um dos maiores gargalos do setor.
Mais do que um avanço pontual, o método pode ser adaptado a outros materiais bidimensionais, ampliando seu impacto em sensores, memórias avançadas e eletrônica de baixo consumo. Não significa chips quânticos perfeitos amanhã, mas mostra que a fabricação atômica precisa já é uma realidade industrial — e não mais apenas uma promessa científica.

Mapa do sítio US Edition Edición ES Ausgabe DE Edition FR Acessibilidade Privacidade Termos de utilização Publicidade Reimpressões e permissões Opções de privacidade

quarta-feira, 17 de dezembro de 2025

Podemos mais

    Fiquei acompanhando os acontecimentos políticos desde as duas últimas semanas; nenhuma novidade. A direita, fantasiada de “centrão”, alcunha para os notórios, que os lusitanos chamam de fajardos, larápios do erário, através de um eufemismo denominado “emendas participativas” que tiram da boca dos brasileiros. Literalmente tiram da boca, minguando a merenda escolar, a comida dos hospitais públicos e até do rancho nos quartéis, como já o fizera FHC. Manobras parlamentares, as mais abjetas, na tentativa de salvar comparsas, discursos diversionistas...tudo para tirar a atenção da manobrável consciência popular, sabidamente sensível aos discursos da imprensa de aluguel. Afinal ano que vem teremos eleições e, quem sabe, esta direita incensada pelo capital especulativo (hoje especulativo é eufemismo mesmo, após a operação “Carbono oculto” pode-se chamar dinheiro sujo) consiga interromper o ciclo desenvolvimentista que experimentamos no presente. 
     Realmente minha atenção se concentrou nos temas que me expresso neste blog: a próxima evolução tecnológica na fabricação de chips e a urgente tecnologia de aproveitamento e “destruição criativa”, desculpe a analogia, dos plásticos. 
Quanto ao primeiro caso, as novas tecnologias de construção de chips, tenho observado já na internet, diversas notícias, vídeos, etc...referente aos recentes avanços na substituição da técnica de litofotografia 2D -EUV (litografia ultravioleta extrema), baseada em duas dimensões, por nova para a tecnologia 3D e substituição de transmissão elétrica de sinais por transmissão ótica, isto é, sem a limitação térmica inerente a elétrica. 
Além destas mencionadas temos notícia da reutilização das tecnologias anteriores capitaneadas pelas japonesas Canon e Nikon. Estas, baseadas na tecnologia DUV de impressão em substrato de silício (ainda) viabilizam economicamente as versões anteriores. Com esse passo, tanto a Canon quanto a Nikon dão base a um novo espectro de tecnologias de produção e de especificidades de aplicação, que viabilizam indústrias antes impensáveis de produção de eletrônicos. Recentemente a Huawey anuncia uma nova tecnologia que busca maximizar a aplicação neural com as plataformas "HarmonyOS + Kunpeng + Ascend" que oferece não apenas o hardware mas um ecossistema integrado: 
         Kunpeng: CPUs para servidores baseadas em ARM 
         Ascend: Chips de IA para data centers e edge computing 
         HarmonyOS: Sistema operacional que aproveita hardware especializado 

 As conclusões a que chego são, apesar de superficiais, absolutamente prováveis: 
    1. Em menos de cinco anos estaremos dispondo de uma gama de ofertas de tecnologias além das restrições da oferta EUV, liberando fornecedores de equipamentos de produção de chips além da ASML, hoje única utilizando EUV. Além dessas a utilização de datacenter´s utilizando transmissão ótica os liberariam das restrições de energia impostas pela geração térmica. 
    2. Oportunizariam a expansão das aplicações de chips analógicos, a exemplo da CEITEC, com isso minimizando custos e expandindo o espectro de aplicações. 

Quanto a segunda, a “destruição construtiva” dos plásticos, principalmente as garrafas PET, é notável a pesquisa na USP na busca e modificação de enzimas (chamadas PETases e MHETases) que conseguem "quebrar" as longas cadeias do PET em seus blocos fundamentais (ácido tereftálico - PTA - e etilenoglicol - EG), que podem ser reaproveitados, agregando valor com novos produtos, viabilizando indústrias e novos empregos. 

 Ou seja, sempre podemos mais, basta perder aquele complexo que Nelson Rodrigues bem o caracterizou e deu nome.

sábado, 6 de dezembro de 2025

Temos que dar o salto também.

 Pressentindo a aproximação de um novo salto "destrutivo", emulando  aqui a expressão shumpteriana da "destruição criativa", pesquisei sobre a manutenção das tecnologias de produção de chips que a Canon e Nikon baseadas em tecnologia DUV ( Litografia por Imersão em Arco Profundo) no lugar da mais recente EUV( Litografia por Ultravioleta Extremo) utilizada pela empresa holandesa ASML No resultado da pesquisa(1👇) ficou  evidente que tanto a Canon e a Nikon viam mercado para as tecnologias empregadas que estão um passo atrás da EUV empregada exclusivamente pela ASML.
Ou seja existe uma quantidade de aplicações que justifica a produção dos chips com tecnologia anterior. Podemos citar também o caso das instituições bancárias no mundo inteiro que utilizam sistemas construídos ainda em linguagem COBOL funcionando plenamente operando no ambiente internet, utilizando api´s em Java, C++, Python etc...já que o tamanho e a complexidade destes sistemas implicariam em um custo imenso para serem reescritos, testados, etc..com os riscos inerenetes. 
O interesse na matéria se deve ao que mencionei em postagem anterior que justifica o investimento por parte das instituições e empresas brasileiras na produção de chips não necessariamente miniatutizados ao nívem de 2nM (2 nanômetros)
É o caso da brasileira CEITEC, fechada pelo primarismo do superministro do governo passado e agora com sacrifício reaberta,  que produzia RFID´s e marcadores de gado além de sistemas logísticos de contagem, que alavancavam o desenvolvimento eem direção a sistema digitais avançados.
Se as gigantes Canon e Nikon se mantiveram na base da tecnologia, provavelmente (provavelmente não, certamente) a Huawey deve estar "destruindo schumpterianamente", acompanhada por pesquisa avançada, a miniaturização que hoje chega ao limite de Moore. Ou seja, estão recuando para dar o bote, qual a serpente azteca de Quetzalcoatl.
Temos que dar o salto também.

1- (https://www.blogger.com/blog/post/edit/7714812914870144096/3518777737444205873)


quinta-feira, 4 de dezembro de 2025

saltos-tecnologicos-anexo

Canon e Nikon NÃO competem com a ASML no mesmo segmento tecnológico de ponta para produção dos chips mais avançados (como os de 3nm, 5nm usados em smartphones e CPUs modernas).


A diferença de tecnologia é abismal e pode ser resumida da seguinte forma:

1. ASML: A Líder Absoluta em Litografia de Ultravioleta Extremo (EUV)

  • Tecnologia: A ASML é a única empresa no mundo que produz e vende máquinas de Litografia por Ultravioleta Extremo (EUV). Esta é a tecnologia mais avançada, essencial para fabricar os chips de última geração (a partir do nó de 7nm).

  • Como funciona: Utiliza um laser de alta energia disparado contra gotas de estanho para gerar luz com comprimento de onda de 13.5 nm (extremamente curto). Esta luz é refletida por um sistema de espelhos ultraprecisos (feitos pela alemã ZEISS) para gravar os circuitos no silício.

  • Complexidade: Cada máquina é um colosso do tamanho de um ônibus, contendo cerca de 100.000 peças, custa mais de US$ 200 milhões e requer aviões Boeing 747 especiais para transporte.

  • Domínio de Mercado: 100% do mercado de máquinas EUV. Seus clientes são TSMC, Samsung e Intel.

2. Nikon e Canon: Competem no Mercado de Litografia por Imersão em Arco Profundo (DUV)

  • Tecnologia: Estas empresas produzem máquinas de Litografia por Imersão em Arco Profundo (DUV). É uma geração anterior, mas ainda vital para a indústria. (grifo meu)

  • Como funciona: Utiliza luz com comprimento de onda de 193 nm. Com uma técnica chamada "imersão" (onde a lente e o wafer são submersos em água) e truques ópticos complexos (multi-patterning), é possível produzir chips de nós mais antigos (ex: 28nm, 14nm) e algumas camadas não críticas dos chips mais avançados.

  • Mercado: A ASML também é a líder dominante neste segmento (cerca de 90% do mercado DUV de ponta), com a Nikon sendo uma concorrente secundária. A Canon foca em máquinas DUV ainda menos avançadas, usadas para chips menos densos (como para telas, sensores, microcontroladores) e para máscaras fotolitográficas (os "stencils" usados no processo).


Tabela Resumo das Diferenças Tecnológicas

Característica

ASML (Líder)

Nikon

(Concorrente Secundário)

Canon

(Nicho)

Tecnologia de Ponta

EUV (Ultravioleta Extremo, 13.5 nm)

DUV de Imersão 

(Arco Profundo, 193nm)

DUV a Seco / i-line (365nm) - Menos avançada

Aplicação Principal

Camadas críticas dos chips mais avançados (3nm, 5nm, etc.)

Camadas não-críticas de chips avançados e chips de nós antigos

Chips para display, sensores, IoT, microcontroladores, e fabricação de máscaras


terça-feira, 2 de dezembro de 2025

Evoluir minha gente...evoluir

Afora as tramoias conterrâneas, todas já frequentando a diária antologia popular, pois qualquer cidadão do povo brasileiro sabe, até por intuição, que a malta que frequenta o parlamento não resiste a mais superficial investigação sobre seus malfeitos, de tão descarados. O estranho é que esta malta lá está através do voto, segundo uma legislação eleitoral desengonçada que se apoia no mais maroto expediente, a compra sob diversas formas do voto: da promessa de emprego público, até a doação de dentadura. 
 Agora, mais recentemente, se associa a estes expedientes primitivos a interferência religiosa com mais ênfase. 
Antes, desde a velha república, a interferência era de uma só igreja; agora, democraticamente, somam-se dezenas de novas igrejas neopentecostais. 
 Eis, em poucas palavras, o cenário que expressa a cultura política que as forças conservadoras cultivam na nossa sociedade. Somente consigo, desta forma sintética, ver o efeito que o conservadorismo impôs na nossa sociedade desde os tempos da velha república. Esta, por sua vez, herdeira da pérfida escravidão que durou muito mais tempo que a república. “Res” que de pública não tem nada. Basta ver a que ponto chegamos após o período de distopia tendo dois espécimens, um preso e outro sentado na cadeira do senado a disparar as mais absurdas e patéticas sandices, nos deixando a enorme questão de como este apedeuta conseguiu passar no concurso para juiz federal. Como? 
Mas...chegando aos dias de hoje, me deparo com a discussão absolutamente diversa: A produção dos chip´s de dois nanômetros( 2 nM). Que impacto realmente este tem e terá na atual economia? 
Confesso a dificuldade que tenho em responder e coloco dois exemplos que talvez justifiquem a minha dificuldade de entender.: a maravilha tecnológica (nem tanto) que é o caça americano F-35. Projeto F-35 Lightning II (EUA) 
 • Início formal do projeto: 1996 (como programa Joint Strike Fighter - JSF).
• Contexto: O programa JSF foi lançado para consolidar vários projetos de caças táticos dos anos 80 e 90 (como o CALF) em um único programa multinacional. 
A fase de demonstração e validação (que definiu os conceitos da Lockheed Martin X-35 e Boeing X-32) começou oficialmente em 1996. 
 • Primeiro voo do protótipo X-35: 2000. 
 • Primeiro voo do F-35A de produção: 2006. 
Observe que o projeto desta maravilha tecnológica data de 1996. Nesta época a tecnologia de semicondutores predominante variava de 800 nm (0.8 μm) a 600 nm (0.6 μm). 
Exemplos: O Intel 486 (lançado em 1989) usava processador de 1 μm e depois 0.8 μm. Os primeiros processadores Pentium (1993) usavam 0.8 μm e depois 0.6 μm. 
Ou seja, o projeto inicial somente podia incorporar e projetar facilidades e aviônicos daquela dimensão. 

O outro projeto, este do lado russo, o caça Su-57 da Rússia 
Projeto Sukhoi Su-57 (Rússia) 
 • Início formal do projeto: 2002 (como programa PAK FA - Perspectivny Aviatsionny Kompleks Frontovoy Aviatsii, ou Complexo Aeronáutico Futuro para a Aviação de Frente). 
 • Contexto: O programa foi iniciado para desenvolver um caça de 5ª geração que substituiria os caças Sukhoi Su-27 na Força Aérea Russa. O contrato oficial de desenvolvimento foi concedido à Sukhoi em 2002. 
 • Primeiro voo do protótipo (T-50): 2010. 
 • Entrada em serviço operacional inicial: 2020 (após um processo prolongado de desenvolvimento e testes Observe-se que este, o SU-57, bem mais recente, advém de uma origem que ainda não domina a tecnologia dos “nanos” e se projeta mais eficiente do ponto de vista militar. 

Daí advém a seguinte pergunta: Por quê, nós brasileiros, não podemos desenvolver e iniciar a “reindustrialização” na área de semicondutores a partir de um patamar tecnológico compatível com a real demanda da indústria de eletrodomésticos, automobilísticos etc? … Lembrando que na década de 1960 chegamos (cheguei) a produzir semicondutores no estado-da-arte e eletrônicos que competiam em qualidade com produtos japoneses.
A diferença entre os nossos e os nipônicos? Preço; os nossos produtos não eram subvencionados. 
Aí veio a mais primária e ignorante justificativa para desistir: os importados eram mais baratos, os nossos automóveis eram uma carroça, e toda sorte de sandices piegas e primárias que foram bravejadas pelo “Caçador de Marajás”. 
Lá repousava o nosso conservadorismo, o nosso ...como o chamava mesmo Nelson Rodrigues?
Temos que evoluir minha gente.

quarta-feira, 26 de novembro de 2025

"Deus ex machina".

 Por definição não gosto de produzir textos que ultrpassem uma página; entretanto no caso presente tenho que pedir desculpas por ter ultrpassado tal limite. Justifico esta falha para poder introduzir uma pesquisa feita no DeepSeek . Tal pesquisa se relaciona à evolução do que chamaria de "IA". Inteligência Artificial, termo que a contragosto aqui aplico, após assitir uma palestra/enttrevista do Prof. Dr. Miguel Nicollelis que relativizava, ou melhor esclarecia, a aplicação da IA.

Como tive a oportunidade  de analisar e  praticar alguns  destes métodos na então Secretaraia de Segurança do Rio de Janeiro, e como pesquisava há mais tempo sobre o tema, resolvi destacar (após a o resultado da pesquisa do DeepSeek) as conclusões a que cheguei desde os ensaios sobre a gestão industrial baseada na metodologia MRPII, que evolui desde os anos 70, e para qual imaginava a aplicação de IA. Não é bem assim: a utilização das ferramentas de IA são válidas em pesquisas, tanto que as utilizei neste presente blog. Mas as conclusões a que cheguei exigem que aqui sejam  apresentadas.  (neste blog foram postados textos sobre a matéria de 18/11/22 até 28/02/23 ).

=====================================================================

Redes Neurais Artificiais (RNAs) - Primeira "Era de Ouro":

  1. Perceptron (Frank Rosenblatt, 1958/60): A primeira rede neural implementada em hardware, capaz de classificação linear simples. A publicação do livro "Perceptrons" por Minsky e Papert (1969), que mostrou as suas limitações, levou ao primeiro "Inverno da IA".
    Algoritmos de Aprendizagem por Reforço (AR) - Fundamentos:
    Dynamic Programming (Richard Bellman, anos 50/60): Base terica para o AR moderno.
    O problema do "Credit Assignment" (Minsky, 1961): Formalizou o desafiode atribuir crédito pelas ações ao longo do tempo.
    Métodos Estatísticos Clássicos:
    Análise de Cluster (K-Means): Proposto por Hugo Steinhaus (1956) e formalizado por James MacQueen em 1967. Um dos algoritmos de agrupamento mais simples e populares.
    Análise de Componentes Principais (PCA): Desenvolvida por Karl Pearson (1901) e Harold Hotelling (1933), mas a sua aplicação computacional ganhou força nos anos 60.
    Sistemas Especialistas (Embrião):
    Dendral (iniciado em 1965): Frequentemente considerado o primeiro sistema especialista, foi desenvolvido para analisar dados espectrométricos e inferir a estrutura de moléculas orgânicas.
    Década de 1970: A Ascensão dos Sistemas Baseados em Conhecimento
    Como reação às limitações das redes neurais, a IA simblica tornou-se dominante.
    Sistemas Especialistas:
    MYCIN (Edward Shortliffe, ~1976): Um sistema pioneiro para diagnstico de infeções bacterianas e recomendação de antibiticos. Introduziu conceitos fundamentais como o motor de inferência e a base de conhecimento, separando a lgica do conhecimento factual.
    Estruturas de Representação de Conhecimento:
    Frames (Marvin Minsky, 1974): Estruturas para representar conhecimento estereotipado sobre objetos e eventos.
    Scripts (Roger Schank e Robert Abelson, 1977): Para representar sequências de eventos típicas (ex: ir a um restaurante).
    Algoritmos de Redes Neurais:
    Backpropagation (Ideias Iniciais): A base do algoritmo foi proposta por Paul Werbos na sua tese de doutoramento (1974), mas não recebeu atenção imediata.
    Década de 1980: A Explosão da IA Simblica e o Renascimento Conexionista
    Foi a era de ouro dos sistemas especialistas comerciais e, ao mesmo tempo, viu o retorno das redes neurais.
    Redes Neurais - Segunda Vaga:
    Backpropagation (Rumelhart, Hinton, Williams, 1986): O artigo que popularizou e demonstrou a eficácia do algoritmo de retropropagação para treinar redes multi-camadas (perceptrões multicamadas), superando as limitações do perceptron simples.
    Hopfield Network (John Hopfield, 1982): Um tipo de rede recorrente que podia funcionar como memória associativa.
    Algoritmos de Aprendizagem Automática (Machine Learning):
    Árvores de Decisão (ID3): Desenvolvido por Ross Quinlan em 1986. Um algoritmo fundamental para a classificação que deu origem a versões mais modernas (C4.5, C5.0).
    Algoritmos Genéticos (John Holland, anos 60/70): Ganharam popularidade e aplicação prática nesta década, inspirados na seleção natural.
    Sistemas Especialistas e Ferramentas:
    Proliferação de shells (como CLIPS) e linguagens (como Prolog) para construir sistemas especialistas. O mercado comercial floresceu, mas depois entrou em declínio devido aos seus prprios limites (dificuldade de manutenção, conhecimento não comum).
    Década de 1990: A Ascensão dos Métodos Estatísticos e Práticos
    A IA tornou-se mais prática e estatística, com métodos robustos que são usados até hoje.
    Métodos de Conjunto (Ensemble Methods):
    Random Forests (Leo Breiman, 2001, mas baseado em bagging dos anos 90): A ideia de bagging foi introduzida por Breiman em 1996.
    AdaBoost (Yoav Freund e Robert Schapire, 1996): Um dos primeiros e mais bem-sucedidos algoritmos de boosting.

    Máquinas de Suporte Vetorial (SVMs):
    Tornaram-se populares com os trabalhos de Corinna Cortes e Vladimir Vapnik (1995). Ofereciam fortes garantias teóricas e alto desempenho em problemas de classificação.
    Métodos Probabilísticos:
    Redes Bayesianas: Tornaram-se um modelo gráfico probabilístico amplamente adotado para representar conhecimento sob incerteza.
    Processamento de Linguagem Natural (PNL) Estatístico:
    Transição de abordagens baseadas em regras para modelos estatísticos alimentados por incorporação de texto.
    Mineração de Dados (Data Mining):
    O termo ganhou popularidade. Algoritmos como Apriori (para regras de associação, 1994) foram desenvolvidos para descobrir padrões em grandes conjuntos de dados.
    Década de 2000: A Fundação para o Big Data
    A internet e a digitalização geraram mais dados, exigindo métodos escaláveis.
    Aprendizagem por Reforço Moderna:
    Consolidação teórica e aplicações práticas. O livro de Sutton e Barto ("Reinforcement Learning: An Introduction", 1998) tornou-se a bíblia da área.
    Aplicação no roteamento de viaturas de polícia
    Algoritmo de Colônia de Formigas (Marco Dorigo, 1992): Pertence à área da Inteligência de Enxame (Swarm Intelligence) e ganhou grande aplicação na década de 2000 para otimização combinatorial
    Métodos de Dimensionalidade Não-Linear:
    t-SNE (Laurens van der Maaten e Geoffrey Hinton, 2008): Para visualização de dados de alta dimensão.
    Isomap e LLE: Outros métodos de manifold learning.
    O Paradigma do Ensemble Amadurece:
    Gradient Boosting Machines (Jerome Friedman, 2001): A base para ferramentas extremamente poderosas como XGBoost (2016)LightGBM e CatBoost, que dominariam competições de ciência de dados (como o Kaggle) na década de 2010.
    Década de 2010 até ao Presente: A Era do Deep Learning e do Big Data
    A convergência de grandes dados (Big Data), poder computacional (GPUs) e avanços algorítmicos levou à revolução do Deep Learning.
    Deep Learning (Aprendizagem Profunda):
    Redes Neurais Convolucionais (CNNs): AlexNet (2012) venceu uma competição de visão computacional por uma margem enorme, iniciando a febre do DL. Evoluiu para arquiteturas como VGG, GoogLeNet, ResNet.
    Redes Neurais Recorrentes (RNNs) e LSTMs: Para dados sequenciais (linguagem, séries temporais).
    Transformers (2017): A arquitetura por trás da revolução atual em PNL (ex: BERT, GPT) e além, substituindo em grande parte as RNNs.
    ===========================================================================
    A partir de 2017 estudei este tema mais por curiosidade e diletantismo
    Aprendizagem por Reforço Profunda (Deep RL):
    Combina Deep Learning com AR. Exemplos famosos: AlphaGo (2016) da DeepMind, que venceu o campeão mundial de Go.
    Aprendizagem Generativa:
    GANs (Generative Adversarial Networks - 2014): Duas redes neurais que competem para gerar dados novos e realistas (imagens, áudio).
    Modelos de Difusão (2020s): A tecnologia por trás de ferramentas como DALL-E, Midjourney e Stable Diffusion, que superaram as GANs em qualidade e estabilidade para geração de imagens.
    Métodos Escaláveis para Big Data:
    Processamento Distribuído: Frameworks como Apache Hadoop e Apache Spark tornaram-se essenciais para processar petabytes de dados.
    Aprendizagem Automática em Plataformas Distribuídas: Bibliotecas como MLlib do Spark permitiram aplicar algoritmos clássicos de ML a conjuntos de dados extremamente grandes

    Resumo Visual da Linha do Tempo:

    Década

    Paradigma Dominante

    Métodos e Inovações Chave

    1960s

    IA Simbólica & Algoritmos Fundamentais

    Perceptron, K-Means, Sistemas Especialistas (embrião)

    1970s

    Sistemas Baseados em Conhecimento

    MYCIN, Frames, Scripts, Backpropagation (teoria)

    1980s

    IA Simbólica & Conexionismo

    Backpropagation (prática), Hopfield Nets, Árvores de Decisão (ID3)

    1990s

    Modelos Estatísticos Práticos

    SVMs, Random Forests (Bagging), AdaBoost (Boosting), Redes Bayesianas

    2000s

    Ensembles & Escalabilidade

    Gradient Boosting, XGBoost, Inteligência de Enxame, t-SNE

    2010s+

    Deep Learning & Big Data

    CNNs, RNNs/LSTMs, Transformers, GANs, Modelos de Difusão, Deep RL

    Esta linha do tempo mostra uma evolução clara: dos fundamentos matemáticos e lógicos, passando pelo conhecimento especializado simbólico, pelos modelos estatísticos robustos, até aos modelos de representação profunda e generativa alimentados por grandes volumes de dados , o que caracteriza a inteligência artificial moderna
=================================================================================
O ciclo da Administração da Produção e da Gestão de Recursos (Estoques, Pessoal, etcc...)  se inicia quando se conhece uma previsão de demanda, ou por inicação formal de "Vendas" ou por uma pesquisa de Mercado, ou ambas. 
O desdobramento deste conhecimento da demanda é aquela que, após a técnica criada por Joseph Orlicki, o MRP, é que irá desencadear o planejamento das ações de abastecimento de recursos (materiais, mão de obra, energia, etc...) -A representação gráfica está disponível nas postagens anteriores. 
Ocorre que tal planejamento ocorre em um ambiente dinâmico, onde todas as variáveis , daí este nome, variam. No tempo e no espaço. Alguns exemplos: O fornecedor não consegue abastecer a tempo, o percurso dos meios de liberação de carga está interrompido (enchente, greve...), um recurso produtivo (máquina operatriz, mão de obra estão provisoriamente indisponíveis, imprevisões financeiras, remanejamentos urgentes na fila de produçao....a lista é imensa. 
Agora vejamos: os instrumentos de IA que se baseiam em "experiência pretérita" terão que, além de buscar uma ocorrência no tempo "razoavelmente semelhante", indicar a melhor solução para o específico problema. Para tal existem recursos computacionais que mostram por simulação as possíveis saídas e seus respectivos "graus de mérito". Ou seja, aquela mesma técnica que "rodou" o Planejamento/Programação/Ação é utilizadas em carater "what-if", Ou seja, o "net-change" já sugerido por George Plossl, (aquele velhinho simpático que tive o privilégio de conhecer em 1978 no congresso da APICS), e que fora implementado pelo COPICS da IBM. 
A evolução dos MRPII que desencadeou a produção dos ERP mundo afora, inclusivre aqui no Brasil, não sofreu a tentação de buscar uma solução IA para substituir o profissional de Planejamento e Programação de Produção e Suprimentos. Portanto faço aqui o meu ato de contrição de ter tentado adequar os métodos que ensaiara na busca de solução de prolemas de "atendimento policial" e "identificação de áreas de risco" , notoriamente derivados de tratamentos estatísticos de "Grandes Dados" a Administração da Produção.
Mas (quem sabe?) se algum dia alguem mais esperto poderá conseguí-lo. Afinal "deus ex machina".