inteligência artificial, ia, tecnologia, tech — Foto: Pexels
No livro “Incerteza, um ensaio” (2023), Eugênio Bucci reflete sobre o conceito da incerteza com referências históricas --desde o “Princípio da Incerteza” de Werner Heisenberg e a cibernética de Claude Shannon e Norbert Wiener, até a “A era da incerteza” de John Kenneth Galbraith. Bucci menciona um TED Talk de Richard Wurman em que ele afirma que “informação é aquilo que reduz a incerteza”, para em seguida evocar um antigo professor que sustentava o contrário: a informação aumenta a incerteza, ao gerar perguntas inesperadas antes sequer imaginadas. O autor conclui: “Viver não é certo, no sentido de não ser um cálculo preciso. Quase tudo em nós é incerto. O esquecimento é incerto. O inconsciente é incerto. Mesmo aquilo que julgo saber tem o capricho de me enganar”.
Ao longo da história, convivemos com a incerteza e a aceitamos como parte constitutiva da experiência humana. Em contraposição, os sistemas maquínicos representaram, por excelência, o domínio da certeza - da lógica determinista, da resposta previsível, do cálculo sem hesitação. A inteligência artificial (IA) reconfigura essa crença.
A transição de sistemas determinísticos, cerne da programação tradicional, para sistemas probabilísticos, catalisada pela inteligência artificial, representa uma profunda mudança de paradigma. Esse movimento transcende uma mera evolução técnica: trata-se de uma reorientação que nos afasta da lógica rígida, baseada em regras fixas, e nos conduz à modelagem adaptativa, orientada por dados. Nesse novo paradigma, a incerteza não é um defeito a ser eliminado, mas um elemento intrínseco ao processo.
Nos sistemas determinísticos tradicionais, cada etapa é predefinida e o resultado é, em princípio, previsível: a uma dada entrada corresponde sempre a mesma saída. A programação clássica opera sob a premissa de regras codificadas, comportamento auditável, rastreabilidade plena. Um resultado inesperado, nesse contexto, é sinônimo de erro.
Com a inteligência artificial esse paradigma se rompe. Em vez de uma resposta definitiva e unívoca, a IA fornece distribuições de probabilidade sobre os resultados. Diante de entradas idênticas, pode responder de maneira distinta a cada execução, em razão de sua natureza estocástica: um processo que envolve aleatoriedade e o cálculo de probabilidades como mecanismos centrais de funcionamento.
Os modelos de IA baseados em aprendizado de máquina operam fundamentalmente dentro de uma estrutura probabilística. Eles não são programados com regras explícitas para cada situação possível; em vez disso, “aprendem” padrões a partir de dados e generalizam para fazer previsões, geralmente associadas a um grau de incerteza. No caso das redes neurais profundas - a técnica de aprendizado de máquina que permeia a maior parte do que conhecemos como IA -, elas mapeiam entradas para previsões probabilísticas. Por exemplo, em uma tarefa de classificação para determinar se uma imagem é de gato ou cachorro, o resultado pode ser “70% de chance da imagem ser um cachorro e 30% de chance de ser um gato”. Ou seja, o sistema não afirma com certeza a qual classe a imagem pertence, apenas quantifica a incerteza.
Nos modelos e sistemas atuais de IA, a probabilidade não é um efeito colateral ou uma falha, mas uma característica central. A mente humana, de forma análoga, exibe uma forte natureza probabilísticas no processamento de informações, na tomada de decisões e na interação com o mundo. Essa característica nos permite navegar por situações ambíguas ou novas, gerando as melhores suposições com base nas evidências disponíveis e atualizando-as à medida que mais informações se tornam acessíveis. Essa adaptabilidade é uma marca registrada dos sistemas probabilísticos, permitindo que tanto a IA quanto os humanos funcionem efetivamente em ambientes complexos do mundo real. É essa base comum - a natureza probabilística - que, em parte, viabiliza e fundamenta a colaboração entre a IA e os seres humanos.
Ao contrário dos modelos determinísticos, os modelos probabilísticos incorporam a incerteza inerente ao mundo real, alterando o objetivo de eliminá-la para o de medi-la e gerenciá-la. Com os modelos de linguagem (LLMs), em vez de dizer como fazer algo passo a passo, especificamos o que queremos e aceitamos que o caminho - e até mesmo o resultado final - podem variar.
Além disso, os modelos probabilísticos “aprendem” continuamente a partir de novos dados - fase de treinamento. Essa capacidade adaptativa contrasta com os modelos determinísticos, que exigem atualizações explícitas a cada mudança nas regras ou no ambiente. Enquanto o modelo determinístico é estático por natureza, o probabilístico é dinâmico por design.
Modelo Determinístico x Modelo Probabilístico
| Eixo de Análise | Modelo Determinístico | Modelo Probabilístico |
| Comportamento | Totalmente previsível, regras explícitas | Distribuição de resultados possíveis, variabilidade inerente |
| Rastreabilidade | Alta (rastreio lógico-linear) | Baixa (opacidade ou efeito “caixa preta”) |
| Atualização | “Manual” e baseada em regras | Adaptação a novos dados sem reprogramação explicita |
| Tratamento de erro | Detectável e corrigível de forma direta no código | Pode emergir de padrões indesejados nos dados de treinamento |
Um dos desafios mais significativos dos sistemas habilitados por IA é a chamada “opacidade” - também referida como não-interpretabilidade ou efeito black-box (caixa preta). Esses sistemas baseiam-se em padrões identificados em grandes volumes de dados e em probabilidades “aprendidas” a partir deles. O resultado prático é que pode ser extremamente difícil - ou mesmo impossível - compreender como o sistema chegou a um determinado resultado. Não há um caminho lógico linear a percorrer, nem uma sequência de instruções a auditar. A resposta emerge de interações entre milhares, milhões ou bilhões de parâmetros ajustados durante o treinamento, de maneira que nem mesmo os seus desenvolvedores conseguem explicar completamente o “raciocínio” que derivou nos resultados.
Esse fenômeno levanta questões críticas para setores onde a explicabilidade não é apenas desejável, mas obrigatória - como saúde, direito, educação, segurança e finanças. A incerteza precisa ser adequadamente considerada e comunicada aos usuários, evitando que se deposite uma confiança plena e acrítica na inteligência artificial. A transparência sobre suas limitações deveria ser parte fundamental de qualquer implementação responsável de IA. Avanços em áreas como “Explainable AI” (XAI) buscam mitigar esse problema, desenvolvendo técnicas para tornar os modelos mais interpretáveis sem comprometer seu desempenho. Contudo, ainda não existem soluções comprovadas, e a tensão entre acurácia e explicabilidade permanece um dos grandes dilemas: quanto maior a acurácia, menor a explicabilidade, e vice-versa.
A automação habilitada por IA, portanto, representa uma ruptura com o conceito tradicional de automação. Nos modelos clássicos, automatizar significa, essencialmente, replicar um processo humano em velocidade e escala. Com a IA, a automação adquire uma dimensão qualitativa distinta, tornando-se mais poderosa e, simultaneamente, mais complexa de governar. A variabilidade que confere flexibilidade e capacidade de adaptação também introduz imprevisibilidade - e, com ela, novos riscos operacionais, reputacionais e regulatórios.
Para as organizações, a adoção de IA exige uma revisão da chamada “tolerância ao risco”. Processos que antes eram totalmente previsíveis - e, portanto, auditáveis com precisão - passam a operar em um espectro de probabilidades. Garantias antes absolutas tornam-se condicionais. Gestores e líderes precisam adquirir novas competências para navegar nesse ambiente: compreender o significado de “confiar” em um sistema de IA, saber interpretar métricas de confiança e incerteza, e estabelecer mecanismos de supervisão humana adequados para contextos de alto risco.
Mais do que uma questão técnica, a transição para modelos de IA representa uma mudança cultural: da busca pela certeza absoluta para a gestão inteligente da incerteza. Acolhê-la - compreendê-la, mensurá-la e comunicá-la adequadamente - é o novo imperativo para quem lida com inteligência artificial. Não se trata de abrir mão do rigor, mas de exercê-lo em um domínio mais complexo, onde a resposta certa raramente é única, e onde a transparência sobre as limitações do sistema é tão importante quanto a sua capacidade de desempenho. A questão que se impõe, portanto, não é se as organizações adotarão a inteligência artificial - a adoção está em curso e se acelera -, mas se estarão preparadas, culturalmente e institucionalmente, para geri-la de forma responsável.
Na educação, essa reflexão ganha contornos ainda mais prementes. A missão dos educadores não é formar meros usuários de IA, mas cidadãos aptos a lidar com ela de forma responsável, compreendendo seus potenciais benefícios e, crucialmente, suas limitações. A transição de um mundo determinístico para um mundo probabilístico - de sistemas sob controle do programador para sistemas imprevisíveis - requer novas metodologias pedagógicas e novas dinâmicas de ensino e aprendizado. A incerteza, em toda a sua dimensão, precisa ser entendida, assimilada e incorporada como parte imperiosa do processo educativo para o século XXI.


