Imagine-se na seguinte situação: durante uma reunião do Conselho de Administração, um dos assuntos em pauta é o investimento em uma nova tecnologia revolucionária, mas que requer um exame diligente. Um conselheiro pergunta se a equipe sabe como a tecnologia funciona. A resposta é que os conceitos gerais são compreendidos, mas o funcionamento exato é desconhecido e, portanto, é difícil analisar os processos internos de operação. Outro conselheiro questiona o impacto da tecnologia na força de trabalho, mas a resposta é que essa informação também é limitada, o que dificulta a avaliação dos riscos e oportunidades do investimento. Como resultado, é decidido que os riscos são excessivos e é melhor esperar para ver.
Esse debate fictício, embora caricato, poderia ter ocorrido recentemente em relação à Inteligência Artificial Generativa (IAG), na esteira do furor ao redor do lançamento do ChatGPT, mas essa situação não é diferente da que ocorreu quando o motor a vapor foi introduzido, há mais de 300 anos.
O motor a vapor foi a peça central da primeira revolução industrial e marcou uma transição única na história da civilização. Pela primeira vez, a humanidade alcançou um ponto de crescimento econômico autossustentado e acelerado, com o PIB per capita das economias avançadas multiplicando-se mais de 40 vezes no período. No entanto, a tecnologia central era uma enorme incógnita.
Quando pioneiros desta inovação desenvolveram as primeiras versões do motor a vapor, a termodinâmica, que é o ramo da física que descreve os fenômenos térmicos, ainda não existia. Este corpo de conhecimento, revolucionário em si mesmo, ainda demoraria cem anos para emergir. Mais que a incompreensão sobre a natureza de funcionamento do fenômeno, a história da introdução do motor a vapor traz à tona a incapacidade de prever os impactos de segunda e terceira ordens.
Como conselheiro(a), é natural avaliar os riscos de uma tecnologia emergente com base no modelo mental tradicional de gestão de riscos. No entanto, como vimos no caso do motor a vapor, esse modelo pode ser perigoso, pois traz uma falsa sensação de segurança em um tema sobre o qual o nível de incerteza é extremo e não quantificável.
Este é o território da incerteza Knightiana, nomeado em homenagem ao economista Frank Knight, que introduziu a ideia no início da década de 1920. Esse tipo de "incerteza radical" refere-se a situações em que a probabilidade de um evento ocorrer é desconhecida ou incalculável, portanto, diferente do risco, em que as probabilidades são conhecidas ou podem ser estimadas com algum grau de confiança.
Avaliar e tomar decisões sob o arcabouço tradicional se torna desafiador, já que a ausência de probabilidades claras torna difícil avaliar os resultados potenciais e gerenciar os riscos. E há um grande risco de paralisia decisória em questões cruciais. Com base na análise de temas destacados em conferências com investidores de empresas de capital aberto (pesquisa para a qual recebi apoio do ChatGPT), temos alguns tópicos de governança relacionados à Inteligência Artificial (IA) na mesa do Conselho e já bem familiares:
- Estratégia de negócios, investimentos e parcerias.
- Modelos operacionais e de governança.
- Questões éticas e implicações legais.
- Competências e pessoas.
- Riscos, incluindo riscos competitivos, cibernéticos e mesmo reputacionais.
Não conseguimos regular o que não compreendemos completamente, mas não há avanço se não houver espaço para explorar a fronteira do conhecimento, e a dinâmica da mudança assume sua própria inércia.
Se entendermos o potencial da IA (e especialmente da IAG) como uma força motriz de mudança, com um regime tecnológico próprio, assim como foi com o motor a vapor, entramos no território que o economista Chris Freeman caracterizou como mudança de paradigma tecnoeconômico. Como aconteceu em inovações dessa magnitude anteriormente, veremos uma mudança no paradigma de organização econômica, afetando diversas indústrias e cadeias de valor.
Portanto, é inevitável que qualquer empresa se posicione agora, mesmo diante da desconfortável incerteza. Do ponto de vista dos Conselhos, é crucial ter humildade intelectual para fugir da discussão polarizada entre alarmismo e ironia desdenhosa. Aliás, essa discussão entre a ontologia do ChatGPT e o risco existencial para a humanidade é uma distração perigosa do debate necessário e maduro sobre a governança e as salvaguardas institucionais adequadas, que possam fomentar o avanço técnico.
A tecnologia não se desenvolve em um vácuo institucional. O que ocorre é uma coevolução, com múltiplos feedbacks, entre tecnologia e instituições, e qualquer atitude de "engenharia regulatória sobre o futuro desconhecido" é impossível e arrogante. A atitude mais apropriada é combinar o espírito de curiosidade e ceticismo com os valores que fundamentaram a base do que nos trouxe até aqui como civilização. Em um artigo recente sobre política econômica, Martin Wolfe, do Financial Times, escreveu que: "Não podemos abolir a política democrática. A política econômica deve ser adaptada ao nosso mundo, não ao século XIX".
O mesmo vale aqui para a governança da IA. Não há soluções mágicas, nem saídas convenientes. Compromisso, abertura ao aprendizado e audácia estão na base do arcabouço de governança necessário para guiar as organizações na mais transformadora jornada dos últimos cem anos.