Publicado na CompliancePME em 2 de janeiro de 2024

A demissão e quase imediata recontratação de Sam Altman como CEO da OpenAI, que criou, desenvolve e explora a mais popular ferramenta de inteligência artificial – o ChatGPT –, parece saída de um roteiro de cinema. Entre 17 e 21 de novembro deste ano aconteceu de tudo um pouco, incluindo um motim de 95% dos empregados exigindo o retorno do executivo, sob pena de juntarem-se a ele em um projeto concorrente, financiado pela Microsoft, maior investidora da empresa.

O que mais interessa, contudo, é saber como a estrutura de governança da OpenAI vai sair do episódio. Ela foi criada em 2015 como uma entidade sem fins lucrativos, por prodígios em tecnologia, quase todos com menos de 30 anos. Alguns trabalhavam em gigantes da área e outros, como Altman, já haviam fundado startups de tecnologia. O controverso Elon Musk aportou experiência e dinheiro, do alto de seus 44 anos. Juntos, os fundadores prometeram doar 1 bilhão de dólares para a OpenAI funcionar.

As razões para organizar a OpenAI como uma entidade sem fins lucrativos foram expostas em dezembro de 2015, em um texto assinado por dois dos seus fundadores. Greg Brockman era um brilhante matemático americano de 28 anos, que abandonara cursos em Harvard e no MIT antes de fundar outra empresa, a Stripe. Ilya Sutskever, um PHD canadense de 29 anos, nascido na Rússia e criado em Israel, especialista em deep learning, era já então um importante cientista no Google.

No texto fundacional, Brockman e Sutskever explicavam que o objetivo da OpenAI era “desenvolver a inteligência digital da forma que mais provavelmente venha a beneficiar a humanidade como um todo, evitando restrições decorrentes da necessidade de gerar retorno financeiro. Como nossa pesquisa está isenta de obrigações financeiras, podemos nos concentrar melhor em um impacto humano positivo”.

Mais adiante, em abril de 2018, embora reafirmando o compromisso – “nosso dever fiduciário primário é com a humanidade” –, a OpenAI reconhecia, em seus princípios, que o desenvolvimento da inteligência artificial demandava “mobilizar recursos substanciais”. Era o que fariam, portanto, mas “sempre agindo diligentemente para minimizar conflitos de interesse que possam comprometer amplos benefícios”.

Pouco antes, em fevereiro de 2018, Elon Musk deixara o Conselho de Administração, embora continuasse como doador. “Como a Tesla está cada vez mais focada em inteligência artificial, isso irá eliminar um potencial conflito de interesses para Elon”, afirmou o comunicado da OpenAI. É dessa época a primeira doação da Microsoft, também na casa do bilhão de dólares – mas sem direito a interferir na gestão.

Um punhado de jovens com mentes brilhantes reunirem-se e criarem uma organização sem fins lucrativos para desenvolver inteligência artificial, ao invés de explorar seus talentos para fazer muito mais dinheiro, era, por si só, digno de nota. Mas do ponto de vista da estrutura de governança, só mais tarde é que a coisa ficou mesmo interessante e inovadora.

Em março de 2019, em um comunicado outra vez assinado por Brockman e Sutskever, a OpenAI informou que a necessidade de recursos físicos e humanos para desenvolver os sistemas de inteligência artificial mais sofisticados revelara-se ainda mais intensa do que o imaginado, o que exigiria bilhões de dólares nos anos seguintes – para investimento em supercomputadores, computação em nuvem e atração e retenção de pessoas talentosas. Para isso, era preciso acelerar os planos e alterar a estrutura.

A partir de agora, dizia a OpenAI, seria adotado um modelo híbrido. A organização sem fins lucrativos passaria a ser acionista controladora de uma companhia com finalidade lucrativa, que emitiria ações para captar recursos de investidores e oferecer participação a empregados. Com um detalhe: o investimento na companhia teria um limite de retorno, equivalente, na primeira rodada, a cem vezes o valor aportado.

O conselho de administração continuaria majoritariamente independente e os investidores e empregados assinariam contratos concordando com o fato de que a nova companhia buscaria, prioritariamente, cumprir os princípios da OpenAI. Para isso, poderia inclusive reinvestir todo o seu lucro, e mesmo dar precedência à realização daqueles princípios sobre sua finalidade lucrativa.

A partir de 2021, a Microsoft tornou-se a grande investidora da OpenAI, aportando e prometendo aportar mais de 10 bilhões de dólares no negócio. O ChatGPT é um sucesso, mas o investimento gerou controvérsia – dado o papel dominante da Microsoft na indústria e a concorrência com o Google na área da inteligência artificial.

O fato, contudo, é que o modelo híbrido da OpenAI tem grande potencial de inovação no capitalismo e deve ser monitorado. Especialmente porque tentativas semelhantes fracassaram no passado. Foi o caso, entre nós, da Fundação Ruben Berta, que controlava a Varig e cujas falhas de governança estão na raiz da falência da empresa.

O Brasil é a prova de que a liberdade tem um papel importante. Nossos regimes legais alternativos funcionam mal. Cooperativas são engessadas por uma legislação disfuncional. Fundações de direito privado são submetidas à errática fiscalização pelo Ministério Público. Dado o histórico de fraudes em incentivos fiscais, entidades sem fins lucrativos são tratadas com suspeita, quando se aproximam de empresas e investidores.

Acontece que um capitalismo que se preocupe com as pessoas precisa oferecer alternativas concorrentes aos modelos tradicionais de partilha de lucros, especialmente nos casos em que a necessidade de capital diminui ao longo do tempo – como por vezes ocorre no setor de serviços. Essas empresas, se quisessem, deveriam poder adotar um modelo híbrido, para recompensar adequadamente tanto o capital quanto os que prestam serviços em seu nome, dos quais dependem, afinal, sua cultura e seu sucesso.

Marcelo Trindade é advogado e professor da PUC-RIO. Foi diretor e presidente da Comissão de Valores Mobiliários (CVM).

Publicada originalmente no Valor Invest