Fundador de uma das principais empresas de inteligência artificial dos Estados Unidos, o nome de Sam Altman voltou a estampar os noticiários nos últimos dias — e não por inovações em plataformas de IAs como o ChatGPT, mas sim por uma coleção de polêmicas recentes na OpenAI.

Atualmente, o bilionário possui um patrimônio estimado em US$ 2 bilhões pela Bloomberg. A cifra não considera a participação na OpenAI, já que o executivo repetidamente afirmou não possuir fatias da companhia no portfólio. 

Na realidade, grande parte de sua riqueza rastreável está em uma rede de fundos de venture capital e investimentos em startups, como a Stripe e o Reddit.

De volta à OpenAI, a empresa e o CEO vêm sendo alvo de críticas do mercado principalmente por uma tríade de fatores: acordos controversos com antigos funcionários, questões de segurança de inteligência artificial e direitos autorais.

Nesse sentido, a lista de intrigas tech recentes inclui brigas com a atriz Scarlett Johansson por “uma luta da atriz contra deepfakes e a proteção da própria imagem”, além da dissolução de todo o quadro de funcionários encarregado dos riscos de longo prazo trazidos pela IA. Além disso, caiu sob os holofotes a potencial tentativa da companhia de tentar sufocar críticas de ex-funcionários por meio de acordos de saída restritivos. 

É importante lembrar que, em novembro do ano passado, Altman foi destituído do cargo de presidente da OpenAI sob a alegação de que não vinha sendo “consistentemente sincero” nas suas comunicações com o conselho de administração da companhia.

Isso não significa que as críticas recentes à gestão de Sam Altman resultarão na sua demissão outra vez — mas sim colocam em risco a reputação da própria OpenAI sob o seu comando.

Na última quinta-feira (23), a OpenAI voltou atrás em uma polêmica decisão: a de fazer com que os colaboradores que deixassem a empresa tivessem de escolher entre assinar um acordo de não depreciação sem data para expirar ou abrir mão da sua participação na empresa, adquirida via units (pacotes de ações) enquanto eram funcionários.

Em outras palavras, para manter sua fatia na OpenAI, esses ex-colaboradores deveriam se abster da liberdade de criticar a empresa por tempo indeterminado.

Entretanto, um memorando interno enviado ontem pela empresa e obtido pela CNBC afirmava que, independentemente de o ex-colaborador ter ou não assinado o contrato, suas units não seriam canceladas.

De acordo com Sam Altman, ainda que a empresa nunca tenha confiscado o patrimônio adquirido de ninguém — e nem o fará se os ex-funcionários não concordarem com a cláusula do contrato que os proíbe de falar mal da empresa publicamente —, havia uma cláusula sobre o potencial cancelamento de capital em documentos de saída anteriores.

“Foi uma das poucas vezes em que fiquei genuinamente envergonhado de liderar a OpenAI; eu não sabia que isso estava acontecendo e deveria”, escreveu Altman, no X (antigo Twitter). 

“A equipe já estava no processo de consertar a papelada padrão de saída no último mês. Se algum ex-funcionário que assinou um desses acordos antigos estiver preocupado com isso, pode entrar em contato comigo e nós resolveremos isso também. Sinto muito.”

Segundo documentos vazados acessados pela Vox, o diretor de estratégia da OpenAI, Jason Kwon, reconheceu que a cláusula estava em vigor desde 2019, mas que “a equipe percebeu isso há cerca de um mês”. 

Além disso, os documentos obtidos pela Vox contavam com assinaturas de Altman e Kwon — o que complica as alegações de que os executivos não sabiam do dispositivo de confisco dos patrimônios adquiridos.

Demissões na equipe de segurança de IA

Em meio às acusações de acordos altamente restritivos com antigos funcionários, a OpenAI ainda enfrenta comentários de ex-executivos de que o compromisso com a segurança da inteligência artificial ​​deixa muito a desejar.

Na semana passada, a empresa deu fim à equipe focada nos riscos de longo prazo da IA — apenas um ano após a criação dessa unidade, de acordo com a CNBC.

Recentemente, dois líderes de equipe, o cofundador da OpenAI, Ilya Sutskever, e Jan Leike, anunciaram suas saídas. 

“Entrei porque pensei que a OpenAI seria o melhor lugar do mundo para fazer essa pesquisa”, escreveu Leike, no X. “No entanto, já faz algum tempo que discordo da liderança da OpenAI sobre as principais prioridades da empresa, até que finalmente chegamos a um ponto de ruptura.”

Segundo Leike, a cultura e os processos de segurança da empresa criada por Sam Altman “ficaram em segundo plano em relação aos produtos brilhantes” da companhia.

Ontem, a pesquisadora de políticas da OpenAI, Gretchen Krueger, também deixou a companhia. Krueger foi responsável por liderar análises sobre os modelos de IA da empresa, além de desenvolver mecanismos para passar dos princípios à prática para melhorar a confiabilidade no desenvolvimento de IA.

  • LEIA TAMBÉM: Casa de análise libera carteira gratuita de ações americanas para você buscar lucros dolarizados em 2024. Clique aqui e acesse.

OpenAI e a briga em Hollywood

Não bastassem todas as notícias envolvendo acordos altamente restritivos com ex-funcionários e demissões na equipe que se dedicaria à segurança da inteligência artificial, a OpenAI ainda entrou em uma briga em Hollywood.

No início desta semana, a atriz Scarlett Johansson criticou a empresa, dizendo que a voz usada no novo modelo GPT-4o, seu software de IA de voz, parecia “assustadoramente semelhante” à dela — ainda que ela tenha recusado uma oferta do CEO da OpenAI, Sam Altman, para trabalhar no projeto.

“Depois de muita consideração e por motivos pessoais, recusei a oferta”, disse Johansson, em comunicado enviado à CNBC. “Nove meses depois, meus amigos, familiares e o público em geral notaram o quanto o mais novo sistema chamado ‘Sky’ soava como eu.”

Apelidada de “Sky”, a voz usada no ChatGPT tomou as redes sociais após internautas destacarem semelhança com a voz de Johansson no filme “Her”. No dia do lançamento da nova IA, Sam Altman inclusive tuitou a mensagem enigmática “ela” 

“Quando ouvi a demonstração lançada, fiquei chocada, irritada e sem acreditar que o Sr. Altman iria usar uma voz que soava tão estranhamente semelhante à minha que meus amigos mais próximos e meios de comunicação não perceberam a diferença”, disse a atriz. “Sr. Altman até insinuou que a semelhança era intencional, twittando uma única palavra ‘her’”.

Após as polêmicas — e depois que a atriz contratou um advogado para ajudá-la a resolver a questão —, a OpenAI decidiu tirar a Sky do ar.

“A voz de Sky não é de Scarlett Johansson e nunca foi planejada para se parecer com a dela. Escolhemos o dublador para a voz de Sky antes de qualquer contato com a Sra. Johansson”, escreveu o CEO da OpenAI. “Por respeito à Sra. Johansson, deixamos de usar a voz da Sky em nossos produtos. Lamentamos a Sra. Johansson por não termos nos comunicado melhor.”

Segundo a dona do ChatGPT, a voz de Sky não era uma imitação de Scarlett Johansson, mas sim pertencia a uma “atriz profissional diferente, usando sua própria voz natural”. “Para proteger sua privacidade, não podemos compartilhar os nomes de nossos talentos vocais”, escreveu a empresa, em nota.

*Com informações de CNBC, VOX e Business Insider


Fonte: SeuDinheiro

Share.