Microsoft investirá R$400 bilhões em data centers para impulsionar inteligência artificial

A Microsoft anunciou planos ambiciosos de investir mais de R$400 bilhões (US$80 bilhões) na construção e expansão de data centers até o final de 2025. Esses investimentos visam fortalecer sua infraestrutura tecnológica, permitindo o desenvolvimento de soluções avançadas de inteligência artificial e expandindo a capacidade de suas operações em nuvem. A declaração foi feita por Brad Smith, presidente da Microsoft, que destacou o papel crucial desses data centers na criação de modelos de IA mais robustos e na oferta de aplicativos que atendam a uma escala global.

Segundo Smith, a maior parte desse investimento será direcionada para os Estados Unidos, refletindo não apenas a confiança da empresa na economia americana, mas também um compromisso estratégico com o país. Em paralelo, ele pediu que o governo americano tome medidas que incentivem a adoção global da tecnologia desenvolvida nos EUA, em um movimento que parece ecoar a competitividade crescente com a China no campo da inteligência artificial.

Além de ressaltar o foco em infraestrutura, Smith reconheceu a importância de parcerias estratégicas, como a colaboração com a OpenAI. A Microsoft já destinou mais de US$10 bilhões à organização responsável pelo ChatGPT, um exemplo claro de como a empresa busca alavancar inovações externas para impulsionar sua própria liderança em IA. Esse movimento reafirma a intenção da Microsoft de não apenas acompanhar, mas liderar a corrida global pela supremacia tecnológica.

OpenAI anuncia reestruturação corporativa e se torna uma Public Benefit Corporation

A OpenAI, empresa por trás do ChatGPT, anunciou mudanças significativas em sua estrutura organizacional. Em um post no blog oficial, a companhia revelou que passará a operar como uma Public Benefit Corporation (PBC), um modelo de empresa que busca equilibrar interesses lucrativos com um propósito social claro. Essa mudança visa alinhar seus objetivos de inovação com benefícios para a sociedade, enquanto mantém um modelo que incentiva o crescimento e a captação de investimentos.

O que muda com o novo modelo de PBC?

O modelo de PBC é um tipo de corporação reconhecida pela legislação dos EUA, cuja missão combina geração de lucro e impacto social positivo. Embora a OpenAI já operasse com uma estrutura mista — com braços sem fins lucrativos e com fins lucrativos —, a mudança para o status de PBC formaliza esse compromisso e amplia a capacidade de atração de capital.

No modelo atual, o braço sem fins lucrativos continuará a deter ações da nova corporação, enquanto a divisão com fins lucrativos será responsável pelas operações diárias. Além disso, a fundação sem fins lucrativos planeja formar uma equipe de liderança focada em iniciativas sociais nas áreas de saúde, educação e ciência.

“Acreditamos que essa nova estrutura nos permitirá equilibrar os interesses de acionistas, partes interessadas e o benefício público em nossas tomadas de decisão”, declarou a empresa.

Implicações financeiras e operacionais

A mudança, segundo a OpenAI, trará maior flexibilidade para captar recursos, embora a empresa não tenha detalhado como isso acontecerá. O post no blog também não esclarece se haverá impactos diretos nos produtos voltados para o consumidor, como o ChatGPT. No entanto, considerando as recentes dificuldades enfrentadas pela plataforma — incluindo uma grande interrupção de serviço no dia seguinte ao Natal —, a injeção de novos recursos e investimentos pode ser fundamental para garantir a estabilidade e a expansão de seus serviços.

Braço social ganha destaque

Com o novo modelo, o braço sem fins lucrativos da OpenAI terá maior autonomia para liderar projetos de impacto social. A empresa planeja contratar uma equipe dedicada para promover iniciativas voltadas a áreas críticas como saúde, ciência e educação. Essa abordagem reflete uma visão de longo prazo para ampliar o impacto da inteligência artificial além do escopo comercial.

O que esperar no futuro?

Embora os detalhes operacionais ainda sejam escassos, a transição para o modelo de PBC reflete o esforço da OpenAI em consolidar sua posição como uma das empresas líderes no desenvolvimento responsável da inteligência artificial. Ao mesmo tempo, a mudança busca aliviar tensões entre objetivos lucrativos e a necessidade de atender aos desafios éticos e sociais associados à expansão da IA.

A medida também sinaliza uma possível resposta às críticas crescentes sobre o impacto das tecnologias de IA e os desafios de governança enfrentados por empresas do setor. Se bem-sucedida, essa reestruturação pode se tornar um modelo para outras companhias que buscam equilibrar inovação e responsabilidade social no mundo da tecnologia.

OpenAI firma parceria com empresa de tecnologia militar

A OpenAI anunciou sua primeira grande parceria no setor de defesa, colaborando com a Anduril Industries, uma startup de tecnologia militar fundada por Palmer Lucky, cofundador da Oculus VR. A parceria estratégica busca integrar os modelos de IA da OpenAI aos sistemas da Anduril, com o objetivo de melhorar a análise de dados sensíveis, reduzir a carga de operadores humanos e aprimorar a conscientização situacional. Essa aliança posiciona a OpenAI mais perto de colaborações diretas com o Departamento de Defesa dos EUA.

A Anduril é conhecida por fornecer tecnologias militares, como drones, submarinos autônomos e sistemas anti-drone. A startup já conquistou contratos substanciais com o governo, incluindo um projeto para desenvolver jatos de combate não tripulados e um contrato de US$ 100 milhões com o Escritório de Inteligência Digital e IA do Pentágono.

Sam Altman, CEO da OpenAI, reforçou que a parceria está alinhada com os valores democráticos e o objetivo de proteger cidadãos americanos:

“A OpenAI constrói IA para beneficiar o maior número possível de pessoas e apoia esforços liderados pelos EUA para garantir que a tecnologia mantenha os valores democráticos. Nossa parceria com a Anduril ajudará a proteger o pessoal militar americano e permitirá que a comunidade de segurança nacional use essa tecnologia de forma responsável.”

Mudança de política e contexto

A OpenAI fez mudanças significativas em sua política em janeiro de 2024, removendo uma cláusula que bania o uso de suas tecnologias para fins militares ou que envolvessem riscos de danos físicos. Essa alteração abriu caminho para projetos como a parceria com a Anduril. A política atual ainda proíbe o uso de suas ferramentas para ferir pessoas, desenvolver armas ou destruir propriedades, mas permite aplicações relacionadas à segurança nacional.

O Crescimento da IA no setor de defesa

A OpenAI não está sozinha nesse movimento em direção a aplicações militares. Outras empresas de IA também estão investindo no setor de defesa. Anthropic e Palantir uma parceria com a Amazon Web Services para fornecer modelos de IA para operações de defesa e inteligência. Rumores indicam que Shyam Shankir, CTO da Palantir, pode liderar a área de engenharia e pesquisa do Pentágono na nova administração de Donald Trump.

Como identificar vídeos feitos com IA?

Com a tecnologia de IA evoluindo rapidamente, a identificação de vídeos gerados por IA tornou-se mais desafiadora. Antigamente, sinais de vídeos gerados por IA, como rostos deformados e objetos distorcidos, eram mais evidentes. Hoje, ferramentas sofisticadas podem criar vídeos realistas com poucos cliques, exigindo uma análise mais detalhada para detectar manipulações.

Tipos de Vídeos de IA

  1. Vídeos de impostores (deepfakes): utilizam substituição de rosto e sincronização labial, onde o rosto de uma pessoa é trocado por outro ou a boca é manipulada para parecer que está falando algo que não disse. Lembre-se dos deepfakes de Tom Cruise que se tornaram virais por serem tão convincentes. Hoje, há aplicativos capazes de fazer o mesmo, até com áudios encontrados online, como mostrado pela Microsoft.
  2. Vídeos gerados por modelos de difusão de texto-para-imagem: são criações feitas a partir de prompts textuais. A OpenAI impressionou com o anúncio de Sora, seu gerador de vídeos de IA, embora ainda esteja em fase de desenvolvimento. O potencial dessa tecnologia é vasto, mas os vídeos ainda apresentam inconsistências e são curtos devido às limitações atuais.

Dicas para Identificação

  • Preste atenção nos detalhes faciais: busque artefatos em torno do rosto, especialmente durante movimentos inclinados.
  • Observe os movimentos corporais: veja se no vídeo as pessoas não estão sempre com braços rígidos ou pouca movimentação.
  • Foque na boca e nos dentes: dentes com formatos irregulares ou uma quantidade que muda durante o vídeo são indicadores, como ressaltado por Siwei Lyu.
  • Verifique o fundo e o ambiente: mudanças impossíveis, como um edifício que de repente ganha um andar, podem indicar um vídeo de IA.
  • Desconfie de vídeos curtos: vídeos com cerca de 10 segundos podem ser resultado de limitações da tecnologia.

Importância da Alfabetização em IA

Siwei Lyu, diretor do Media Forensic Lab da Universidade de Buffalo SUNY, enfatiza que é mais importante desenvolver uma conscientização de que um conteúdo pode ser gerado por IA do que se fixar em pistas específicas. Com o avanço da tecnologia, os artefatos que antes eram indicadores confiáveis vão sendo corrigidos, como foi o caso do padrão de piscada em vídeos falsos.

Aruna Sankaranarayanan, pesquisadora do MIT, destacou a dificuldade de desmentir deepfakes de figuras menos conhecidas, que podem distorcer informações e serem difíceis de desmentir. A alfabetização em IA pode levar as pessoas a tomarem ações como verificar quem compartilhou o vídeo e buscar múltiplas fontes para confirmação, como recomendado por Farid ao analisar imagens falsas de furacões.

Ser cético em relação a conteúdos de redes sociais é essencial. Lyu recomenda verificar fontes adicionais e usar sites como Snopes e Politifact para desmentir desinformações (ambos mais efetivos para informações globais e em língua inglesa). Desenvolver o hábito de pensar criticamente e buscar múltiplas perspectivas ajudará a navegar de forma mais segura em um mundo digital cada vez mais permeado por vídeos gerados por IA.

OpenAI desativa equipe de Preparação para AGI em meio à saída de líderes

OpenAI dissolveu sua equipe de AGI Readiness, responsável por preparar a organização para uma possível Inteligência Artificial Geral (AGI), indicando mais um ajuste nas operações.

Miles Brundage, um conselheiro sênior na equipe, anunciou sua saída em uma publicação no Substack, revelando seu desejo de explorar o desenvolvimento de IA fora da indústria e de atuar de forma mais independente.

“Decidi que quero impactar o desenvolvimento da IA de fora, e não de dentro,” escreveu Brundage, destacando que OpenAI e outras grandes empresas não estão prontas para a AGI. Esse sentimento, segundo ele, é compartilhado por outros membros da liderança sênior da OpenAI.

Com a dissolução da equipe, os antigos integrantes que permanecerem na companhia serão realocados para outras divisões.

Êxodo de Lideranças da OpenAI

Nos últimos meses, a OpenAI enfrentou uma série de saídas que desestabilizam sua capacidade de supervisão e alinhamento em direção à Inteligência Artificial Geral (AGI).

Antes da criação da equipe de AGI Readiness, a principal divisão de segurança era a equipe “Superalignment”, co-liderada pelos cofundadores Ilya Sutskever e Jan Leike. No entanto, essa equipe foi dissolvida após a saída de Leike, que deixou a empresa em maio devido a discordâncias com a gestão.

Sutskever, por sua vez, partiu no mês seguinte, lançando sua própria empresa de IA, já avaliada em cerca de US$ 5 bilhões. As saídas começaram com o cofundador Andrej Karpathy, que fundou sua própria startup em fevereiro, e continuaram com John Schulman, que em agosto se juntou à concorrente Anthropic. Além disso, Mira Murati, ex-diretora de tecnologia, está atualmente em busca de recursos para iniciar sua própria empresa de IA.

Essas baixas na liderança acontecem em um momento crítico, em que a OpenAI busca avançar rumo à AGI, intensificando as incertezas sobre sua trajetória no setor de inteligência artificial.

Sair da versão mobile