Apple surpreende com novo Mac mini M4, mas posicionamento do botão de energia causa estranhamento

O novo Mac mini da Apple é impressionante. Para muitos, é como um sonho de infância: uma máquina compacta de alumínio, silenciosa e com uma potência notável — especialmente quando equipada com o novo chip M4 Pro da Apple.

No entanto, um detalhe no design deste Mac mini chama atenção: ele possui duas portas USB-C e uma entrada para fones de ouvido na frente, além de três portas Thunderbolt, uma entrada Ethernet, uma porta HDMI e um conector de energia na parte traseira. Mas o botão de energia, normalmente fácil de localizar, está em um lugar inusitado: na parte inferior do dispositivo.

Para ligar ou desligar o Mac mini, é necessário levantá-lo e, tateando, encontrar o botão na parte de baixo.

Novo Mac Mini: botão de desligar em um local, digamos, diferente.

Embora o dispositivo não fique totalmente plano na superfície, permitindo o acesso ao botão sem levantá-lo muito, o fato de o Mac mini ser projetado para ficar escondido em uma mesa ou estante pode tornar essa tarefa inconveniente.

Em termos de design, a Apple frequentemente surpreende, e, embora seja um detalhe menor, o botão na parte inferior já está sendo comparado a outras escolhas de design questionáveis, como o Magic Mouse, que é carregado com um plugue localizado na base do mouse. Para alguns, o botão na parte inferior do Mac mini pode ser ainda mais inconveniente, já que ligá-lo e desligá-lo ou forçar uma reinicialização pode ser algo mais frequente do que recarregar o mouse.

É possível que a Apple tenha adotado esse design para otimizar o espaço no Mac mini, que é de fato muito compacto. Ainda assim, o botão de energia poderia ter sido posicionado na parte de trás, frontal ou até mesmo no topo do dispositivo — praticamente qualquer lugar seria mais conveniente do que na base.

Vamos ver se essa escolha se torna algo fácil de acostumar na prática. Em breve, traremos mais detalhes sobre o funcionamento do novo Mac mini.

ChatGPT agora facilita encontrar informações importantes de conversas antigas

Publicado na plataforma X (anteriormente Twitter) na terça-feira, a OpenAI anunciou uma nova ferramenta no ChatGPT que facilitará a busca pelo histórico de conversas. Ao abrir o ChatGPT no navegador, você verá um ícone de lupa no canto superior esquerdo, permitindo pesquisar palavras-chave e frases em suas conversas passadas.

https://twitter.com/OpenAI/status/1851340618108481596

Para usuários do plano Plus e Team, a novidade estará disponível antes. Usuários Enterprise e Edu terão acesso em uma semana, e os usuários do plano gratuito começarão a receber o recurso ao longo do próximo mês.

Ao perguntar para o próprio ChatGPT sobre a nova ferramenta, ele explicou que a funcionalidade foi “desenvolvida para economizar tempo e organizar informações”. Segundo o ChatGPT, a ferramenta permite localizar rapidamente informações de conversas passadas, facilitando a retomada de respostas úteis ou a continuação de discussões anteriores.

Além disso, a AI detalha que a pesquisa de histórico pode ser usada para acompanhar projetos em andamento, estudar e fazer “brainstorming”.

Essa atualização surge após críticas ao ChatGPT sobre o armazenamento de dados de conversas. Em maio, a Mashable relatou que o ChatGPT salvava o histórico de chats dos usuários, mesmo que estes tivessem optado por não compartilhar seus dados para treinar o modelo. Quando questionado sobre o novo recurso de busca no histórico, o ChatGPT afirmou que “somente você (o usuário) tem acesso ao seu histórico de conversas” e que a OpenAI não usa essas conversas para treinamento sem o consentimento explícito do usuário.

Além disso, é possível desativar o histórico de chats nas configurações. Quando desativado, as conversas não serão salvas nem pesquisáveis.

Curiosamente, algumas polêmicas envolvendo o ChatGPT incluem compartilhamento de desinformação em debates eleitorais, possíveis preconceitos contra candidatos com deficiência e exposição de segredos industriais de empresas como a Samsung. Ter acesso a históricos com facilidade pode criar mais desafios para a empresa.

Chrome lança recurso que promete ajudar o navegador a rodar mais rápido

O Google está lançando novos recursos de gerenciamento de memória no Chrome, com o objetivo de ajudar a controlar abas que consomem muitos recursos. As atualizações incluem novos “Alertas de Problemas de Desempenho” e alguns ajustes no modo já existente “Economia de Memória”, que tenta liberar os recursos de abas inativas em segundo plano.

Os novos alertas aparecem quando a ferramenta de Detecção de Desempenho identifica que uma de suas abas está usando mais recursos do que deveria. A notificação surge ao lado da miniatura do seu perfil na barra de ferramentas do Chrome, como um pequeno ícone que lembra um velocímetro. Ao clicar no ícone, uma lista das abas problemáticas será exibida, com a opção de “Descartar” ou “Corrigir agora”.

O verificador de desempenho do Chrome funcionando.

Além disso, o Google atualizou o “Economia de Memória”, um recurso introduzido no Chrome em 2022 que coloca em espera as abas que estão consumindo muitos recursos. Agora, ele oferece três modos: Padrão, Equilibrado e Avançado.

Segundo o Google, o modo Padrão interpreta as necessidades do sistema e gerencia as abas automaticamente; o modo Equilibrado opera com base nas necessidades do sistema e nos seus hábitos de navegação; e o modo Avançado desativa as abas mais rapidamente após você parar de usá-las.

Para acessar as novas configurações, você precisa clicar no menu de três pontos no canto superior direito do Chrome, ir em “Configurações” e clicar na aba “Desempenho” à esquerda. Você verá uma nova opção de “Alertas de Problemas de Desempenho” em Geral e as atualizações do “Economia de Memória” logo abaixo.

Presença da Polestar no mercado estadunidense é ameaçada pelo banimento de softwares chineses

Hoje, os veículos elétricos da Polestar ganharam acesso à rede de Superchargers da Tesla, o que significa que os motoristas da Polestar nos EUA agora têm acesso a mais 17.800 carregadores rápidos DC — desde que adquiram um adaptador NACS, que já pode ser solicitado em qualquer ponto de serviço Polestar local. No entanto, a Polestar enfrenta uma preocupação maior do que expandir suas opções de recarga. Se novas regras propostas para banir softwares e hardwares automotivos conectados de origem chinesa entrarem em vigor, elas, segundo a Polestar, efetivamente baniriam a montadora do mercado americano, incluindo os veículos elétricos fabricados na Carolina do Sul.

As regras propostas proibiriam o uso de softwares automotivos conectados de origem chinesa nos EUA a partir do ano-modelo 2027 (em meados de 2026) e de hardwares chineses a partir do ano-modelo 2030.

O banimento de tecnologia automotiva conectada chinesa é a mais recente de uma série de medidas protecionistas adotadas pelo governo federal e pelo Congresso dos EUA. O novo crédito fiscal para veículos limpos, por exemplo, não se aplica mais a veículos elétricos fabricados na China ou com componentes chineses em suas baterias, e o Departamento de Comércio dos EUA tem pressionado o México a não oferecer incentivos generosos para montadoras chinesas que desejam se estabelecer na região. Desde maio, veículos elétricos feitos na China estão sujeitos a uma tarifa de 100%.

O mercado interno de automóveis da China está estagnado há alguns meses, e o governo chinês há anos subsidia fortemente as exportações da sua indústria automotiva como forma de enfraquecer a concorrência estrangeira em áreas como a tecnologia verde. Veículos elétricos chineses de baixo custo já começaram a ganhar espaço na Europa, e a União Europeia está prestes a impor tarifas de 35,5% sobre os EVs fabricados na China, apesar da oposição de várias montadoras europeias, que temem represálias.

A Polestar manifestou várias preocupações em relação à proposta de banimento. Primeiro, ela argumenta que a definição dos termos é ampla demais e “cria uma incerteza paralisante para as empresas.” A empresa sugere que uma lista mais bem definida de restrições seria útil.

Além disso, a Polestar defende que, “se uma grande parte da fabricação ou do desenvolvimento de software ocorre fora do país de um adversário estrangeiro, a mera posse acionária não deve ser o fator determinante para aplicar as proibições estabelecidas na proposta de regra.” A Polestar é organizada nos EUA e é uma subsidiária de uma companhia pública do Reino Unido, listada na bolsa NASDAQ em Nova York. A sede da empresa fica na Suécia, e sete dos dez membros do conselho são da Europa ou dos EUA. Ela fabrica o SUV Polestar 3 na Carolina do Sul e, a partir do próximo ano, o Polestar 4 será produzido na Coreia do Sul. Dos 2.800 funcionários da Polestar, apenas 280 estão baseados na China.

Com a maioria dos “principais tomadores de decisão” estando na Suécia, a empresa acredita que as preocupações de segurança nacional não se aplicam ao seu caso, sugerindo que o Departamento de Comércio dos EUA deve considerar se foi longe demais na proposta.

Embora a Polestar possa ser a montadora mais afetada pela nova regra, não é a única. No mês passado, o Departamento de Comércio informou à Ford e à General Motors que as importações do Lincoln Nautilus e do Buick Envision — ambos fabricados na China — também teriam que ser interrompidas sob a nova regra.

47% dos conteúdos postados no Medium são escritos por IAs, diz IA Pangram Labs

A avalanche de conteúdo gerado por IA está tomando conta de todas as grandes plataformas onde as pessoas postam online — e o Medium não é exceção.

Com 12 anos de existência, a plataforma de publicação já passou por diversas mudanças ao longo dos anos. Agora, finalmente alcançou uma recuperação financeira, registrando lucro mensal pela primeira vez neste verão. Tony Stubblebine, CEO do Medium, e outros executivos da empresa descrevem a plataforma como “um lar para a escrita humana”. No entanto, há evidências de que blogueiros robôs estão cada vez mais presentes no Medium.

No início deste ano, a WIRED pediu à startup de detecção de IA Pangram Labs para analisar o Medium. A empresa examinou uma amostra de 274.466 postagens recentes ao longo de seis semanas e estimou que mais de 47% delas eram provavelmente geradas por IA. “Isso é um ou dois níveis acima do que vejo no restante da internet”, disse o CEO da Pangram, Max Spero. (A análise da empresa em um dia de sites de notícias globais neste verão encontrou uma média de 7% de conteúdo gerado por IA.)

A presença de conteúdo de IA no Medium tende a ser banal, especialmente se comparada ao conteúdo caótico que inunda plataformas como o Facebook. Em vez de “Shrimp Jesus”, é mais provável que se vejam textos vazios sobre criptomoedas. As tags com maior probabilidade de conter conteúdo gerado por IA incluíam “NFT”—de 5.712 artigos marcados com essa palavra nos últimos meses, a Pangram encontrou 4.492 (cerca de 78%) como provavelmente gerados por IA, além de “web3”, “ethereum”, “IA” e, curiosamente, “pets”.

A WIRED também pediu a uma segunda startup de detecção de IA, a Originality AI, para realizar uma análise própria. Comparando amostras de postagens de 2018 e 2024, a Originality descobriu que, em 2018, apenas 3,4% das postagens eram possivelmente geradas por IA (um número que corresponde à taxa de falso positivo da empresa, já que o uso de IA ainda era raro). Em 2024, de uma amostra de 473 artigos publicados este ano, mais de 40% foram considerados como provavelmente gerados por IA. Ambas as empresas chegaram a conclusões semelhantes sobre o aumento de conteúdo de IA no Medium.

Ao ser contatado pela WIRED sobre essa análise, Stubblebine rejeitou a ideia de que o Medium enfrenta um problema com IA. “Estou questionando a importância dos resultados e também a ideia de que essas empresas descobriram algo relevante”, afirma. Ele não nega o aumento no volume de artigos gerados por IA na plataforma, dizendo que provavelmente o conteúdo desse tipo cresceu dez vezes desde o início do ano. O Medium, segundo ele, é “fortemente contra o conteúdo de IA”. No entanto, ele questiona a eficácia dos detectores de IA, pois acredita que eles não conseguem diferenciar entre conteúdo totalmente gerado por IA e conteúdo onde a IA é usada apenas para esboçar ideias.

A plataforma Medium testou vários detectores de IA e decidiu que não eram eficazes, de acordo com Stubblebine. Além disso, ele acusou a Pangram Labs de tentar “extorquir” a empresa pela imprensa, já que Spero, CEO da Pangram, enviou um e-mail com os resultados da análise solicitada pela WIRED e ofereceu seus serviços ao Medium.

Embora as ferramentas de detecção de IA não sejam perfeitas, elas ainda são úteis para avaliar o aumento de conteúdo gerado por IA em determinadas plataformas e identificar padrões. Segundo Jonathan Bailey, consultor de plágio, “o Medium está no mesmo ponto que o restante da internet. Como o conteúdo de IA é gerado rapidamente, ele está em toda parte.”

Stubblebine acredita que o volume de conteúdo gerado por IA no feed bruto da plataforma não representa o que os leitores do Medium realmente experimentam. A maioria das histórias geradas por IA identificáveis nos feeds brutos para esses tópicos “não tem visualizações”, diz ele. Esse é o objetivo do Medium, que emprega uma combinação de filtros anti-spam e moderação humana para conter o conteúdo de IA. Ele afirma que “o Medium basicamente funciona agora com curadoria humana” e cita os 9.000 editores de publicações no Medium, além da avaliação adicional para as histórias que podem ser “impulsionadas” ou amplamente distribuídas.

Nos últimos meses, o Medium atualizou sua política de IA, adotando uma postura que contrasta com plataformas como LinkedIn e Facebook, que incentivam o uso de IA. No Medium, textos gerados por IA não podem ser colocados atrás do paywall em seu programa Partner, nem receber distribuição mais ampla de curadores humanos em seu programa Boost ou promover links de afiliados. Conteúdos com IA revelada recebem distribuição geral, mas aqueles sem essa revelação são distribuídos apenas para as redes de seguidores do autor.

Alguns escritores e editores no Medium elogiam essa postura. Eric Pierce, fundador da maior publicação de cultura pop no Medium, Fanfare, diz que não vê muitos envios gerados por IA e que a curadoria humana do programa Boost ajuda a destacar o melhor da escrita humana na plataforma. No entanto, outros, como Marcus Musick, editor de várias publicações, sentem que ainda há um número significativo de artigos gerados por IA. Musick relata que rejeita cerca de 80% dos colaboradores potenciais por suspeitar que estejam usando IA.

A moderação de conteúdo e a luta para elevar a qualidade da produção no Medium refletem desafios que a internet como um todo enfrenta. A explosão do uso de IA agravou esses problemas. Enquanto fazendas de cliques e SEO agressivo sempre foram um problema, a IA agora fornece uma maneira rápida para empreendedores obcecados por SEO ressuscitarem sites e plataformas com conteúdo superficial. A teoria do “Internet Morto”, que afirma que grande parte da internet está repleta de bots e conteúdo gerado por IA, pode estar mais próxima de se concretizar, à medida que a IA generativa se torna onipresente e o conteúdo humano autêntico fica cada vez mais difícil de encontrar.

Google pode lançar ‘Jarvis’ em Dezembro: novo assistente com IA automatiza tarefas do dia a dia

O Google pode apresentar sua própria versão do conceito de modelo de ação ampla, inspirado no “Rabbit”, já em dezembro, de acordo com o site The Information. O projeto, supostamente codinome “Project Jarvis”, teria a capacidade de executar tarefas para os usuários, como “fazer pesquisas, comprar produtos ou reservar voos”, conforme relatos de três pessoas com conhecimento direto do projeto.

O Jarvis será alimentado por uma versão futura do Gemini, o sistema de IA do Google, e funcionará apenas em navegadores web (especificamente ajustado para o Chrome). O objetivo é ajudar as pessoas a “automatizar tarefas cotidianas baseadas na web”, capturando e interpretando capturas de tela e clicando em botões ou inserindo texto, conforme descreve o The Information. Na versão atual, o Jarvis leva “alguns segundos” entre uma ação e outra.

As grandes empresas de IA estão investindo em modelos que realizam tarefas semelhantes às descritas pelo The Information. O “Copilot Vision” da Microsoft permitirá que os usuários interajam com ele sobre as páginas da web que estão visualizando. A “Apple Intelligence” deverá ser capaz de entender o que está na tela e executar tarefas em vários aplicativos no próximo ano. Já a Anthropic lançou uma atualização beta do “Claude”, que ainda apresenta dificuldades e erros, mas pode usar o computador em nome do usuário. A OpenAI também está desenvolvendo uma versão com funcionalidades semelhantes.

O The Information alerta que o plano do Google de revelar o Jarvis em dezembro ainda pode mudar. A empresa está considerando liberar o projeto para um pequeno grupo de testadores a fim de encontrar e corrigir possíveis bugs antes de um lançamento mais amplo.

Novo Mac Mini M4: Apple planeja uma revolução com tamanho reduzido e maior potência

Quando o Mac Mini foi apresentado no início de 2005, ele foi divulgado como um desktop compacto e “essencial” — o Mac mais acessível da linha da Apple. Steve Jobs o descreveu como um sistema “BYODKM” (Bring Your Own Display, Keyboard, and Mouse), ou seja, você traz seu próprio monitor, teclado e mouse, e o Mini fornece uma experiência de computação confiável com todos os benefícios do macOS.

Desde então, o Mac Mini permaneceu na linha de produtos da Apple, mesmo passando por períodos em que foi deixado de lado e esquecido por longos períodos. Porém, o lançamento dos chips Apple Silicon deu uma nova vida ao Mini. Mesmo que o design geral não tenha mudado muito na transição dos processadores Intel para os chips desenvolvidos pela própria Apple, o potencial do Mini aumentou significativamente.

Agora, esse design está prestes a mudar. E se os rumores se confirmarem, a mudança será radical. Mark Gurman, da Bloomberg, informou que o Mac Mini com chip M4 será reduzido de tal forma que seu tamanho será comparável ao de uma Apple TV. O novo Mac Mini estará longe de ser apenas um “Mac básico”.

Em vez disso, provavelmente será o exemplo visual mais impressionante do que a Apple é capaz de fazer nesta nova era, onde a eficiência incrível de seus chips possibilita designs de hardware que seriam tecnicamente inviáveis há poucos anos. Não fico tão animado com um novo Mac desde o lançamento dos MacBook Pros com M1 Pro e M1 Max em 2021.

De acordo com Gurman, o Mac Mini de 2024 — pelo menos na versão com M4 Pro — incluirá um total de cinco portas USB-C, sendo duas na parte frontal. Essa conectividade na frente é uma grande vantagem após anos tendo que virar o Mini para conectar algo ou simplesmente tentar adivinhar onde encaixar os cabos. Ele ainda contará com uma porta HDMI, útil para quem usa o Mac Mini em sistemas de home theater. As portas USB-A, por outro lado, devem ser removidas, o que já era esperado.

Dentro da linha Mac, o Mini ainda ocupa uma posição importante. O iMac é o destaque visual; o MacBook Pro oferece grande potência em mobilidade; e o Mac Pro e o Mac Studio são voltados para profissionais e criativos. Mas o Mini continua sendo o “superdotado” discreto da linha, com um preço atraente para quem quer um Mac que “simplesmente funciona”.

Independentemente do tamanho, a característica “BYODKM” do Mini continua sendo uma de suas maiores vantagens. A Apple pode não ter planos de lançar um iMac de 27 polegadas, mas estamos prestes a ter um desktop incrivelmente compacto que pode ser combinado com qualquer monitor. E as expectativas para o software também são promissoras: o novo Mini chegará logo após o lançamento do macOS Sequoia, que trouxe recursos úteis, como espelhamento do iPhone e organização de janelas (finalmente) por meio de mosaicos.

Para mim, será necessário um grande obstáculo inesperado para não encomendar o Mac Mini M4 imediatamente como meu novo computador doméstico. Se tenho uma preocupação, é que a Apple possa limitar artificialmente o Mini para não ofuscar o Mac Studio. Mas não acredito que isso aconteça de forma exagerada. Atualmente, o Studio ainda é superior em desempenho de CPU e GPU, além de oferecer outros benefícios, como um slot para cartão SD e uma conexão Ethernet mais rápida. Espero que essas vantagens continuem quando o modelo com M4 for lançado.

A linha de Macs da Apple nunca esteve em um caminho tão promissor. Para quem acompanha os produtos da empresa há décadas, isso pode parecer difícil de acreditar — mesmo agora, na era do Apple Silicon. Já passamos por períodos difíceis. Mas, com um novo Mac Mini que combina o visual de uma caixa de streaming com a potência de um mini PC, a Apple parece pronta para mais um grande sucesso com a série M e para acrescentar mais um troféu à sua coleção.

Riscos e Preocupações com Chatbots de IA: como a nova tecnologia está Impactando a saúde mental dos adolescentes

Para os pais que ainda estão se atualizando sobre inteligência artificial generativa, o surgimento dos chatbots companheiros pode ainda ser um mistério.

Em linhas gerais, a tecnologia pode parecer relativamente inofensiva, em comparação com outras ameaças que os adolescentes podem encontrar online, como sextorsão financeira.

Usando plataformas baseadas em IA como Character.AI, Replika, Kindroid e Nomi, os adolescentes criam parceiros de conversa realistas com traços e características únicas ou interagem com companheiros criados por outros usuários. Alguns são até baseados em personagens populares de televisão e cinema, mas ainda assim criam um vínculo intenso e individual com seus criadores.

Os adolescentes utilizam esses chatbots para uma variedade de fins, incluindo interpretar papéis, explorar interesses acadêmicos e criativos e ter trocas românticas ou sexualmente explícitas.

No entanto, os companheiros de IA são projetados para ser cativantes, e é aí que os problemas muitas vezes começam, diz Robbie Torney, gerente de programas da Common Sense Media.

A organização sem fins lucrativos lançou recentemente diretrizes para ajudar os pais a entender como os companheiros de IA funcionam, juntamente com sinais de alerta que indicam que a tecnologia pode ser perigosa para seus filhos.

Torney disse que, embora os pais tenham muitas conversas prioritárias para tratar com seus adolescentes, eles devem considerar falar sobre os companheiros de IA como uma questão “bastante urgente”.

Por que os pais devem se preocupar com os companheiros de IA

Adolescentes particularmente em risco de isolamento podem ser atraídos para um relacionamento com um chatbot de IA que, em última instância, prejudica sua saúde mental e bem-estar – com consequências devastadoras.

É o que Megan Garcia argumenta que aconteceu com seu filho, Sewell Setzer III, em um processo judicial que ela apresentou recentemente contra a Character.AI.

Dentro de um ano de começar a se relacionar com companheiros do Character.AI modelados em personagens de Game of Thrones, incluindo Daenerys Targaryen (“Dany”), a vida de Setzer mudou radicalmente, de acordo com o processo.

Ele se tornou dependente de “Dany”, passando muito tempo conversando com ela todos os dias. Suas interações eram amigáveis e altamente sexuais. O processo de Garcia descreve o relacionamento que Setzer tinha com os companheiros como “abuso sexual”.

Em ocasiões em que Setzer perdeu acesso à plataforma, ele se tornava desanimado. Com o tempo, o jovem atleta de 14 anos se afastou da escola e dos esportes, sofreu privação de sono e foi diagnosticado com distúrbios de humor. Ele morreu por suicídio em fevereiro de 2024.

O processo de Garcia busca responsabilizar a Character.AI pela morte de Setzer, especificamente porque o produto foi projetado para “manipular Sewell – e milhões de outros jovens – para confundir realidade e ficção”, entre outros defeitos perigosos.

Jerry Ruoti, chefe de confiança e segurança da Character.AI, disse ao New York Times em um comunicado: “Queremos reconhecer que esta é uma situação trágica, e nossos corações estão com a família. Levamos a segurança de nossos usuários muito a sério e estamos constantemente buscando maneiras de evoluir nossa plataforma.”

Dado o risco de vida que o uso de companheiros de IA pode representar para alguns adolescentes, as diretrizes da Common Sense Media incluem proibir o acesso para crianças menores de 13 anos, impor limites rigorosos de tempo para adolescentes, evitar o uso em espaços isolados, como o quarto, e estabelecer um acordo com seus filhos para que procurem ajuda para problemas sérios de saúde mental.

Torney afirma que os pais de adolescentes interessados em um companheiro de IA devem ajudar a entender a diferença entre conversar com um chatbot e com uma pessoa real, identificar sinais de que desenvolveram um apego não saudável e elaborar um plano para lidar com essa situação.

Sinais de que um companheiro de IA não é seguro para seu adolescente

A Common Sense Media criou suas diretrizes com a contribuição e assistência de profissionais de saúde mental associados ao Laboratório Brainstorm de Inovação em Saúde Mental de Stanford.

Embora haja pouca pesquisa sobre como os companheiros de IA afetam a saúde mental dos adolescentes, as diretrizes se baseiam em evidências existentes sobre a dependência excessiva de tecnologia.

“Um princípio a ser seguido é que os companheiros de IA não devem substituir conexões humanas reais e significativas na vida de ninguém, e – se isso estiver acontecendo – é vital que os pais percebam e intervenham rapidamente”, disse o Dr. Declan Grabb, primeiro bolsista de IA do Laboratório Brainstorm de Inovação em Saúde Mental de Stanford, ao Mashable em um e-mail.

Os pais devem ser especialmente cautelosos se seus adolescentes apresentarem depressão, ansiedade, desafios sociais ou isolamento. Outros fatores de risco incluem passar por grandes mudanças na vida e ser do sexo masculino, pois os meninos são mais propensos a desenvolver uso problemático da tecnologia.

Sinais de que um adolescente formou um relacionamento não saudável com um companheiro de IA incluem afastamento de atividades e amizades típicas, piora no desempenho escolar, preferir o chatbot à companhia presencial, desenvolver sentimentos românticos por ele e falar exclusivamente com ele sobre os problemas que está enfrentando.

Alguns pais podem notar maior isolamento e outros sinais de piora na saúde mental, mas não perceber que seus filhos têm um companheiro de IA. De fato, uma pesquisa recente da Common Sense Media descobriu que muitos adolescentes já usaram pelo menos uma ferramenta de IA generativa sem que os pais soubessem.

“Há um risco grande o suficiente para que, se você estiver preocupado com algo, converse com seu filho sobre isso.”
– Robbie Torney, Common Sense Media

Mesmo que os pais não suspeitem que seus adolescentes estejam conversando com um chatbot de IA, eles devem considerar falar sobre o assunto. Torney recomenda abordar o adolescente com curiosidade e abertura para aprender mais sobre o companheiro de IA, caso ele tenha um. Isso pode incluir observar o adolescente interagir com o companheiro e fazer perguntas sobre o que ele gosta na atividade.

Torney incentiva os pais que notarem qualquer sinal de uso não saudável a agir imediatamente, discutindo a situação com o adolescente e buscando ajuda profissional, conforme necessário.

“Há um risco grande o suficiente para que, se você estiver preocupado com algo, converse com seu filho sobre isso”, diz Torney.

Se você está se sentindo suicida ou passando por uma crise de saúde mental, fale com alguém. Você pode entrar em contato com o CVV pelo telefone 188, disponível 24 horas. Caso prefira o chat, visite www.cvv.org.br/chat/. Para serviços internacionais, consulte uma lista de recursos.

A Transição controversa da OpenAI: de organização sem fins lucrativos a megacorporação

Quando foi fundada em 2015, o laboratório de pesquisa em inteligência artificial OpenAI era uma organização sem fins lucrativos. A missão idealista: garantir que o trabalho de alto risco em inteligência artificial servisse a todo o mundo. Isso era necessário porque, segundo a crença fervorosa dos fundadores, a IA iria transformar o mundo inteiro.

Desde então, a OpenAI alcançou muito mais do que se imaginava. “Inteligência artificial geral” parecia um sonho distante em 2015, mas hoje temos IA interativa, criativa e capaz de passar na maioria dos testes de competência humana. Muitos especialistas acreditam que a inteligência geral está virando uma esquina. A OpenAI, que ao longo dos anos se transformou de um laboratório sem fins lucrativos para uma das startups mais valorizadas da história, esteve no centro dessa transformação.

No entanto, essa jornada não foi isenta de problemas. Embora tenha basicamente se tornado uma empresa, a OpenAI usava uma governança sem fins lucrativos para manter o foco em sua missão. O CEO Sam Altman tranquilizou o Congresso, afirmando que não tinha participação acionária na empresa, e o conselho sem fins lucrativos ainda mantinha autoridade para mudar o rumo, caso considerasse que a empresa havia se desviado de sua missão.

Isso acabou colocando o conselho em conflito com Altman em novembro passado, em um embate complicado que o CEO venceu. Quase toda a equipe de liderança original deixou a empresa. Desde então, o conselho foi amplamente substituído e funcionários de destaque saíram em ondas, alguns alertando que já não acreditam que a OpenAI construirá uma superinteligência de forma responsável. A Microsoft, maior investidor da OpenAI, parece cada vez mais ansiosa para que a empresa abandone a construção de superinteligência e se concentre em criar um produto lucrativo.

Agora, a OpenAI está tentando fazer a transição para uma estrutura corporativa mais convencional, possivelmente tornando-se uma empresa com fins lucrativos de benefício público, como a concorrente Anthropic. Contudo, conversões de sem fins lucrativos para com fins lucrativos são raras, e há muita desinformação sobre o que, exatamente, “a OpenAI se tornar uma empresa com fins lucrativos” significa.

Elon Musk, que cofundou a OpenAI, mas saiu após uma disputa de liderança, descreve a transição como uma tomada de poder, argumentando em um processo judicial recente que Altman e seus associados “esvaziaram sistematicamente a organização sem fins lucrativos de sua tecnologia valiosa e pessoal” em um esquema para enriquecer. A OpenAI refutou as alegações, classificando o processo como uma “campanha de assédio” por parte de Musk.

Embora Musk tenha suas próprias razões para ser competitivo com a OpenAI, muitas pessoas parecem acreditar que a empresa poderia simplesmente adotar um rótulo de “com fins lucrativos” e continuar com as operações. Isso, entretanto, não é possível. O que realmente está acontecendo é uma negociação complexa e delicada: a venda de todos os ativos valiosos da organização sem fins lucrativos para a nova entidade com fins lucrativos, em troca de a entidade sem fins lucrativos continuar existindo e se tornando um grande investidor na nova empresa.

A questão principal é: quanto valem esses ativos, e o conselho da organização sem fins lucrativos conseguirá um acordo justo com a OpenAI (e a Microsoft)? Até agora, essas negociações de alto risco ocorreram quase inteiramente nos bastidores, e muitas questões cruciais têm recebido pouca cobertura pública.

Em 2019, o modelo sem fins lucrativos começou a enfrentar dificuldades. A OpenAI atraiu uma equipe incrível e publicou pesquisas impressionantes, mas estava claro que o ambicioso objetivo de construir uma inteligência artificial geral seria muito caro. Para financiar essa missão, a empresa adotou uma estrutura híbrida: um conselho sem fins lucrativos controlando uma empresa com fins lucrativos, com os retornos dos investidores limitados a 100 vezes o investimento original.

Esse modelo, no entanto, mostrou-se problemático, especialmente em 2023, quando o conselho demitiu Sam Altman. A demissão, que ocorreu em um momento delicado, gerou revolta entre os funcionários e uma reviravolta nos bastidores. Altman acabou sendo reintegrado como CEO, e alguns membros do conselho que apoiaram sua demissão renunciaram.

Rumores de que a OpenAI estava se preparando para se tornar uma entidade totalmente com fins lucrativos começaram a circular desde o incidente. Nas últimas semanas, esses rumores se tornaram mais concretos, com o último financiamento incluindo compromissos para a transição ocorrer nos próximos dois anos, sob pena de reembolso aos investidores.

A OpenAI está entrando em uma nova era, e resta saber o que isso significará para a entidade sem fins lucrativos, que possui ativos avaliados em dezenas de bilhões de dólares.

Instagram exibe os vídeos mais populares com melhor qualidade, diz head do aplicativo

Já reparou que alguns dos seus vídeos no Instagram têm uma qualidade menor do que outros? Recentemente, Adam Mosseri, chefe do Instagram, explicou em uma sessão de perguntas e respostas por que isso acontece. A qualidade dos vídeos no Instagram é parcialmente determinada pela quantidade de visualizações.

Mosseri revelou que, se um vídeo não recebe muitas visualizações logo após a postagem, o Instagram pode reduzir a qualidade para economizar recursos. No entanto, se esse vídeo voltar a receber muitas visualizações, a plataforma poderá renderizá-lo em alta qualidade novamente. Ele também explicou que, para usuários com conexão de internet mais lenta, o vídeo é automaticamente transmitido em qualidade inferior, visando manter uma experiência fluida para todos.

Além disso, Mosseri explicou que o Instagram ajusta a qualidade de vídeos com base no desempenho geral e não no comportamento de um único usuário. Criadores que têm vídeos com maior engajamento tendem a ter conteúdos armazenados com qualidade superior, devido ao uso de codificação mais complexa e armazenamento mais caro, em um processo de “escala móvel”, e não de uma regra fixa.

Essa política tem como objetivo exibir o conteúdo da mais alta qualidade possível, dentro das limitações da plataforma e da demanda de visualizações, proporcionando uma experiência otimizada tanto para os criadores quanto para os espectadores.

Sair da versão mobile