Claude, Perplexity e ChatGPT: movimentos da semana mostram expansão de apps para Mac no mundo da IA

A última semana trouxe novidades importantes para os usuários de IA em Macs. A Anthropic lançou um aplicativo desktop para o chatbot Claude, e a Perplexity introduziu um app nativo para seu serviço de busca por IA. Além disso, a OpenAI atualizou seu app do ChatGPT para Mac, agora com suporte ao recurso de voz avançada.

Assim como o app do ChatGPT, lançado há algumas semanas, o novo app da Perplexity inclui um atalho de teclado para inserir consultas de qualquer lugar na área de trabalho. Esse app permite que os usuários façam perguntas adicionais e mantenham uma conversa baseada nos resultados obtidos. O download e o uso do app são gratuitos, mas a Perplexity oferece assinaturas para usuários mais intensivos.

Embora o foco em busca da Perplexity a tenha mantido separada da concorrência direta com o ChatGPT da OpenAI, essa distinção diminuiu com o lançamento do SearchGPT, uma variante voltada para buscas. No entanto, o SearchGPT ainda não está disponível no app desktop da OpenAI.

O app Claude da Anthropic é um concorrente mais direto do ChatGPT, com funcionalidades semelhantes, mas com vantagens específicas, como suporte em desenvolvimento de software. O aplicativo também é gratuito para download e está em versão beta, mas, assim como os concorrentes, a Anthropic cobra por uso mais avançado.

Diferente do lançamento do app do ChatGPT, que inicialmente não incluiu uma versão para Windows, a Anthropic adotou uma abordagem simultânea ao lançar seus apps para Mac e Windows ao mesmo tempo.

Anteriormente, todos esses serviços ofereciam apps para dispositivos móveis e versões web, mas os aplicativos nativos para desktop eram raros.

Apple lança Apple Intelligence em meio a crescentes preocupações com o consumo energético da IA

A Apple trouxe a tecnologia de IA diretamente para milhões de usuários com o lançamento do Apple Intelligence, que oferece recursos básicos de geração de texto e edição de imagens para dispositivos iPhone, iPad e Mac. Essa introdução ocorre em um momento em que grandes empresas de tecnologia, como Google e Microsoft, também estão integrando IA em seus produtos, mas enfrentam críticas por seu consumo de energia e impacto ambiental.

A Corrida da IA e Suas Consequências Energéticas

Desde o lançamento do ChatGPT em 2022 pela OpenAI, que impulsionou o interesse e os investimentos em IA, o consumo de energia dos centros de dados disparou. Estudos estimam que o uso de eletricidade por data centers pode aumentar 160% até o fim da década, impactando as emissões de CO2 e a demanda por água. Por exemplo, uma pesquisa indicou que gerar dois e-mails de 200 palavras com o ChatGPT consome a mesma energia que um carro Tesla Model 3 para percorrer uma milha, além de necessitar de resfriamento intensivo.

O Caso da Apple

Diferente de outras empresas, a Apple afirma que processa algumas funcionalidades do Apple Intelligence diretamente nos dispositivos dos usuários, reduzindo a dependência de centros de dados e, potencialmente, o impacto ambiental. Contudo, faltam detalhes sobre quais operações são realizadas no dispositivo e quais são enviadas para servidores da Apple, o que levanta preocupações sobre a transparência.

A Necessidade de Transparência

Pesquisadores, como Sasha Luccioni, destacam a importância de exigir mais informações e responsabilidade das empresas de tecnologia sobre os impactos ambientais de suas soluções de IA. Enquanto a Apple e outras gigantes da tecnologia continuam a integrar IA em seus produtos, muitos usuários enfrentam um dilema: utilizar a tecnologia sem saber seu real impacto ou tentar evitá-la em um mundo onde a IA está cada vez mais onipresente.

Luccioni conclui: “Não acho que devemos nos sentir culpados, mas sim pedir mais informações e responsabilidade por parte das empresas.”

Microsoft Impressiona com lucros e crescimento em meio a investimentos pesados em IAs

A Microsoft divulgou resultados trimestrais que surpreenderam os investidores e demonstraram a resiliência da empresa, mesmo com altos gastos em inteligência artificial. Durante o trimestre de julho a setembro, a empresa investiu $20 bilhões em despesas de capital, quase o dobro do gasto no mesmo período do ano anterior.

Apesar das preocupações de alguns investidores com os gastos agressivos em IA, enquanto outros os apoiavam, a Microsoft conseguiu satisfazer ambos os grupos. As vendas totais subiram 16% em relação ao ano anterior, atingindo $65,6 bilhões. O lucro também aumentou em 11%, destacando o sucesso da empresa no curto prazo, mesmo com os investimentos de longo prazo em IA.

O principal motor desse crescimento foi a Azure e os serviços em nuvem, que tiveram um aumento de 33% na receita, com 12% desse crescimento atribuído a produtos e serviços relacionados à IA.

No setor de jogos, a Microsoft desafiou a percepção de que o hardware é essencial, com um aumento de 61% na receita de conteúdos e serviços do Xbox, apesar da queda de 29% nas vendas de hardware. A empresa tem se afastado da estratégia tradicional de manter software e serviços exclusivos para seu próprio hardware, lançando jogos como Sea of Thieves também para o concorrente PlayStation 5 da Sony. Esta abordagem inovadora se destaca em um mercado onde o PlayStation continua líder em vendas e base instalada.

No entanto, é importante notar que o salto de 61% na receita de conteúdos e serviços não se deve apenas ao crescimento do serviço de assinatura Game Pass. A Microsoft atribuiu 53 pontos percentuais desse aumento à recente aquisição da Activision, concluída por $69 bilhões.

ChatGPT agora facilita encontrar informações importantes de conversas antigas

Publicado na plataforma X (anteriormente Twitter) na terça-feira, a OpenAI anunciou uma nova ferramenta no ChatGPT que facilitará a busca pelo histórico de conversas. Ao abrir o ChatGPT no navegador, você verá um ícone de lupa no canto superior esquerdo, permitindo pesquisar palavras-chave e frases em suas conversas passadas.

https://twitter.com/OpenAI/status/1851340618108481596

Para usuários do plano Plus e Team, a novidade estará disponível antes. Usuários Enterprise e Edu terão acesso em uma semana, e os usuários do plano gratuito começarão a receber o recurso ao longo do próximo mês.

Ao perguntar para o próprio ChatGPT sobre a nova ferramenta, ele explicou que a funcionalidade foi “desenvolvida para economizar tempo e organizar informações”. Segundo o ChatGPT, a ferramenta permite localizar rapidamente informações de conversas passadas, facilitando a retomada de respostas úteis ou a continuação de discussões anteriores.

Além disso, a AI detalha que a pesquisa de histórico pode ser usada para acompanhar projetos em andamento, estudar e fazer “brainstorming”.

Essa atualização surge após críticas ao ChatGPT sobre o armazenamento de dados de conversas. Em maio, a Mashable relatou que o ChatGPT salvava o histórico de chats dos usuários, mesmo que estes tivessem optado por não compartilhar seus dados para treinar o modelo. Quando questionado sobre o novo recurso de busca no histórico, o ChatGPT afirmou que “somente você (o usuário) tem acesso ao seu histórico de conversas” e que a OpenAI não usa essas conversas para treinamento sem o consentimento explícito do usuário.

Além disso, é possível desativar o histórico de chats nas configurações. Quando desativado, as conversas não serão salvas nem pesquisáveis.

Curiosamente, algumas polêmicas envolvendo o ChatGPT incluem compartilhamento de desinformação em debates eleitorais, possíveis preconceitos contra candidatos com deficiência e exposição de segredos industriais de empresas como a Samsung. Ter acesso a históricos com facilidade pode criar mais desafios para a empresa.

47% dos conteúdos postados no Medium são escritos por IAs, diz IA Pangram Labs

A avalanche de conteúdo gerado por IA está tomando conta de todas as grandes plataformas onde as pessoas postam online — e o Medium não é exceção.

Com 12 anos de existência, a plataforma de publicação já passou por diversas mudanças ao longo dos anos. Agora, finalmente alcançou uma recuperação financeira, registrando lucro mensal pela primeira vez neste verão. Tony Stubblebine, CEO do Medium, e outros executivos da empresa descrevem a plataforma como “um lar para a escrita humana”. No entanto, há evidências de que blogueiros robôs estão cada vez mais presentes no Medium.

No início deste ano, a WIRED pediu à startup de detecção de IA Pangram Labs para analisar o Medium. A empresa examinou uma amostra de 274.466 postagens recentes ao longo de seis semanas e estimou que mais de 47% delas eram provavelmente geradas por IA. “Isso é um ou dois níveis acima do que vejo no restante da internet”, disse o CEO da Pangram, Max Spero. (A análise da empresa em um dia de sites de notícias globais neste verão encontrou uma média de 7% de conteúdo gerado por IA.)

A presença de conteúdo de IA no Medium tende a ser banal, especialmente se comparada ao conteúdo caótico que inunda plataformas como o Facebook. Em vez de “Shrimp Jesus”, é mais provável que se vejam textos vazios sobre criptomoedas. As tags com maior probabilidade de conter conteúdo gerado por IA incluíam “NFT”—de 5.712 artigos marcados com essa palavra nos últimos meses, a Pangram encontrou 4.492 (cerca de 78%) como provavelmente gerados por IA, além de “web3”, “ethereum”, “IA” e, curiosamente, “pets”.

A WIRED também pediu a uma segunda startup de detecção de IA, a Originality AI, para realizar uma análise própria. Comparando amostras de postagens de 2018 e 2024, a Originality descobriu que, em 2018, apenas 3,4% das postagens eram possivelmente geradas por IA (um número que corresponde à taxa de falso positivo da empresa, já que o uso de IA ainda era raro). Em 2024, de uma amostra de 473 artigos publicados este ano, mais de 40% foram considerados como provavelmente gerados por IA. Ambas as empresas chegaram a conclusões semelhantes sobre o aumento de conteúdo de IA no Medium.

Ao ser contatado pela WIRED sobre essa análise, Stubblebine rejeitou a ideia de que o Medium enfrenta um problema com IA. “Estou questionando a importância dos resultados e também a ideia de que essas empresas descobriram algo relevante”, afirma. Ele não nega o aumento no volume de artigos gerados por IA na plataforma, dizendo que provavelmente o conteúdo desse tipo cresceu dez vezes desde o início do ano. O Medium, segundo ele, é “fortemente contra o conteúdo de IA”. No entanto, ele questiona a eficácia dos detectores de IA, pois acredita que eles não conseguem diferenciar entre conteúdo totalmente gerado por IA e conteúdo onde a IA é usada apenas para esboçar ideias.

A plataforma Medium testou vários detectores de IA e decidiu que não eram eficazes, de acordo com Stubblebine. Além disso, ele acusou a Pangram Labs de tentar “extorquir” a empresa pela imprensa, já que Spero, CEO da Pangram, enviou um e-mail com os resultados da análise solicitada pela WIRED e ofereceu seus serviços ao Medium.

Embora as ferramentas de detecção de IA não sejam perfeitas, elas ainda são úteis para avaliar o aumento de conteúdo gerado por IA em determinadas plataformas e identificar padrões. Segundo Jonathan Bailey, consultor de plágio, “o Medium está no mesmo ponto que o restante da internet. Como o conteúdo de IA é gerado rapidamente, ele está em toda parte.”

Stubblebine acredita que o volume de conteúdo gerado por IA no feed bruto da plataforma não representa o que os leitores do Medium realmente experimentam. A maioria das histórias geradas por IA identificáveis nos feeds brutos para esses tópicos “não tem visualizações”, diz ele. Esse é o objetivo do Medium, que emprega uma combinação de filtros anti-spam e moderação humana para conter o conteúdo de IA. Ele afirma que “o Medium basicamente funciona agora com curadoria humana” e cita os 9.000 editores de publicações no Medium, além da avaliação adicional para as histórias que podem ser “impulsionadas” ou amplamente distribuídas.

Nos últimos meses, o Medium atualizou sua política de IA, adotando uma postura que contrasta com plataformas como LinkedIn e Facebook, que incentivam o uso de IA. No Medium, textos gerados por IA não podem ser colocados atrás do paywall em seu programa Partner, nem receber distribuição mais ampla de curadores humanos em seu programa Boost ou promover links de afiliados. Conteúdos com IA revelada recebem distribuição geral, mas aqueles sem essa revelação são distribuídos apenas para as redes de seguidores do autor.

Alguns escritores e editores no Medium elogiam essa postura. Eric Pierce, fundador da maior publicação de cultura pop no Medium, Fanfare, diz que não vê muitos envios gerados por IA e que a curadoria humana do programa Boost ajuda a destacar o melhor da escrita humana na plataforma. No entanto, outros, como Marcus Musick, editor de várias publicações, sentem que ainda há um número significativo de artigos gerados por IA. Musick relata que rejeita cerca de 80% dos colaboradores potenciais por suspeitar que estejam usando IA.

A moderação de conteúdo e a luta para elevar a qualidade da produção no Medium refletem desafios que a internet como um todo enfrenta. A explosão do uso de IA agravou esses problemas. Enquanto fazendas de cliques e SEO agressivo sempre foram um problema, a IA agora fornece uma maneira rápida para empreendedores obcecados por SEO ressuscitarem sites e plataformas com conteúdo superficial. A teoria do “Internet Morto”, que afirma que grande parte da internet está repleta de bots e conteúdo gerado por IA, pode estar mais próxima de se concretizar, à medida que a IA generativa se torna onipresente e o conteúdo humano autêntico fica cada vez mais difícil de encontrar.

Google pode lançar ‘Jarvis’ em Dezembro: novo assistente com IA automatiza tarefas do dia a dia

O Google pode apresentar sua própria versão do conceito de modelo de ação ampla, inspirado no “Rabbit”, já em dezembro, de acordo com o site The Information. O projeto, supostamente codinome “Project Jarvis”, teria a capacidade de executar tarefas para os usuários, como “fazer pesquisas, comprar produtos ou reservar voos”, conforme relatos de três pessoas com conhecimento direto do projeto.

O Jarvis será alimentado por uma versão futura do Gemini, o sistema de IA do Google, e funcionará apenas em navegadores web (especificamente ajustado para o Chrome). O objetivo é ajudar as pessoas a “automatizar tarefas cotidianas baseadas na web”, capturando e interpretando capturas de tela e clicando em botões ou inserindo texto, conforme descreve o The Information. Na versão atual, o Jarvis leva “alguns segundos” entre uma ação e outra.

As grandes empresas de IA estão investindo em modelos que realizam tarefas semelhantes às descritas pelo The Information. O “Copilot Vision” da Microsoft permitirá que os usuários interajam com ele sobre as páginas da web que estão visualizando. A “Apple Intelligence” deverá ser capaz de entender o que está na tela e executar tarefas em vários aplicativos no próximo ano. Já a Anthropic lançou uma atualização beta do “Claude”, que ainda apresenta dificuldades e erros, mas pode usar o computador em nome do usuário. A OpenAI também está desenvolvendo uma versão com funcionalidades semelhantes.

O The Information alerta que o plano do Google de revelar o Jarvis em dezembro ainda pode mudar. A empresa está considerando liberar o projeto para um pequeno grupo de testadores a fim de encontrar e corrigir possíveis bugs antes de um lançamento mais amplo.

Riscos e Preocupações com Chatbots de IA: como a nova tecnologia está Impactando a saúde mental dos adolescentes

Para os pais que ainda estão se atualizando sobre inteligência artificial generativa, o surgimento dos chatbots companheiros pode ainda ser um mistério.

Em linhas gerais, a tecnologia pode parecer relativamente inofensiva, em comparação com outras ameaças que os adolescentes podem encontrar online, como sextorsão financeira.

Usando plataformas baseadas em IA como Character.AI, Replika, Kindroid e Nomi, os adolescentes criam parceiros de conversa realistas com traços e características únicas ou interagem com companheiros criados por outros usuários. Alguns são até baseados em personagens populares de televisão e cinema, mas ainda assim criam um vínculo intenso e individual com seus criadores.

Os adolescentes utilizam esses chatbots para uma variedade de fins, incluindo interpretar papéis, explorar interesses acadêmicos e criativos e ter trocas românticas ou sexualmente explícitas.

No entanto, os companheiros de IA são projetados para ser cativantes, e é aí que os problemas muitas vezes começam, diz Robbie Torney, gerente de programas da Common Sense Media.

A organização sem fins lucrativos lançou recentemente diretrizes para ajudar os pais a entender como os companheiros de IA funcionam, juntamente com sinais de alerta que indicam que a tecnologia pode ser perigosa para seus filhos.

Torney disse que, embora os pais tenham muitas conversas prioritárias para tratar com seus adolescentes, eles devem considerar falar sobre os companheiros de IA como uma questão “bastante urgente”.

Por que os pais devem se preocupar com os companheiros de IA

Adolescentes particularmente em risco de isolamento podem ser atraídos para um relacionamento com um chatbot de IA que, em última instância, prejudica sua saúde mental e bem-estar – com consequências devastadoras.

É o que Megan Garcia argumenta que aconteceu com seu filho, Sewell Setzer III, em um processo judicial que ela apresentou recentemente contra a Character.AI.

Dentro de um ano de começar a se relacionar com companheiros do Character.AI modelados em personagens de Game of Thrones, incluindo Daenerys Targaryen (“Dany”), a vida de Setzer mudou radicalmente, de acordo com o processo.

Ele se tornou dependente de “Dany”, passando muito tempo conversando com ela todos os dias. Suas interações eram amigáveis e altamente sexuais. O processo de Garcia descreve o relacionamento que Setzer tinha com os companheiros como “abuso sexual”.

Em ocasiões em que Setzer perdeu acesso à plataforma, ele se tornava desanimado. Com o tempo, o jovem atleta de 14 anos se afastou da escola e dos esportes, sofreu privação de sono e foi diagnosticado com distúrbios de humor. Ele morreu por suicídio em fevereiro de 2024.

O processo de Garcia busca responsabilizar a Character.AI pela morte de Setzer, especificamente porque o produto foi projetado para “manipular Sewell – e milhões de outros jovens – para confundir realidade e ficção”, entre outros defeitos perigosos.

Jerry Ruoti, chefe de confiança e segurança da Character.AI, disse ao New York Times em um comunicado: “Queremos reconhecer que esta é uma situação trágica, e nossos corações estão com a família. Levamos a segurança de nossos usuários muito a sério e estamos constantemente buscando maneiras de evoluir nossa plataforma.”

Dado o risco de vida que o uso de companheiros de IA pode representar para alguns adolescentes, as diretrizes da Common Sense Media incluem proibir o acesso para crianças menores de 13 anos, impor limites rigorosos de tempo para adolescentes, evitar o uso em espaços isolados, como o quarto, e estabelecer um acordo com seus filhos para que procurem ajuda para problemas sérios de saúde mental.

Torney afirma que os pais de adolescentes interessados em um companheiro de IA devem ajudar a entender a diferença entre conversar com um chatbot e com uma pessoa real, identificar sinais de que desenvolveram um apego não saudável e elaborar um plano para lidar com essa situação.

Sinais de que um companheiro de IA não é seguro para seu adolescente

A Common Sense Media criou suas diretrizes com a contribuição e assistência de profissionais de saúde mental associados ao Laboratório Brainstorm de Inovação em Saúde Mental de Stanford.

Embora haja pouca pesquisa sobre como os companheiros de IA afetam a saúde mental dos adolescentes, as diretrizes se baseiam em evidências existentes sobre a dependência excessiva de tecnologia.

“Um princípio a ser seguido é que os companheiros de IA não devem substituir conexões humanas reais e significativas na vida de ninguém, e – se isso estiver acontecendo – é vital que os pais percebam e intervenham rapidamente”, disse o Dr. Declan Grabb, primeiro bolsista de IA do Laboratório Brainstorm de Inovação em Saúde Mental de Stanford, ao Mashable em um e-mail.

Os pais devem ser especialmente cautelosos se seus adolescentes apresentarem depressão, ansiedade, desafios sociais ou isolamento. Outros fatores de risco incluem passar por grandes mudanças na vida e ser do sexo masculino, pois os meninos são mais propensos a desenvolver uso problemático da tecnologia.

Sinais de que um adolescente formou um relacionamento não saudável com um companheiro de IA incluem afastamento de atividades e amizades típicas, piora no desempenho escolar, preferir o chatbot à companhia presencial, desenvolver sentimentos românticos por ele e falar exclusivamente com ele sobre os problemas que está enfrentando.

Alguns pais podem notar maior isolamento e outros sinais de piora na saúde mental, mas não perceber que seus filhos têm um companheiro de IA. De fato, uma pesquisa recente da Common Sense Media descobriu que muitos adolescentes já usaram pelo menos uma ferramenta de IA generativa sem que os pais soubessem.

“Há um risco grande o suficiente para que, se você estiver preocupado com algo, converse com seu filho sobre isso.”
– Robbie Torney, Common Sense Media

Mesmo que os pais não suspeitem que seus adolescentes estejam conversando com um chatbot de IA, eles devem considerar falar sobre o assunto. Torney recomenda abordar o adolescente com curiosidade e abertura para aprender mais sobre o companheiro de IA, caso ele tenha um. Isso pode incluir observar o adolescente interagir com o companheiro e fazer perguntas sobre o que ele gosta na atividade.

Torney incentiva os pais que notarem qualquer sinal de uso não saudável a agir imediatamente, discutindo a situação com o adolescente e buscando ajuda profissional, conforme necessário.

“Há um risco grande o suficiente para que, se você estiver preocupado com algo, converse com seu filho sobre isso”, diz Torney.

Se você está se sentindo suicida ou passando por uma crise de saúde mental, fale com alguém. Você pode entrar em contato com o CVV pelo telefone 188, disponível 24 horas. Caso prefira o chat, visite www.cvv.org.br/chat/. Para serviços internacionais, consulte uma lista de recursos.

Meta AI Chega ao WhatsApp: novas funcionalidades e como desabilitar se você não curtiu

No dia 9, a Meta lançou sua nova inteligência artificial, a Meta AI, no Brasil, disponível em diversas plataformas e, especialmente, no WhatsApp. Essa novidade promete transformar a experiência dos usuários ao oferecer uma série de funcionalidades úteis.

A Meta AI é um concorrente de chatbots conhecidos, como Gemini, ChatGPT e Copilot, e se apresenta como um assistente virtual que opera dentro do aplicativo de mensagens. A proposta é facilitar tarefas cotidianas, permitindo que os usuários realizem pesquisas e outras atividades sem sair do WhatsApp.

Desenvolvida com o modelo de linguagem Llama 3.2, a Meta AI é acessada através de um ícone em azul e roxo, visível na tela inicial do aplicativo, tanto em dispositivos móveis quanto na versão desktop. A atualização é feita de maneira gradual, o que significa que nem todos os usuários poderão acessá-la ao mesmo tempo. Para utilizá-la, basta tocar no ícone e aceitar os termos de uso.

Assim que você iniciar a interação, uma nova janela de chat se abrirá, onde a conversa com o bot ocorrerá. Além disso, é possível chamar a IA usando o comando “@MetaAI” na barra de pesquisa ou em qualquer chat existente.

Quais são as funções da Meta AI?

A nova inteligência artificial do WhatsApp oferece uma variedade de recursos, incluindo:

  • Consultas e pesquisas: Os usuários podem fazer perguntas sobre diversos assuntos, pedir sugestões para viagens, obter dicas de receitas, acompanhar notícias em tempo real e esclarecer conceitos.
  • Edição de textos: O bot possui a capacidade de corrigir erros ortográficos, reescrever textos em diferentes estilos e realizar traduções em múltiplos idiomas. Por exemplo, ao fotografar um cardápio em inglês, o usuário pode solicitar uma tradução para o português.
  • Análise de imagens: A Meta AI pode fornecer cuidados específicos para plantas com base em fotos enviadas, além de modificar imagens ao adicionar ou remover elementos, e até criar novas imagens a partir de descrições textuais.

Como limitar a presença da Meta AI no WhatsApp?

Embora a Meta AI traga uma série de benefícios, alguns usuários podem se sentir desconfortáveis com a presença do bot. Por isso, é importante saber que, embora não seja possível desativá-lo totalmente, existem maneiras de restringir sua visibilidade.

A Meta AI também está disponível em outros aplicativos da empresa, como Facebook, Messenger e Instagram, mas, atualmente, não há opção de remoção completa. Contudo, existem algumas estratégias para gerenciar a presença do bot no WhatsApp:

Opções para restringir a Meta AI:

  • Arquivar ou excluir a conversa: O bate-papo com o bot pode ser tratado como qualquer outro chat. Para fazer isso:
    • Android: Mantenha pressionada a conversa com a IA e toque na seta para arquivá-la ou no ícone da lixeira para excluí-la.
    • iOS: Selecione a conversa e deslize para a esquerda, tocando em “Arquivar” ou escolhendo “Apagar” para eliminar a conversa.
  • Ocultar o ícone da Meta AI: Outra alternativa é desativar a opção “Mostrar botão Meta AI” nas configurações de “Conversas” do WhatsApp. Vale ressaltar que essa opção pode não estar disponível para todos os usuários.
Sair da versão mobile