O Google lançou em meados de janeiro a funcionalidade de destaque do seu assistente de IA Gemini, chamada «Personal Intelligence». A lógica central desta atualização é bastante direta — a IA não só deve compreender o mundo, mas também entender você.
Como funciona exatamente? O Gemini será capaz de integrar vários ecossistemas de serviços como Gmail, Google Photos, YouTube e Search, e, mediante sua autorização, extrair informações dos seus dados pessoais, fazer raciocínios e, por fim, fornecer sugestões que realmente se ajustem ao seu cenário de vida. Esta funcionalidade já está disponível em versão de teste nos Estados Unidos, atualmente limitada a alguns utilizadores pagos, e será progressivamente aberta a outros países e utilizadores gratuitos.
**Por que esta atualização está a receber tanta atenção?** Muitos utilizadores já reclamaram que as respostas do IA costumam ser respostas padrão e repetitivas. A chegada do Personal Intelligence visa resolver esse problema — fazer com que a IA compreenda suas necessidades específicas e seu contexto de vida, em vez de simplesmente fornecer respostas genéricas.
É importante notar que a Google investiu bastante na questão da privacidade. Esta funcionalidade vem desativada por padrão, e o utilizador precisa ativá-la manualmente; você pode escolher quais aplicações conectar; e pode interromper ou revogar a autorização a qualquer momento. Todo o esquema segue o princípio de «privacidade em primeiro lugar», com um processo de configuração relativamente simples e transparente — o que, para utilizadores da comunidade Web3 preocupados com a segurança dos dados, deve ser um sinal positivo.
O Personal Intelligence é suportado principalmente por duas capacidades: raciocínio de múltiplas fontes (integrando dados de vários serviços para fazer julgamentos) e pesquisa de informações precisa (localizando rapidamente conteúdos-chave a partir de uma vasta quantidade de dados pessoais). Este modo de interação AI multidimensional indica que estamos mais próximos de um assistente inteligente verdadeiramente útil.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
O Google lançou em meados de janeiro a funcionalidade de destaque do seu assistente de IA Gemini, chamada «Personal Intelligence». A lógica central desta atualização é bastante direta — a IA não só deve compreender o mundo, mas também entender você.
Como funciona exatamente? O Gemini será capaz de integrar vários ecossistemas de serviços como Gmail, Google Photos, YouTube e Search, e, mediante sua autorização, extrair informações dos seus dados pessoais, fazer raciocínios e, por fim, fornecer sugestões que realmente se ajustem ao seu cenário de vida. Esta funcionalidade já está disponível em versão de teste nos Estados Unidos, atualmente limitada a alguns utilizadores pagos, e será progressivamente aberta a outros países e utilizadores gratuitos.
**Por que esta atualização está a receber tanta atenção?** Muitos utilizadores já reclamaram que as respostas do IA costumam ser respostas padrão e repetitivas. A chegada do Personal Intelligence visa resolver esse problema — fazer com que a IA compreenda suas necessidades específicas e seu contexto de vida, em vez de simplesmente fornecer respostas genéricas.
É importante notar que a Google investiu bastante na questão da privacidade. Esta funcionalidade vem desativada por padrão, e o utilizador precisa ativá-la manualmente; você pode escolher quais aplicações conectar; e pode interromper ou revogar a autorização a qualquer momento. Todo o esquema segue o princípio de «privacidade em primeiro lugar», com um processo de configuração relativamente simples e transparente — o que, para utilizadores da comunidade Web3 preocupados com a segurança dos dados, deve ser um sinal positivo.
O Personal Intelligence é suportado principalmente por duas capacidades: raciocínio de múltiplas fontes (integrando dados de vários serviços para fazer julgamentos) e pesquisa de informações precisa (localizando rapidamente conteúdos-chave a partir de uma vasta quantidade de dados pessoais). Este modo de interação AI multidimensional indica que estamos mais próximos de um assistente inteligente verdadeiramente útil.