Outubro 9, 2024

Revista PORT.COM

Informações sobre Portugal. Selecione os assuntos que você deseja saber mais sobre no Revistaport

Tudo foi revelado, incluindo Gemini AI, Android 15 e muito mais

Tudo foi revelado, incluindo Gemini AI, Android 15 e muito mais

No final do I/O, conferência anual de desenvolvedores do Google no Shoreline Amphitheatre em Mountain View, o CEO do Google, Sundar Pichai, revelou que a empresa disse “AI” 121 vezes. Esta foi, essencialmente, a essência da palestra de duas horas do Google – trazer a IA para todos os aplicativos e serviços do Google usados ​​por mais de dois bilhões de pessoas em todo o mundo. Aqui estão todas as principais atualizações do grande evento do Google, além de alguns anúncios adicionais que vieram após a palestra.

Gêmeos Profissional

Google

O Google anunciou um modelo de IA totalmente novo chamado Gemini 1.5 Flash, que afirma ser otimizado para velocidade e eficiência. O Flash fica entre o Gemini 1.5 Pro e o Gemini 1.5 Nano, o menor modelo da empresa que roda nativamente no aparelho. O Google disse que criou o Flash porque os desenvolvedores queriam um modelo mais leve e menos caro do que o Gemini Pro para criar aplicativos e serviços baseados em IA, ao mesmo tempo que mantinha algumas coisas como uma janela de contexto de um milhão de caracteres que diferenciava o Gemini Pro dos modelos concorrentes. Ainda este ano, o Google dobrará a janela de contexto do Gemini para 2 milhões de tokens, o que significa que será capaz de processar 2 horas de vídeo, 22 horas de áudio e mais de 60.000 linhas de código ou mais de 1,4 milhão de palavras de uma só vez. . A Hora. .

Projeto AstraProjeto Astra

Google

O Google exibiu o Projeto Astra, uma versão inicial de um assistente global movido por IA, que Demis Hassabis, CEO da DeepMind do Google, disse ser a versão do Google de um agente de IA “que pode ser útil na vida cotidiana”.

Em um vídeo que o Google diz ter sido filmado de uma só vez, um usuário do Astra anda pelo escritório do Google em Londres segurando seu telefone e apontando a câmera para coisas diferentes – um alto-falante, algum código em um quadro branco, fora de uma janela – e tem uma conversa natural. com o aplicativo sobre sua aparência. E em um dos momentos mais impressionantes do vídeo, ela diz corretamente ao usuário onde deixou os óculos antes, sem que o usuário sequer os levante.

READ  LEGO Horizon Adventures é oficial, com lançamento neste feriado – SGF 2024

O vídeo termina com uma surpresa – quando o usuário encontra os óculos perdidos e os coloca, ficamos sabendo que eles possuem um sistema de câmera embutido e são capazes de usar o Projeto Astra para conversar perfeitamente com o usuário, o que pode sugerir que O Google pode estar trabalhando em um concorrente para os óculos inteligentes Ray Ban da Meta.

Pergunte as fotosPergunte as fotos

Google

O Google Fotos já era inteligente quando se tratava de pesquisar fotos ou vídeos específicos, mas com a IA, o Google está levando as coisas para o próximo nível. Se você for assinante do Google One nos EUA, poderá fazer ao Google Fotos uma pergunta complexa como “Mostre-me a melhor foto de cada parque nacional que você visitou” quando o recurso for lançado nos próximos meses. O Google Fotos usará suas informações de GPS, bem como seu próprio julgamento sobre o que é “melhor” para lhe fornecer opções. Você também pode pedir ao Google Fotos para gerar legendas para postar fotos nas redes sociais.

VisualizarVisualizar

Google

Os novos mecanismos de criação de mídia baseados em IA do Google são chamados de Veo e Imagine 3. Veo é a resposta do Google ao Sora da OpenAI. O Google disse que pode produzir vídeos 1080p de “alta qualidade” que podem durar “mais de um minuto” e pode compreender conceitos cinematográficos como lapso de tempo.

Enquanto isso, Imagen 3 é um gerador de texto para imagem que o Google afirma que lida com texto melhor do que seu antecessor, Imagen 2. O resultado é o modelo de texto para imagem da mais alta qualidade da empresa com um “incrível nível de detalhe” para “realista , imagens realistas.” ” e menos artefatos – o que essencialmente o compara ao DALLE-3 da OpenAI.

READ  AMD anuncia futuros chips de IA e trabalhará para acelerar a introdução de novos modelos
pesquisa do Googlepesquisa do Google

Google

O Google está fazendo grandes mudanças na forma como a pesquisa funciona fundamentalmente. A maioria das atualizações anunciadas hoje são como a capacidade de fazer perguntas realmente complexas (“Encontre os melhores estúdios de ioga ou Pilates em Boston e veja detalhes sobre ofertas e tempos de caminhada em Beacon Hill”) e usar a pesquisa para planejar refeições e férias. Ele não estará disponível a menos que você se inscreva no Search Labs, a plataforma da empresa que permite que as pessoas experimentem recursos beta.

Mas o grande novo recurso, que o Google chama de AI Overviews e que a empresa vem testando há um ano, está finalmente sendo lançado para milhões de pessoas nos Estados Unidos. A Pesquisa Google agora apresentará respostas geradas por IA no topo dos resultados por padrão, e a empresa afirma que disponibilizará o recurso para mais de um bilhão de usuários em todo o mundo até o final do ano.

Gêmeos no AndroidGêmeos no Android

Google

O Google está integrando o Gemini diretamente ao Android. Quando o Android 15 for lançado ainda este ano, o Gemini saberá qual aplicativo, foto ou vídeo você está reproduzindo e poderá arrastá-lo como uma sobreposição e fazer perguntas específicas ao contexto. Onde fica o Google Assistente que já faz isso? Quem você conhece! O Google não mencionou isso durante a palestra de hoje.

O Google ainda não está pronto para lançar a versão mais recente de seu sistema operacional smartwatch, mas promete algumas melhorias importantes na duração da bateria quando chegar. A empresa disse que o Wear OS 5 consumirá 20% menos energia do que o Wear OS 4 se um usuário correr uma maratona. O Wear OS 4 trouxe melhorias na duração da bateria dos smartwatches que o suportam, mas ainda poderia ser muito melhor no gerenciamento da energia do dispositivo. O Google também forneceu aos desenvolvedores um novo guia sobre como economizar energia e bateria, para que possam criar aplicativos mais eficientes.

READ  O Bing Chat com inteligência artificial ganha três personalidades distintas - Ars Technica

A prévia do desenvolvedor do Android 15 pode estar em andamento há meses, mas ainda há recursos chegando. O bloqueio de detecção de roubo é um dos novos recursos do Android 15 que usará IA (aqui está novamente) para prever o roubo do telefone e bloquear as coisas de acordo. O Google afirma que seus algoritmos podem detectar movimentos associados a roubo, como aqueles associados a pegar um telefone e ir embora, andar de bicicleta ou ir embora. Se um telefone Android 15 selecionar uma dessas situações, a tela do telefone será bloqueada rapidamente, dificultando o acesso de um sequestrador de telefone aos seus dados.

Houve várias outras atualizações também. O Google disse que adicionará marcas d’água digitais a vídeos e textos gerados por IA, tornará o Gemini acessível no painel lateral do Gmail e do Docs, oferecerá suporte a um colega virtual com tecnologia de IA no Workspace, ouvirá chamadas telefônicas e detectará se você está realmente sendo enganado tempo e muito mais.

Acompanhe todas as novidades do Google I/O 2024 ao vivo aqui!

Atualizado em 15 de maio, às 14h45 horário do leste dos EUA: Esta história foi atualizada após a publicação para incluir detalhes sobre os novos anúncios do Android 15 e WearOS 5 lançados após a palestra I/O 2024.