15 NOVIDADES INSANAS de IA do GOOGLE I/O 2025 (RESUMO COMPLETO)

00:51:50
https://www.youtube.com/watch?v=iCIafpg5Xg0

Résumé

TLDRO Google IO 2023 trouxe inovações impressionantes, destacando a evolução das tecnologias existentes. O evento focou em melhorias na geração de imagens e vídeos, com o Vio 3 permitindo a criação de vídeos com som e efeitos sonoros. O AI Mode foi introduzido para personalizar buscas e respostas, enquanto o Google Beam apresentou uma nova plataforma de comunicação por vídeo. A integração da IA em produtos como Gmail e Google Meet promete transformar a experiência do usuário, mas também levanta preocupações sobre privacidade. O Gemini 2.5 Pro foi destacado como uma versão aprimorada da IA do Google, com melhor desempenho em tarefas complexas. O futuro da produção de conteúdo parece promissor, com a IA facilitando a criação de materiais audiovisuais.

A retenir

  • 🚀 O Google IO 2023 apresentou inovações significativas em IA.
  • 🎥 O Vio 3 agora gera vídeos com som e efeitos sonoros.
  • 🔍 O AI Mode personaliza buscas e respostas para usuários.
  • 📹 O Google Beam é uma nova plataforma de comunicação por vídeo.
  • ✉️ Gmail agora utiliza IA para melhorar respostas.
  • 🔒 Preocupações sobre privacidade foram levantadas durante o evento.
  • 💡 O Gemini 2.5 Pro oferece melhor desempenho em tarefas complexas.
  • 🎨 O Stitch gera interfaces de usuário com base em prompts.
  • 🌐 A IA pode revolucionar a produção de conteúdo audiovisual.
  • 🌟 O Google Meet agora oferece tradução automática de fala.

Chronologie

  • 00:00:00 - 00:05:00

    O Google IO apresentou inovações significativas em busca, vídeos e inteligência artificial, destacando a evolução das tecnologias existentes e seu impacto na produção audiovisual e no mercado.

  • 00:05:00 - 00:10:00

    As atualizações no Google Imagem e Vio foram notáveis, com melhorias na geração de imagens e vídeos, permitindo a criação de conteúdo visual de forma mais eficiente e criativa.

  • 00:10:00 - 00:15:00

    O Vio 3 trouxe a capacidade de gerar vídeos com sons de fundo e diálogos, o que pode revolucionar a produção audiovisual, permitindo que criadores façam filmes sem a necessidade de dubladores.

  • 00:15:00 - 00:20:00

    Exemplos de vídeos gerados pelo Vio 3 mostraram a capacidade de criar cenários realistas e efeitos sonoros, embora a qualidade visual ainda precise de melhorias.

  • 00:20:00 - 00:25:00

    O Google Beam, uma plataforma de comunicação em vídeo em 3D, foi considerado menos impactante, com um foco restrito em empresas e teleconferências.

  • 00:25:00 - 00:30:00

    O Google está integrando IA em suas buscas, permitindo respostas mais personalizadas e contextuais, o que pode afetar a forma como os usuários interagem com a plataforma.

  • 00:30:00 - 00:35:00

    O AI Mode do Google busca entender melhor as intenções dos usuários, oferecendo respostas mais relevantes e personalizadas com base em dados históricos e preferências.

  • 00:35:00 - 00:40:00

    O Google Lens agora permite buscas mais contextuais, integrando informações de localização e preferências pessoais para oferecer resultados mais relevantes.

  • 00:40:00 - 00:45:00

    O Gmail também receberá melhorias com respostas inteligentes, utilizando IA para gerar respostas personalizadas com base no estilo de comunicação do usuário.

  • 00:45:00 - 00:51:50

    O Google está investindo em tecnologias de realidade aumentada e IA para melhorar a experiência do usuário em compras online, permitindo visualizações mais interativas e personalizadas.

Afficher plus

Carte mentale

Vidéo Q&R

  • O que foi apresentado no Google IO 2023?

    O Google IO 2023 apresentou inovações em busca, geração de imagens e vídeos, e IA.

  • Qual é a principal inovação na geração de vídeos?

    O Vio 3 agora gera vídeos com som e efeitos sonoros, permitindo uma produção audiovisual mais rica.

  • O que é o AI Mode?

    O AI Mode personaliza buscas e respostas, melhorando a experiência do usuário.

  • O que é o Google Beam?

    O Google Beam é uma nova plataforma de comunicação por vídeo que utiliza tecnologia de IA.

  • Como a IA está sendo integrada ao Gmail?

    A IA no Gmail melhora as respostas, personalizando-as com base nos dados do usuário.

  • Quais são as preocupações em relação à privacidade?

    As inovações levantam questões sobre como os dados dos usuários serão tratados e utilizados.

  • O que é o Gemini 2.5 Pro?

    O Gemini 2.5 Pro é uma versão aprimorada da IA do Google, com melhor desempenho em tarefas complexas.

  • Como a IA pode impactar a produção de conteúdo?

    A IA pode revolucionar a produção de conteúdo, permitindo que indivíduos criem vídeos e materiais de forma mais eficiente.

  • Quais são as novas funcionalidades do Google Meet?

    O Google Meet agora oferece tradução automática de fala em tempo real.

  • O que é o Stitch?

    O Stitch gera interfaces de usuário para aplicativos com base em prompts fornecidos.

Voir plus de résumés vidéo

Accédez instantanément à des résumés vidéo gratuits sur YouTube grâce à l'IA !
Sous-titres
pt
Défilement automatique:
  • 00:00:00
    O Google acabou de fazer a sua
  • 00:00:01
    apresentação mais importante do ano, o
  • 00:00:03
    Google IO, e revelou tecnologias
  • 00:00:05
    incríveis de busca, vídeos, agentes e
  • 00:00:09
    muito mais. Nesse vídeo, eu vou te
  • 00:00:11
    resumir o que teve de melhor e o que
  • 00:00:13
    pode impactar na sua vida. Então,
  • 00:00:15
    pessoal, nesse vídeo aqui você vai ver
  • 00:00:16
    as coisas mais importantes que você deve
  • 00:00:18
    saber do evento Google que aconteceu
  • 00:00:20
    recentemente, tá? sem você ter que ver
  • 00:00:22
    duas horas de evento. Aqui vai tá tudo
  • 00:00:24
    resumidinho, mas também vai ter a nossa
  • 00:00:26
    análise. Então não é só um resumo, ele é
  • 00:00:28
    um resumo completo, porque tem análise
  • 00:00:29
    também e o futuro que pode ser dessas
  • 00:00:31
    tecnologias, tá bom? E o impacto também
  • 00:00:33
    que pode ter para a Open AI, que é a
  • 00:00:35
    dona do Chat GPT, e para o mundo, tá? E
  • 00:00:38
    tem um grande spoiler aqui, já vou
  • 00:00:40
    revelar para vocês, mas principalmente
  • 00:00:41
    para produção audiovisual de vídeos
  • 00:00:44
    principalmente, tá? Realmente uma coisa
  • 00:00:46
    absurda que você vai ver já já. E mas eu
  • 00:00:48
    acredito que a palavra principal desse
  • 00:00:50
    evento dessa vez foi evolução. Você vai
  • 00:00:53
    entender depois, mas ela não foi
  • 00:00:55
    disrupção, mas foi evolução do que já
  • 00:00:58
    existe, realmente, do poder que o Google
  • 00:00:59
    tem de juntar certas tecnologias que ele
  • 00:01:02
    tem, dos dados que ele tem das pessoas.
  • 00:01:04
    Realmente é muito interessante. Você vai
  • 00:01:05
    saber por ao longo dessa apresentação
  • 00:01:07
    aqui, tá? E são as coisas principais,
  • 00:01:09
    assim, as mais legais do evento, tá?
  • 00:01:11
    Primeiro de tudo, então já vou começar
  • 00:01:12
    aqui entregando quase que o ouro, mas o
  • 00:01:13
    resto do vídeo também tá muito bom, fica
  • 00:01:15
    até o final do vídeo. Mas a coisa mais
  • 00:01:17
    legal do evento, na minha opinião, foi o
  • 00:01:19
    imagem e o vio estão recebendo grandes
  • 00:01:21
    atualizações, principalmente o Vio, tá?
  • 00:01:23
    Mas eu vou aqui mostrar para vocês já a
  • 00:01:24
    atualização que eles fizeram eh na parte
  • 00:01:26
    de geração de imagens, que ele começa
  • 00:01:28
    agora a competir mais com o ideograma
  • 00:01:30
    que já gerava textos para a asiátic.
  • 00:01:32
    Quando você bota o seu promet, ele já
  • 00:01:33
    gera direto um texto e também pro
  • 00:01:35
    próprio Canva também, né? Se a gente
  • 00:01:36
    utiliza o Canva para fazer hosts, para
  • 00:01:39
    fazer um convite de aniversário
  • 00:01:40
    infantil, qualquer outra coisa, agora
  • 00:01:42
    você pode fazer diretamente com a IA, se
  • 00:01:44
    você não precisar tanto editar depois,
  • 00:01:45
    tudo mais, apesar que a gente também tem
  • 00:01:46
    algumas ferramentas de edição, mas agora
  • 00:01:48
    realmente eles estão melhorando a
  • 00:01:49
    questão da imagem. E eu vou mostrar aqui
  • 00:01:51
    para vocês como é que estão os
  • 00:01:51
    resultados estão bem
  • 00:02:16
    interessantes. Então aqui, ó, ele ele
  • 00:02:18
    faz as escolhas criativas com um prompt,
  • 00:02:20
    ele escreve tudo bonitinho, ele bota
  • 00:02:22
    fonte já. Realmente ficou muito legal. É
  • 00:02:24
    claro que eles vão mostrar sempre o
  • 00:02:25
    melhor aqui na apresentação, né? Mas
  • 00:02:27
    ficou muito legal porque antigamente ele
  • 00:02:29
    errava na no texto ou escrevia o texto
  • 00:02:31
    errado. Quem utilizou a geração de
  • 00:02:32
    imagem, principalmente o Mour in assim
  • 00:02:33
    para texto, era muito ruim mesmo. O ide
  • 00:02:36
    foi um dos que primeiro, é, se eu não me
  • 00:02:37
    engano, começou a fazer realmente um bom
  • 00:02:39
    trabalho de colocar texto na imagem. E
  • 00:02:41
    esse aqui ficou muito legal mesmo, não
  • 00:02:42
    só porque ele colocou o texto, mas toda
  • 00:02:44
    a direção de arte mesmo que ele acabou
  • 00:02:45
    escolhendo para
  • 00:02:55
    isso. É o que ele falou, não foi só
  • 00:02:57
    escolher a fonte, mas é o espaçamento, o
  • 00:02:59
    layout, como é que ficou o melhor
  • 00:03:00
    possível para ser um poster para
  • 00:03:02
    divulgar esse festival de música.
  • 00:03:16
    Sim, ficou muito legal. Eu achei que
  • 00:03:18
    ficou muito legal mesmo essa nova
  • 00:03:19
    geração de imagem que eles estão fazendo
  • 00:03:20
    agora. Agora eu vou aqui mostrar para
  • 00:03:22
    vocês o que que eu acho que realmente
  • 00:03:23
    ficou legal, que é o Vio 3, a geração de
  • 00:03:26
    vídeo. Mas não é só a geração de vídeo.
  • 00:03:28
    E você vai entender porquê.
  • 00:03:40
    dialog, viu? É o que ele falou? E agora
  • 00:03:42
    você vai ver o exemplo, ele não vai só
  • 00:03:44
    gerar vídeo, ele já vai gerar os sons de
  • 00:03:46
    fundo, ele vai gerar os efeitos sonoros,
  • 00:03:49
    ele vai gerar as pessoas falando com eh
  • 00:03:52
    sotaques diferentes, com entonações
  • 00:03:53
    diferentes. Isso aqui eu acho que é
  • 00:03:55
    revolucionário. E você vai ter uma uma
  • 00:03:57
    palinha agora. Você vai ver os exemplos
  • 00:03:58
    que ele vai mostrar. Eu vou mostrar
  • 00:03:59
    outros exemplos também. Isso aqui eu
  • 00:04:00
    acho que vai ser revolucionário porque
  • 00:04:01
    imagina, é quase como realmente se você
  • 00:04:03
    tiver uma boa ideia ou vez você pode até
  • 00:04:05
    escrever com o chat de PT, fazer um
  • 00:04:06
    roteiro legal, você pode criar realmente
  • 00:04:08
    um filme que você não precisa nem de
  • 00:04:08
    dublador, você faz tudo sozinho. É
  • 00:04:10
    assustador assim pelo potencial que isso
  • 00:04:12
    aqui pode trazer e mudar no mercado
  • 00:04:14
    audiovisual.
  • 00:04:15
    [Música]
  • 00:04:27
    Agora vou mostrar alguns outros exemplos
  • 00:04:28
    que tem aqui no Twitter deles do Google
  • 00:04:30
    Deep Mind que eles trouxeram que tá
  • 00:04:31
    muito interessante, que por exemplo,
  • 00:04:33
    você quer fazer um filme de detetive,
  • 00:04:35
    olha como é que fica.
  • 00:04:45
    Se você reparar, tem o efeito de fundo
  • 00:04:46
    das pessoas andando como se tivesse ali
  • 00:04:48
    no metrô as duas pessoas falando bem
  • 00:04:50
    diferente com sotaque. É, agora vamos
  • 00:04:52
    ver esse aqui. Desfeito sonoro,
  • 00:05:01
    ó. Isso que é muito legal. Até uma coisa
  • 00:05:03
    mais abstrata também, ele consegue fazer
  • 00:05:05
    um efeito sonoro muito é realista mesmo.
  • 00:05:07
    Parece que realmente tem um um designer
  • 00:05:09
    de som.
  • 00:05:17
    Bem, acho que talvez você tenha que
  • 00:05:18
    aumentar aqui o volume para você ouvir,
  • 00:05:20
    mas tem um leve barulinho de quando cai.
  • 00:05:22
    Exatamente. E agora esse aqui do
  • 00:05:32
    patinho. Se você reparar exatamente
  • 00:05:34
    quando ele aperta aqui, ele tá fazendo o
  • 00:05:36
    som. Então, realmente tá incrível.
  • 00:05:37
    Parece que uma pessoa fez manualmente,
  • 00:05:39
    né? Então assim, lembra daquele hype que
  • 00:05:41
    teve quando falaram que ia lançar o
  • 00:05:42
    Soric, mostrar aquelas imagens incríveis
  • 00:05:44
    pelo Chat PT? No fundo, o chat deptena,
  • 00:05:47
    ela acabou demorando muito para lançar e
  • 00:05:50
    hoje em dia acho que não chama tanta
  • 00:05:51
    atenção porque nesse meio tempo foram
  • 00:05:52
    surgindo várias outras que já faziam o
  • 00:05:54
    vídeo em alguns casos até melhores,
  • 00:05:56
    sabe? Com mais funcionalidades que o
  • 00:05:58
    Sora. Então o Sora pecou pelo tempo que
  • 00:06:00
    ele demorou para desenvolver, tá? E
  • 00:06:02
    nesse caso aqui, se eles realmente
  • 00:06:03
    conseguirem entregar tudo que eles estão
  • 00:06:04
    prometendo, parece realmente tá na
  • 00:06:06
    frente, tá, dessa questão de produção de
  • 00:06:08
    vídeo, principalmente porque você
  • 00:06:09
    realmente gerar já o áudio diretamente,
  • 00:06:12
    aí realmente pode ser incrível. Uma
  • 00:06:13
    pessoa pode fazer uma série e eu vou
  • 00:06:15
    mostrar depois também porque uma um dos
  • 00:06:16
    pequenos problemas você gerar um vídeo é
  • 00:06:19
    você fazer um personagem consistente,
  • 00:06:20
    porque por exemplo, aquele detetive tem
  • 00:06:21
    que ser o mesmo detetive nas outras
  • 00:06:23
    cenas e eles também estão trabalhando
  • 00:06:24
    nisso que eu vou mostrar mais a fundo
  • 00:06:26
    daqui a pouco também. Eh, mas só uma
  • 00:06:28
    outra coisa que eu acho que também tem
  • 00:06:30
    que ver como é que tá a qualidade desse
  • 00:06:31
    vídeo, tá? Porque o vídeo, assim, apesar
  • 00:06:34
    de ser incrível essa questão de você
  • 00:06:35
    gerar o o áudio e tudo mais, eu achei
  • 00:06:37
    que a geração do vídeo em alguns casos
  • 00:06:39
    não tá tão boa assim, os efeitos não
  • 00:06:41
    estão tão incríveis quanto eu já vi em
  • 00:06:43
    outras ia, por exemplo, das pessoas
  • 00:06:44
    mexendo e ali do da coruja também, sabe?
  • 00:06:47
    Umas coisas que não sei, não parece tão
  • 00:06:49
    realista no movimento, sabe? Mas claro
  • 00:06:51
    que assim, esse aqui é um é só o início,
  • 00:06:53
    né? Mas eu já acho muito promissor
  • 00:06:55
    comparando, se for bem comparar assim
  • 00:06:58
    muito no micro detalhe, acho que pode
  • 00:06:59
    melhorar a geração do vídeo, mas essa
  • 00:07:00
    coisa de você juntar com áudio tá
  • 00:07:02
    realmente muito interessante mesmo, tá?
  • 00:07:03
    E eu acho que o Google, se ele conseguir
  • 00:07:05
    entregar tudo que ele tá prometendo, ele
  • 00:07:06
    vai realmente sair na frente. Agora, a
  • 00:07:07
    coisa menos legal do evento, que eu
  • 00:07:09
    achei bem sem graça, tá? É o Google
  • 00:07:11
    Bean, que antes chamava projeto
  • 00:07:12
    Starline. Você vai ver e você vai me
  • 00:07:14
    dizer se você também achou isso aqui sem
  • 00:07:16
    graça. Google Beam, a new AI first video
  • 00:07:21
    communications platform.
  • 00:07:23
    Beam uses a new state of the art video
  • 00:07:28
    model. É o seguinte, é uma tela que tem
  • 00:07:30
    várias câmerazinhas, pelo que eu tinha
  • 00:07:32
    visto ali, e ela meio que renderiza você
  • 00:07:34
    em 3D para você fazer uma ligação de
  • 00:07:37
    vídeochamada. Então assim, você vai ver
  • 00:07:40
    a outra pessoa como se ela tivesse mais
  • 00:07:41
    ou menos em 3D na sua frente, mas isso
  • 00:07:44
    tem que ter uma tela específica para
  • 00:07:45
    você
  • 00:07:47
    comprar.
  • 00:07:50
    Eu acho que isso aqui vai ser acabar
  • 00:07:51
    sendo para algumas empresas grandes que
  • 00:07:53
    querem fazer e uma teleconferência ou
  • 00:07:55
    algo assim com quem tá trabalhando
  • 00:07:57
    remoto ou com a outra parte da empresa.
  • 00:08:00
    Eu achei muito nichado. Não acho que é
  • 00:08:01
    aqui pro público geral que é geralmente
  • 00:08:03
    o que a gente vê. E não sei quanto é que
  • 00:08:04
    vai ser isso. E ainda mais falando de
  • 00:08:06
    trabalho remoto, de pessoas fazem e hoje
  • 00:08:08
    em dia as empresas estão cada vez mais
  • 00:08:09
    diminuindo também o trabalho remoto.
  • 00:08:11
    Infelizmente, né? Eu sou um grande
  • 00:08:12
    adepto do trabalho remoto, mas
  • 00:08:13
    infelizmente tem começado as empresas a
  • 00:08:15
    fazerem híbrido ou voltando ao
  • 00:08:17
    presencial, né? Então, sei lá, eu achei
  • 00:08:19
    essa aqui a coisa bem mais ou menos
  • 00:08:20
    mesmo, sabe? De quem vai comprar isso,
  • 00:08:21
    se é só grande empresa. Realmente não
  • 00:08:23
    achei nada demais nesse caso aqui. Achei
  • 00:08:25
    o ponto mais fraco. Depois você me diz
  • 00:08:27
    se você concorda ou não. E aqui agora
  • 00:08:29
    pesquisa com IA no Google AI Mode, tá? É
  • 00:08:31
    uma resposta de se você reparar do
  • 00:08:33
    Google Ameaça da IA pros negócios da
  • 00:08:35
    busca. Quero que a gente no início do
  • 00:08:36
    chatt, né? A gente começava a falar
  • 00:08:37
    assim: "Cara, como é que vai ficar o
  • 00:08:38
    Google agora que o chat GPT já te
  • 00:08:40
    responde tudo? você não precisa lá
  • 00:08:41
    entrar de site a site para ver, depois
  • 00:08:43
    pesquisar, saber o resultado. E a
  • 00:08:45
    Google, ela já tinha se tocado disso, já
  • 00:08:46
    tinha percebido isso e começou a
  • 00:08:48
    trabalhar eternamente. E o que você vai
  • 00:08:49
    ver também muito aqui na apresentação é
  • 00:08:51
    a Google pegando os dados que ela tem
  • 00:08:53
    gigantesco, o sistema de busca e muitos
  • 00:08:55
    usuários, os ecossistemas também porque
  • 00:08:57
    tem o Google Chrome, tem Android. Com
  • 00:08:59
    isso eles têm não só dados, mas também
  • 00:09:01
    pontos de acesso que as pessoas utilizam
  • 00:09:02
    e que pode aplicar IA lá dentro. E com
  • 00:09:05
    isso a Google tá trabalhando bastante
  • 00:09:07
    nisso de trazer a IA para dentro desse
  • 00:09:08
    ecossistema. Então o que a gente fala
  • 00:09:10
    assim, vai acabar Google, agora estou
  • 00:09:11
    tentando dar uma resposta e mudar em
  • 00:09:13
    relação a isso, tá? e principalmente até
  • 00:09:14
    com outras que eram específicas a fazer
  • 00:09:17
    busca, como por exemplo a perplexity ou
  • 00:09:19
    agora a função de busca do chat GPT ou
  • 00:09:21
    até mesmo humanos, se você já viu alguns
  • 00:09:23
    vídeos do canal aqui, que é um agente
  • 00:09:24
    que ele busca para você, já faz
  • 00:09:25
    relatório, já sintetiza, ele é como se
  • 00:09:27
    fosse uma outra pessoa trabalhando do
  • 00:09:29
    seu lado, é o agente de computador que a
  • 00:09:31
    gente chama e vai ser falado também mais
  • 00:09:32
    aqui na apresentação. Então vamos dar
  • 00:09:34
    uma olhadinha agora nas respostas que a
  • 00:09:36
    Google tá dando para essas ameaças e o
  • 00:09:39
    futuro também.
  • 00:09:42
    Então esse aqui dentro do campo de busca
  • 00:09:44
    vai ter o AI modes que você vai poder
  • 00:09:45
    escrever o que tem na sua cabeça.
  • 00:09:54
    Aqui dando um pause aqui, a gente já
  • 00:09:55
    começa a ver, né, que ele tá fazendo
  • 00:09:57
    aquele modo de raciocínio que ele começa
  • 00:09:59
    a quebrar o raciocínio de acordo com o
  • 00:10:01
    que você pesquisou, parecendo mais uma
  • 00:10:02
    IA mesmo nos modos de pensamento que a
  • 00:10:04
    gente tem visto
  • 00:10:08
    recentemente. Então ele já vai reduzir,
  • 00:10:11
    ele vai já sintetizar aqui para você de
  • 00:10:13
    acordo com links de criadores de
  • 00:10:14
    conteúdo ali, dependendo da busca que
  • 00:10:16
    ele fez, né? O que que ela pesquisou
  • 00:10:17
    aqui? Eu agora vou até te mostrar um
  • 00:10:19
    hack aquizzinho, ó. A gente aqui já
  • 00:10:21
    utilizando o Google Lens, você pode, ó,
  • 00:10:23
    pegar aqui qualquer coisa tá numa imagem
  • 00:10:24
    e já traduzir aqui, ó. Traduzir,
  • 00:10:28
    ó. Coisas para fazer em Nashville nesse
  • 00:10:29
    fim de semana com os amigos. Somos
  • 00:10:31
    grandes amantes da gastronomia que
  • 00:10:32
    gostam de música, mas também de
  • 00:10:34
    vibrações mais relaxantes, explorar
  • 00:10:35
    caminhos fora do comum. Esse aqui foi o
  • 00:10:37
    prompt que ela pesquisou. Antigamente
  • 00:10:38
    você só ia pesquisar restaurante em
  • 00:10:39
    Nashville, é, ou coisa muito sintética,
  • 00:10:41
    porque uma pesquisa grande não funciona
  • 00:10:43
    muito bem no Google se você tentar é
  • 00:10:45
    atualmente sem o a parte da IA, porque
  • 00:10:47
    ela não entendia o contexto como todo.
  • 00:10:49
    Era só uma busca quase que por uma
  • 00:10:51
    palavrachave de certa forma, né? E qual
  • 00:10:53
    site estava melhor ranqueando. E agora a
  • 00:10:55
    Ia não, ela consegue entender o contexto
  • 00:10:56
    disso e aí sim personalizar para você.
  • 00:10:59
    Ainda tem umas coisas a mais que ela vai
  • 00:11:00
    fazer de personalização para você
  • 00:11:01
    também.
  • 00:11:05
    and merchants and
  • 00:11:06
    businesses
  • 00:11:09
    informating
  • 00:11:20
    us. Ela tá falando aquilo, né? Ela
  • 00:11:22
    mostrou alguns produtores de conteúdo,
  • 00:11:23
    mostrou ali alguns restaurantes e
  • 00:11:24
    mostrou ali especificamente, segundo o
  • 00:11:26
    que você procurou, vai mostrar ali no
  • 00:11:27
    mapa também. Então ele tá pegando as
  • 00:11:29
    coisas que o Google já ia implementando
  • 00:11:30
    de pouquinho e agora juntando com o IA
  • 00:11:32
    para ficar mais customizado.
  • 00:11:38
    Aí uma coisa legal, né, que antigamente
  • 00:11:39
    se você lembrar da busca, você quando
  • 00:11:41
    faz e você vai complementar, você vai
  • 00:11:43
    escrever algo no Google, ele vai fazer
  • 00:11:44
    uma nova busca, ele não vai complementar
  • 00:11:45
    a busca. Então agora aqui ela tá
  • 00:11:47
    perguntando: "Ah, e o que que eu posso
  • 00:11:49
    fazer para tomar um brunch, para comer
  • 00:11:50
    um café da manhã?" E aí ele vai falar
  • 00:11:52
    baseado no que você tinha falado
  • 00:11:53
    anteriormente. Então ele tá
  • 00:11:54
    complementando aquela busca que
  • 00:11:56
    geralmente a gente quando tem que fazer
  • 00:11:57
    manualmente a gente, sei lá, bota e num
  • 00:11:59
    arquivo de texto e vai aqui, ah, esse
  • 00:12:01
    aqui é para restaurante, depois o
  • 00:12:02
    pbrante. Agora você já pode integrar as
  • 00:12:03
    coisas num lugar só, facilitando e
  • 00:12:05
    ganhando mais tempo pro usuário.
  • 00:12:37
    version. Então, ela vai separar em
  • 00:12:39
    várias etapas o tipo da sua busca e ele
  • 00:12:41
    vai ver, ah, uma pesquisa na web, é uma
  • 00:12:43
    pesquisa no mundo real, é o clima, é
  • 00:12:45
    shopping, são esportes, é finanças, ele
  • 00:12:47
    vai procurar em categorias diferentes
  • 00:12:49
    para te dar a melhor resposta. E aí
  • 00:12:51
    agora também eles tm uma função que você
  • 00:12:53
    pode personalizar a resposta da busca de
  • 00:12:56
    acordo com os dados que o Google tem
  • 00:12:57
    sobre você. Você pode ativar ou
  • 00:12:59
    desativar
  • 00:13:07
    isso. Então ela vai conectar com o Gmail
  • 00:13:10
    e vai dar um contexto pessoal.
  • 00:13:20
    Então ela vai ver que de acordo com o
  • 00:13:22
    histórico que você tem de reservar em
  • 00:13:25
    restaurantes que são ao ar livre, ela
  • 00:13:27
    vai te mostrar opções mais ao ar livre.
  • 00:13:30
    Então ela vai além do que você buscou
  • 00:13:31
    inicialmente porque ela já sabe o que
  • 00:13:33
    que você gosta.
  • 00:13:41
    E como você tá inscrito em algumas
  • 00:13:42
    exposições de arte, ele também vai te
  • 00:13:44
    recomendar exposições de arte que tem
  • 00:13:56
    perto. Então, mas ele também pega as
  • 00:13:58
    datas de voo e hotel e ele também vai
  • 00:14:00
    saber outros eventos que estão ocorrendo
  • 00:14:01
    na cidade nesse data e aí vai te dar
  • 00:14:03
    também sugestões baseado com a data que
  • 00:14:05
    já sabe que você vai est lá.
  • 00:14:20
    Então, realmente é algo super
  • 00:14:22
    customizado. E ela tá agora falando
  • 00:14:23
    porque uma primeira preocupação que a
  • 00:14:25
    gente vem, né? Pô, então quer dizer que
  • 00:14:26
    o Google tá pegando todos os meus dados,
  • 00:14:27
    que a gente já sabe que ele tem acesso a
  • 00:14:29
    vários dados nossos, né? Mas agora vendo
  • 00:14:31
    detalhes de e-mail e etc e podendo botar
  • 00:14:33
    isso na busca, como é que vai ser
  • 00:14:34
    tratado o meu dado em relação a isso? Se
  • 00:14:36
    eu não quiser, então eles vão mostrar
  • 00:14:37
    que você pode desativar isso
  • 00:14:46
    e aí vai chegar no AI modes no verão.
  • 00:14:49
    Agora eles vão mostrar aqui um outro uso
  • 00:14:50
    do AI modes que ele agora vai resumir
  • 00:14:53
    para você os dados. Então não só ele vai
  • 00:14:54
    pesquisar a melhor coisa para você, mas
  • 00:14:56
    ele também pode resumir e eles vão
  • 00:14:58
    começar a lançar isso também com coisas
  • 00:14:59
    de esporte e finanças. Então que nem
  • 00:15:02
    você, por exemplo, pedindo mano, sei lá,
  • 00:15:03
    como é que está a ação da Tesla? ele vai
  • 00:15:05
    levantar e fazer para você a ação da
  • 00:15:07
    Tesla. Agora ele também já vai resumir
  • 00:15:09
    para você as coisas. Então, eh, não só
  • 00:15:11
    ele tá pegando a melhor informação, mas
  • 00:15:13
    ele já tá digerindo para você essa
  • 00:15:15
    informação.
  • 00:15:24
    A informação que ele buscou ali foi:
  • 00:15:26
    "Ah, agora tem um novo taco de beisebol
  • 00:15:28
    que tem um ponto de peso diferente e eu
  • 00:15:30
    quero saber quais são as últimas pessoas
  • 00:15:32
    que usaram esse taco, se elas realmente
  • 00:15:33
    aumentaram a eficácia". Então a IA vai
  • 00:15:36
    pegar todo esse dado, botou num gráfico
  • 00:15:38
    e foi vendo ali, ó, o time tal usa esse
  • 00:15:40
    taco e aumentou o número de home runs e
  • 00:15:44
    etcam fazer e com esse taco ou não para
  • 00:15:46
    tentar achar essa correlação.
  • 00:15:49
    SPS
  • 00:15:50
    data updated down to the
  • 00:15:53
    last even brings
  • 00:16:07
    in. E aí você pode fazer que nem a liga,
  • 00:16:09
    você pode complementar a pesquisa. E
  • 00:16:11
    então ele ainda respondeu com o
  • 00:16:26
    gráfico. Realmente parece que eles aqui
  • 00:16:28
    pegaram essa inspiração assim na questão
  • 00:16:30
    do humanos de fazer gráfico. Claro que
  • 00:16:32
    vão de outras outras e também que às
  • 00:16:33
    vezes tem isso, mas como a gente vê como
  • 00:16:35
    é que essas evoluções vão acontecendo,
  • 00:16:37
    né? uma uma pessoa destrava uma coisa,
  • 00:16:39
    depois a Google faz outra, depois outra
  • 00:16:41
    pessoa pega baseado nisso, sabe? Então é
  • 00:16:43
    realmente interessante assim como é que
  • 00:16:44
    a gente às vezes não consegue prever as
  • 00:16:46
    evoluções, porque elas são incrementais,
  • 00:16:48
    né? Uma i vai evoluindo numa coisa,
  • 00:16:49
    depois a outra resolve fazer outra e
  • 00:16:51
    vamos ver o que que vai vir aí do
  • 00:16:52
    futuro. Mas isso aqui já é bem
  • 00:16:54
    interessante na questão de ganho de
  • 00:16:55
    produtividade que você vai ter e quando
  • 00:16:57
    você fizer buscas, mas tem uma
  • 00:16:58
    preocupação que é para quem produz
  • 00:17:00
    conteúdo, né? Então, por exemplo, os
  • 00:17:02
    sites e blogs que monetizavam, porque a
  • 00:17:04
    pessoa entrava lá dentro, via um
  • 00:17:06
    anúncio, até pelo próprio Google
  • 00:17:07
    mostrava anúncios, que mostra anúncios
  • 00:17:09
    lá dentro, né? Eh, como é que vai ser
  • 00:17:11
    essa questão? Porque em teoria vai
  • 00:17:12
    ganhar menos acessos, porque as pessoas
  • 00:17:14
    vão precisar passar menos tempo. Então,
  • 00:17:15
    pro lado do usuário é muito bom. Pro
  • 00:17:17
    lado do blog, do pequeno produtor de
  • 00:17:19
    conteúdo, eh, ou da empresa pode não ser
  • 00:17:21
    tão bom, dependendo de caso a caso. Eh,
  • 00:17:23
    e também como é que pros profissionais
  • 00:17:25
    agora que trabalham com o SEO, que é
  • 00:17:26
    você ranquear nas buscas, como é que
  • 00:17:27
    eles vão se preparar para isso? Porque o
  • 00:17:29
    SEO tinha certas regras e tudo mais.
  • 00:17:30
    Como é que a IA agora lê e mostra qual é
  • 00:17:32
    a melhor informação? O SEO era um pouco
  • 00:17:34
    mais fácil de você decifrar. Agora vai
  • 00:17:36
    ter um soado em a. Como é que é essa
  • 00:17:38
    questão? Eu já tinha levantado isso
  • 00:17:39
    antes quando eu tinha analisado o acho
  • 00:17:41
    acredito que o Google do ano passado,
  • 00:17:43
    mas agora realmente tá cada vez mais e
  • 00:17:45
    preocupante como é que você vai estar
  • 00:17:46
    com isso. De certa forma, pelo menos
  • 00:17:48
    eles mostraram que eles vão mostrar ali
  • 00:17:49
    na direita, criadores independentes,
  • 00:17:51
    empresa embaixo, sabe? Então, em teoria
  • 00:17:54
    pode ser que ajude, mas fica muito, o
  • 00:17:56
    jogo agora tá incerto para você que
  • 00:17:58
    produz conteúdo, para você saber como
  • 00:18:00
    realmente você pode produzir o conteúdo
  • 00:18:01
    para ele aparecer na primeira página,
  • 00:18:02
    porque agora também é tudo customizado.
  • 00:18:04
    Então, a primeira página para uma pessoa
  • 00:18:06
    não é a primeira página para outra, já
  • 00:18:07
    era customizado antes, mas agora é mais
  • 00:18:08
    ainda. Antigamente você sabia que o seu
  • 00:18:10
    site tinha uma autoridade de domínio
  • 00:18:12
    muito boa, ele ia ranquear lá no Google.
  • 00:18:14
    Agora não necessariamente, porque vai
  • 00:18:15
    depender do que a pessoa conversou por
  • 00:18:17
    e-mail, do que ela tá falando da busca,
  • 00:18:19
    da complemento da busca. Então,
  • 00:18:22
    realmente não sabemos como é que vai ser
  • 00:18:23
    em breve. E as empresas maiores pode ser
  • 00:18:26
    que elas ganhem mais dinheiro com isso,
  • 00:18:27
    que, por exemplo, a pessoa que já ia
  • 00:18:28
    reservar um hotel, pode ser que ela
  • 00:18:30
    chegue mais rápido no hotel, mas uma
  • 00:18:31
    pessoa que produz conteúdo independente,
  • 00:18:33
    tem o seu próprio blog, talvez a pessoa
  • 00:18:35
    não e ela ganhava com a com o anúncio,
  • 00:18:38
    não vai monetizar tanto. Então, talvez o
  • 00:18:40
    caminho dos blogos seja ter seus
  • 00:18:41
    próprios produtos ou justamente você,
  • 00:18:43
    por exemplo, lá um hotel, etc., ter o
  • 00:18:45
    seu próprio block, aí vai aparecer mais
  • 00:18:46
    nas buscas. Então aqui é só uma um
  • 00:18:49
    brainstorm aqui que eu tô fazendo em
  • 00:18:50
    relação como é que pode ser. o cenário
  • 00:18:52
    aqui para quem produz conteúdo, para
  • 00:18:53
    quem eh precisa trazer tráfego orgânico,
  • 00:18:55
    por exemplo, pro seu negócio, o que que
  • 00:18:57
    pode mudar? Então, acredito que você ter
  • 00:18:58
    o seu próprio produto, já é mais
  • 00:19:00
    garantido que a pessoa vai clicar lá e
  • 00:19:01
    ter uma transação, porque de anúncios
  • 00:19:03
    pode ser que reduza muito o tráfego, a
  • 00:19:05
    visibilidade de anúncios e quanto que o
  • 00:19:07
    pessoal já ganhava pouco dinheiro, né,
  • 00:19:09
    com block, antigamente ganhava muito
  • 00:19:10
    mais, agora para diminuir mais ainda.
  • 00:19:12
    Agora vamos ver aqui o flow. Esse aqui é
  • 00:19:15
    interessante, ele combina com aquela
  • 00:19:16
    outra que eu falei anteriormente, que é
  • 00:19:18
    o Vio 3, que ele gera os vídeos agora
  • 00:19:20
    com som, só que esse aqui é um editor e
  • 00:19:22
    criador de vídeo de IA ao mesmo tempo e
  • 00:19:25
    ele pode junto com, principalmente
  • 00:19:26
    juntando com o poder do Vio 3,
  • 00:19:28
    revolucionar a criação de vídeos. E se
  • 00:19:30
    você não acredita em mim, vamos ver aqui
  • 00:19:31
    o
  • 00:19:37
    [Aplausos]
  • 00:19:52
    vídeo. Então vamos lá. O que que ele
  • 00:19:54
    fez? Ele pode ter gerado no no de
  • 00:19:56
    imagem, qualquer outro lugar de imagem.
  • 00:19:57
    Ele gerou um senhor e um carro. Ok.
  • 00:19:59
    Esses aqui são os ingredientes do vídeo
  • 00:20:01
    que ele quer montar aqui. Tá montando o
  • 00:20:02
    vídeo do zero, tá?
  • 00:20:10
    Ou você poderia gerar ali dentro
  • 00:20:11
    diretamente, mas vamos botar que você
  • 00:20:13
    botou aqui as suas próprias imagens.
  • 00:20:20
    Aí ele fez isso, ele gerou uma imagem lá
  • 00:20:22
    dentro que era como se fosse como se
  • 00:20:24
    fosse a marcha do carro, né? com a
  • 00:20:25
    cabeça de uma galinha de ouro. Aí vamos
  • 00:20:27
    ver como é que ele vai incrementar isso
  • 00:20:29
    no
  • 00:20:38
    vídeo. Aí você falou: "Ah, vai ser um
  • 00:20:40
    ângulo baixo de 8 mm da filmagem". Aí
  • 00:20:43
    foi uma coisa mais técnica explicando
  • 00:20:45
    como é que vai ser filmado, né? e num
  • 00:20:46
    carro que tá se balançando e
  • 00:20:53
    rápido. Tá dizendo que você pode botar
  • 00:20:56
    ângulos muito específicos e ele vai
  • 00:20:58
    gerar ali para você as opções.
  • 00:21:16
    E aí, basicamente o que ele vai fazer
  • 00:21:18
    aqui é o seguinte, ele botou, ele tem
  • 00:21:19
    duas opções, que é jump e o outro que é
  • 00:21:21
    estender. Ele botou a opção jump, que é
  • 00:21:23
    para mudar o corte da cena e vai para
  • 00:21:24
    uma outra cena. Aí ele botou um prompt
  • 00:21:26
    aqui muito mais complexo para ficar uma
  • 00:21:27
    coisa mais interessante, mas vai mudar
  • 00:21:30
    de uma cena para outra. Então ele já tá
  • 00:21:31
    gerando aqui e já tá editando e juntando
  • 00:21:33
    tudo num lugar só.
  • 00:21:44
    Então ele gerou o a consistência de
  • 00:21:46
    personagem que a gente chama, né, que é
  • 00:21:48
    o mesmo senhor que tá ali, é o mesmo
  • 00:21:50
    carro com a mesma marcha e agora tem uma
  • 00:21:52
    galinha em cima e aí ele gerou esse
  • 00:21:54
    prompt e agora a galinha e o carro vão
  • 00:21:56
    cair do penhasco.
  • 00:22:03
    Mas só um detalhe, né? Tá vendo como as
  • 00:22:05
    coisas parecem meio borradas? geração de
  • 00:22:06
    vídeo não parece tão boa que eu que eu
  • 00:22:07
    mencionei anteriormente. Isso que eu
  • 00:22:09
    achei meio mais ou menos assim, a
  • 00:22:11
    funcionalidade parece incrível. Agora a
  • 00:22:13
    geração do vídeo para mim tá meio
  • 00:22:15
    estranha, não sei, não tá parecendo tão
  • 00:22:16
    realista. Então tem que ver como é que
  • 00:22:18
    isso aqui vai melhorar. Parece a geração
  • 00:22:19
    de vídeo de algumas IAIS um pouquinho
  • 00:22:21
    mais antigas, sabe? E mas vamos ver no
  • 00:22:23
    na prática mesmo como é que vai est.
  • 00:22:39
    Então o que ele vai fazer o seguinte, eu
  • 00:22:40
    não queria que ele tivesse caído, é
  • 00:22:42
    porque aí acabou gerando isso. Então eu
  • 00:22:43
    vou cortar, vou voltar com a setinha
  • 00:22:44
    para lá e vou botar estender e vou
  • 00:22:46
    falar: "Não vai cair". Ele botou um
  • 00:22:48
    prompt lá complexo, mas em resumir esse
  • 00:22:49
    não vai cair. Agora o carro vai voar e
  • 00:22:51
    aí realmente ele vai gerar aqui o carro
  • 00:22:53
    voando. Isso que é legal.
  • 00:23:09
    E aí agora ele falou: "Ah, botei aqui no
  • 00:23:11
    meu software edição, botei a música de
  • 00:23:12
    fundo e vou lá. vai ter aqui agora o
  • 00:23:15
    vídeo
  • 00:23:16
    [Música]
  • 00:23:31
    [Música]
  • 00:23:35
    pronto. Não, isso aqui eu realmente com
  • 00:23:37
    eh juntando ainda mais com outro defeito
  • 00:23:39
    sonoro, eu acho que pode ser incrível.
  • 00:23:40
    Imagina, você pode fazer a sua série da
  • 00:23:42
    Netflix de certa forma. Claro que, como
  • 00:23:44
    eu vou mostrar depois ainda nesse vídeo
  • 00:23:45
    aqui, eh os planos estão salgados, eh
  • 00:23:48
    vai demorar ainda para lançar certas
  • 00:23:49
    coisas, mas o futuro é bastante
  • 00:23:52
    promissor para quem produz conteúdo. É,
  • 00:23:54
    realmente parece até uma coisa de Black
  • 00:23:56
    Mirror, né? Teve até um episódio do
  • 00:23:57
    Black Mirror recente que era mais ou
  • 00:23:58
    menos isso, que você pode gerar várias
  • 00:24:00
    variações diferentes e de um show e pode
  • 00:24:02
    ser customizado com o que você quer. É
  • 00:24:05
    realmente assim incrível que pode ser
  • 00:24:06
    feito no futuro. Agora vamos ver aqui o
  • 00:24:09
    Gemini 2.5 Pro que ele adicionou o modo
  • 00:24:11
    de raciocínio aprimorado, tá? Esse aqui
  • 00:24:14
    não tem muita coisa assim para mostrar o
  • 00:24:15
    vídeo para vocês de forma geral o porque
  • 00:24:17
    também tá incrementando em várias outras
  • 00:24:19
    funcionalidades deles. Então, só para
  • 00:24:21
    resumir aqui para vocês, eles lançaram a
  • 00:24:23
    o modo de deep think dele, né, de
  • 00:24:25
    pensamento aprimorado e que e segundo os
  • 00:24:28
    dados ali das pesquisas, tá nos
  • 00:24:29
    benchmarks, ele tá indo melhor do que,
  • 00:24:31
    por exemplo, a Open AI do chat GPT em
  • 00:24:34
    matemática, em programação e raciocínio
  • 00:24:37
    multimodal. Aqui no último tá bem
  • 00:24:38
    pequenininho assim o o aumento, mas é
  • 00:24:41
    isso. Então é sempre fazem esses
  • 00:24:41
    benchmark. Geralmente os que são melhor
  • 00:24:43
    para cada IA, né, que você mostra.
  • 00:24:45
    Depois tem que ver outro site como LM
  • 00:24:46
    Arena e tal, pra gente ver a comparação
  • 00:24:48
    de usuários e muito mais. E agora aqui,
  • 00:24:50
    ó, o Gemini 2.5 Pro, você também pode
  • 00:24:53
    configurar o quanto ele deve pensar e
  • 00:24:55
    quanto que ele vai gastar de tokens.
  • 00:24:57
    Então, se você vai ativar esse modo de
  • 00:24:59
    pensamento profundo e quanto que ele vai
  • 00:25:01
    gastar também. Então, porque vai ter
  • 00:25:02
    tarefas que você vai querer que ele
  • 00:25:03
    pense menos, que ele gaste menos do seu
  • 00:25:04
    crédito ou pode ter tarefas que você
  • 00:25:07
    acha que ele deve pensar mais, ir mais
  • 00:25:08
    fundo, que você precisa de uma coisa
  • 00:25:09
    mais aprimorada. Então isso aqui também
  • 00:25:11
    é uma coisa interessante que eles
  • 00:25:12
    lançaram. E agora ela vai mostrar o GM
  • 00:25:14
    2.5 Pro executando uma tarefa de
  • 00:25:16
    programação para você ver na prática.
  • 00:25:23
    Ela já tinha parte do código e alguém
  • 00:25:25
    trouxe ali um rascunho de que seria uma
  • 00:25:26
    coisa tridimensional, que é uma coisa
  • 00:25:28
    que ela falou na apresentação que era
  • 00:25:29
    complexa e tal. Então ele vai pegar as
  • 00:25:31
    fotos que você tirou lá do museu e vai
  • 00:25:33
    botar num ambiente tridimensional, onde
  • 00:25:34
    cada vez que ele vira, ele tem que
  • 00:25:36
    mostrar uma foto na cara da pessoa para
  • 00:25:37
    ela poder ver. Então, é uma coisa mais
  • 00:25:39
    complexazinha mesmo e que o 2.5 Pro vai
  • 00:25:41
    fazer para você e vai e você vai ver ao
  • 00:25:43
    vivo ele executando.
  • 00:25:57
    Então foi isso, foi realmente baseado e
  • 00:26:00
    num esboço que alguém levantou ali,
  • 00:26:01
    desenhou no papel e ele foi lá e
  • 00:26:03
    executou. Isso é muito interessante pela
  • 00:26:05
    questão da produtividade que pode trazer
  • 00:26:07
    para desenvolvimento de software, para
  • 00:26:08
    programadores, é, pras pessoas de
  • 00:26:10
    startup e para muitas outras coisas
  • 00:26:12
    também. E para você ficar atualizado
  • 00:26:13
    sobre is e muito mais, eu recomendo você
  • 00:26:15
    se inscrever aqui no canal e ativar o
  • 00:26:17
    sininho. Só assim você vai receber
  • 00:26:18
    vídeos de notícias, tutoriais completos,
  • 00:26:20
    nossas análises e muito mais aqui no
  • 00:26:22
    canal, porque senão você não vai saber
  • 00:26:24
    se o YouTube vai entregar ou não para
  • 00:26:25
    você. Ativando o sininho, você garante
  • 00:26:26
    isso, tá? E se o conteúdo que tá
  • 00:26:28
    interessante, as outras que você tá
  • 00:26:29
    gostando, por favor, dá uma curtida,
  • 00:26:31
    comenta ou aperta o botão hypar. Isso
  • 00:26:33
    ajuda demais aqui o canal a entregar
  • 00:26:34
    mais conteúdo para as pessoas e a
  • 00:26:36
    remunerar também o nosso trabalho aqui
  • 00:26:38
    eh para vocês trazendo as novidades e
  • 00:26:40
    analisando, tá? E mas também eu também
  • 00:26:42
    quero dar algo para você aqui. Tem
  • 00:26:43
    ferramentas, planilhas, mais de 500
  • 00:26:45
    promps grátis e todos os materiais que a
  • 00:26:46
    gente já lançou. Tem o link aqui na
  • 00:26:48
    descrição ou no comentário fixado ou
  • 00:26:50
    nesse QRcode aqui. Se você tiver vendo
  • 00:26:51
    na TV também pode apontar o celular que
  • 00:26:53
    você vai ter acesso a tudo que a gente
  • 00:26:55
    já lançou grátis aqui para vocês com
  • 00:26:56
    tutoriais e muito mais, tá? Mas se você
  • 00:26:59
    quiser levar o seu conhecimento em IAS
  • 00:27:01
    para o próximo nível, tem o nosso curso,
  • 00:27:03
    o Mestre das IA, que tem mais de 130
  • 00:27:05
    aulas, visita em 18 módulos, que te
  • 00:27:07
    ajuda realmente você a fazer dinheiro
  • 00:27:09
    com IAs, saber aplicar IA no seu
  • 00:27:11
    trabalho, no seu novo negócio, uma renda
  • 00:27:13
    extra muito mais, tá? É um curso muito
  • 00:27:15
    completo que a gente fez com muito
  • 00:27:17
    carinho e acredito pode ajudar muito na
  • 00:27:19
    sua vida, não só para você eh aprender
  • 00:27:21
    sobre IAG, mas como realmente executar
  • 00:27:22
    para poder fazer dinheiro e negócios. E
  • 00:27:25
    aqui também temos o nosso mestre dos
  • 00:27:26
    prompt, que é o nosso pacote de prompt e
  • 00:27:28
    o mestre do network, que é a nossa
  • 00:27:29
    comunidade também, tá tudo aqui no link
  • 00:27:30
    da descrição e no comentário fixado para
  • 00:27:32
    você ver depois, tá? E o Google também
  • 00:27:34
    lançou um novo sistema, é, que é o
  • 00:27:36
    Android XR, que é para ser usado em
  • 00:27:38
    óculos, o de questão da realidade
  • 00:27:40
    aumentada, é com uma IA que responde
  • 00:27:42
    você em tempo real as coisas. Eu já vou
  • 00:27:44
    até fazer uma
  • 00:27:49
    comparação. Então isso aqui é a visão
  • 00:27:52
    dela, né, do óculos. Tanto que tá um
  • 00:27:54
    pouquinho mais escurecida a imagem que
  • 00:27:55
    foi feita lá na apresentação e no óculos
  • 00:27:58
    já tá mostrando aqui embaixo a
  • 00:27:59
    temperatura e a hora dela. Então tudo
  • 00:28:02
    que ela tá vendo vai tá mostrando aqui
  • 00:28:03
    no óculos, porque o óculos ele vai ter
  • 00:28:04
    uma partezia que tem uma tela que você
  • 00:28:06
    pode ver através, mas a informação
  • 00:28:07
    também que aparece aqui você tá vendo
  • 00:28:09
    ela ao vivo. Tanto que em alguns ângulos
  • 00:28:11
    já viu uns óculos desse, você consegue
  • 00:28:13
    ver mais ou menos a telinha que tem ali.
  • 00:28:15
    Eu vou já falar um pouquinho mais sobre
  • 00:28:16
    o mercado disso, né, e umas coisas que o
  • 00:28:18
    Google fez no passado em relação a isso.
  • 00:28:19
    Mas aqui você já vai ver a aplicação de
  • 00:28:21
    como é que funciona esse óculos com
  • 00:28:23
    realidade aumentada e a integrado.
  • 00:28:32
    Presta muita atenção que ela mostrou um
  • 00:28:33
    café ali e tinha uma logo do café. Essa
  • 00:28:36
    informação vai ser relevante daqui a
  • 00:28:37
    pouco. E ali ele começou a mostrar que
  • 00:28:39
    ela recebeu uma mensagem. É como se
  • 00:28:41
    fosse um smartwatch, só que em vez de
  • 00:28:42
    você olhar para baixo, já tá no seu
  • 00:28:43
    óculos usando diretamente.
  • 00:28:59
    Então aquele copo que ela mostrou, o
  • 00:29:01
    Gémini teve memória. Agora não sei
  • 00:29:02
    também como é que eles vão estipular
  • 00:29:03
    isso, quanto tempo é de memória. Você
  • 00:29:05
    vai ficar sempre gravando, ele esquece
  • 00:29:06
    quanto tempo que ele vai gravar.
  • 00:29:08
    Realmente isso até preocupante, né?
  • 00:29:09
    Porque tudo que você tá vendo, o óculos
  • 00:29:11
    vai est vendo, né? Então não sei como é
  • 00:29:12
    que eles vão lidar em relação a isso,
  • 00:29:13
    né? Mas ele lembrou ali qual era a
  • 00:29:17
    empresa que apareceu ali do do copo que
  • 00:29:19
    ela tava bebendo e agora vai fazer
  • 00:29:20
    perguntas específicas a isso.
  • 00:29:28
    Aí tá mostrando assim: "Ah, se eu
  • 00:29:29
    quisesse andar de lá para cá, quanto
  • 00:29:30
    tempo demoraria?" Aí falou: "Vai demorar
  • 00:29:32
    uma hora". E aqui já tá começando a
  • 00:29:33
    mostrar as instruções para você andar.
  • 00:29:42
    Ou você pode ver um mapa 3D também que
  • 00:29:44
    te mostra exatamente como é que você
  • 00:29:45
    pode chegar lá. Isso aqui eu acho legal
  • 00:29:46
    nessas funções de óculos, além de outras
  • 00:29:48
    coisas também, né? Por exemplo, podia
  • 00:29:49
    gravar esse vídeo aqui com o roteiro,
  • 00:29:51
    lendo um roteiro. Esse vídeo aqui tá
  • 00:29:52
    sendo improvisado, tô falando aqui com
  • 00:29:53
    vocês, mas se eu quisesse fazer um vídeo
  • 00:29:54
    roteirizado, eu já podia estar vendo ali
  • 00:29:56
    no óculos, entre várias outras coisas
  • 00:29:58
    que podem ser utilizados também.
  • 00:30:06
    Aí eles falam lá depois que empresas
  • 00:30:08
    grandes ali de óculos já estão fazendo
  • 00:30:10
    parceria para poder trazer o design,
  • 00:30:11
    porque a ideia eles é implementarem esse
  • 00:30:13
    sistema em e empresas de óculos, que nem
  • 00:30:16
    fez a meta com o HBAN. Então é um jeito,
  • 00:30:20
    uma resposta à meta com o HBAN. E ao
  • 00:30:23
    mesmo tempo também eles estão liberando
  • 00:30:25
    o código e tá sendo feito um a Samsung
  • 00:30:27
    tá fazendo o seu próprio óculos também,
  • 00:30:29
    que aí é para competir diretamente com o
  • 00:30:30
    Apple Vision Pro. Esse aqui é o óculos
  • 00:30:32
    que a Samsung tá lançando, que ele aí
  • 00:30:34
    compete mais diretamente e tal nas
  • 00:30:36
    funções que tem, porque um é como se
  • 00:30:37
    fosse uma realidade ah aumentada, mais
  • 00:30:40
    discreta com outras fabricantes. Aqui é
  • 00:30:42
    o fabricante específico que é a Samsung
  • 00:30:44
    e com funcionalidades diferentes de cada
  • 00:30:46
    um, tá? E você pode também tirar foto
  • 00:30:48
    com esse óculos. Então também e eu acho
  • 00:30:50
    interessante essa questão para você
  • 00:30:51
    poder tirar foto num momento qualquer,
  • 00:30:52
    assim, não ter que pegar o celular ou às
  • 00:30:54
    vezes coisa que você gostaria de ter
  • 00:30:55
    tirado foto e acaba perdendo
  • 00:30:56
    oportunidade. Pode ser interessante, mas
  • 00:30:58
    vamos ver como é que vai ser isso na
  • 00:30:59
    prática, tá? E até a brincadeira, né?
  • 00:31:01
    Será que dessa vez o Google Glass vai
  • 00:31:03
    realmente funcionar? Não sei se vocês
  • 00:31:04
    lembram a que o Google tinha tentado
  • 00:31:05
    lançar um tempo atrás o Google Glass,
  • 00:31:07
    mas não vingou e a ideia era um
  • 00:31:08
    projetorzinho que você olhava ali, mas
  • 00:31:10
    não tinha óculos. Era uma coisa que
  • 00:31:11
    parecia estranha e você já via que era o
  • 00:31:14
    coisa do Google Glaz. Eu acho que tinha
  • 00:31:15
    também perguntas que eh considerações
  • 00:31:17
    que as pessoas fizeram em relação à
  • 00:31:18
    privacidade. Agora, como é que vai ser
  • 00:31:19
    essa questão em relação ao óculos? Será
  • 00:31:21
    que hoje em dia também as pessoas já
  • 00:31:22
    lidam com a privacidade diferente, não
  • 00:31:25
    se importam tanto quanto antigamente,
  • 00:31:26
    foi há quase 11 anos atrás que lançou.
  • 00:31:28
    Então vamos ver se agora realmente o
  • 00:31:30
    Google foi muito à frente do tempo dele,
  • 00:31:32
    se a sociedade mudou, como é que vai ser
  • 00:31:34
    realmente, se as pessoas vão realmente
  • 00:31:36
    abraçar essa questão do do óculos, né?
  • 00:31:38
    Apesar de que já existem outros que
  • 00:31:39
    estão aí no mercado, né? E o principal
  • 00:31:40
    também vai ser o preço disso, né? quanto
  • 00:31:42
    que vai custar isso aqui e
  • 00:31:43
    aplicabilidade mesmo, se vai funcionar
  • 00:31:44
    direito, né? Isso também vai dizer
  • 00:31:46
    muito. Mas essas outras questões, na
  • 00:31:47
    minha, na minha visão de privacidade e
  • 00:31:50
    etc também acho que vão ser consideradas
  • 00:31:51
    e gostaria de saber de vocês também se
  • 00:31:53
    vocês ligam para isso ou não. Agora o
  • 00:31:55
    projeto Astra é melhorado dentro do
  • 00:31:58
    Gemini Live, tá? O agente de A que vai
  • 00:32:00
    te ajudar na vida real. É uma coisa que
  • 00:32:02
    já tinham mostrado antes e agora vai tá
  • 00:32:04
    melhor.
  • 00:32:17
    Então era o que nem tem o chat de PT
  • 00:32:19
    também, você pode perguntar e etc. Ele
  • 00:32:21
    também fazia isso, ele viu ao seu redor
  • 00:32:22
    e você pode perguntar e se preparar para
  • 00:32:24
    entrevistas e muito mais, como eles
  • 00:32:26
    mostraram na apresentação do ano
  • 00:32:28
    passado, só que agora ele vai estar
  • 00:32:28
    melhorado.
  • 00:32:37
    Aí agora eles vão fazer uma
  • 00:32:37
    brincadeirinha porque eles vão até
  • 00:32:39
    mostrar a capacidade de processamento na
  • 00:32:40
    questão que a pessoa tenta enganar a IA
  • 00:32:42
    fazendo perguntas muito idiotas de
  • 00:32:44
    coisas que a ia ficar confusa, mas a IA
  • 00:32:47
    dá uma resposta e rápida, direta e
  • 00:32:50
    precisa.
  • 00:33:04
    tá falando assim: "Ah, aquilo dali
  • 00:33:04
    parece um carro conversível". Não,
  • 00:33:06
    aquilo dali é uma um carro de lixo.
  • 00:33:09
    Depois, o que que é esse prédio alto
  • 00:33:10
    aqui fininho? Não, isso aqui é um poste
  • 00:33:12
    de luz.
  • 00:33:18
    Porque essas palmeiras são tão baixas e
  • 00:33:20
    ele vai falar: "Não, essas palmeiras até
  • 00:33:21
    que na verdade são bem altas". Então ele
  • 00:33:23
    tem uma relação contextual também de
  • 00:33:24
    entender o ambiente, não só de corrigir,
  • 00:33:26
    de dar resposta rápida, mas também de
  • 00:33:28
    entender. Tipo, ele sabe mais ou menos
  • 00:33:29
    pelo ângulo de vista da pessoa qual que
  • 00:33:31
    seria o tamanho de uma palmeira. E e ela
  • 00:33:33
    tá falando, isso aqui são até palmeiras
  • 00:33:34
    bem altas. Então é interessante assim,
  • 00:33:36
    fizeram uma brincadeirinha, mas é isso
  • 00:33:38
    aí, novamente evoluindo algo que eles já
  • 00:33:40
    estavam fazendo e tal.
  • 00:33:48
    É isso, eles fazem essas
  • 00:33:50
    brincadeirinhas, mas essa tecnologia
  • 00:33:52
    também tem tudo a ver com outras coisas,
  • 00:33:53
    né? Com os óculos que vão lançar. Se
  • 00:33:55
    você parar para pensar, essa
  • 00:33:56
    reconhecimento de ambiente tem a ver
  • 00:33:58
    também com a questão dos óculos. Então
  • 00:33:59
    são tecnologias incrementais. Eles
  • 00:34:01
    lançam várias tecnologias que conversam
  • 00:34:03
    entre si. Tanto que fica até às vezes
  • 00:34:04
    meio confuso, porque eles mencionam uma
  • 00:34:05
    tecnologia que foi falada antes, agora
  • 00:34:07
    aplicada no Chrome, aplicada não sei
  • 00:34:08
    aonde. Você fica até meio confuso com
  • 00:34:10
    tanto nome que tem de cada projeto, de
  • 00:34:12
    cada coisa. por exemplo, Project
  • 00:34:14
    Mariner, né, que na verdade é o agente
  • 00:34:16
    de uso do computador. Eh, por exemplo,
  • 00:34:18
    humanos dele. Hoje em dia acho que o
  • 00:34:19
    mais palpável da gente ver de forma
  • 00:34:21
    geral humanos. Aquele gente que você
  • 00:34:22
    pede para ele uma coisa, ele pesquisa
  • 00:34:24
    para você, depois executa. A gente chama
  • 00:34:25
    de a gente usa do computador porque ele
  • 00:34:27
    toma controle sobre o computador, seja
  • 00:34:29
    sobre um computador remoto, seja sobre o
  • 00:34:31
    seu computador, que era como o Cloud
  • 00:34:32
    estava fazendo, eu já mostrei aqui no
  • 00:34:33
    canal com computer use, ou como eh o
  • 00:34:36
    Google tinha começado utilizando o
  • 00:34:38
    navegador que era o Project Mariner, tá?
  • 00:34:40
    E, e agora até tô até em dúvida se eles
  • 00:34:42
    realmente estão aplicando o navegador ou
  • 00:34:43
    não, mas eles começaram a integrar em
  • 00:34:45
    outras partes que eu vou mostrar aqui
  • 00:34:46
    para vocês.
  • 00:34:53
    Aí a principal coisa que eles falaram,
  • 00:34:55
    melhorias incrementadas, como eu falei,
  • 00:34:56
    evoluções, né? Ele pode fazer 10 tarefas
  • 00:34:59
    simultâneas. Então, é como se você
  • 00:35:00
    tivesse 10 pessoas trabalhando para você
  • 00:35:02
    ou uma pessoa fazendo 10 coisas ao mesmo
  • 00:35:03
    tempo para o mesmo projeto. Isso é uma
  • 00:35:05
    das e melhorias que eles estão fazendo
  • 00:35:07
    no Project Mariner.
  • 00:35:10
    செகண்ட இ
  • 00:35:21
    யீட் Então eles estão fazendo mais
  • 00:35:24
    tarefas paralelas e também estão
  • 00:35:26
    deixando ele mais inteligente de se ele
  • 00:35:27
    já fez uma coisa antes, ele pode
  • 00:35:28
    executar do jeito que você quer no
  • 00:35:29
    futuro, que mais ou menos tem um
  • 00:35:30
    pouquinho no manus, apesar deles usarem
  • 00:35:32
    mais como prompt, então acho me parece
  • 00:35:35
    mais uma resposta direta ao manus de
  • 00:35:38
    certa forma,
  • 00:35:47
    eles estão liberando para outros paraos
  • 00:35:48
    desenvolvedores, etc, poderem trabalhar
  • 00:35:49
    com essa tecnologia através da API. E
  • 00:35:53
    agora vamos ver como é que fica isso
  • 00:35:54
    quando eles integram com o Gemini app
  • 00:35:57
    que faz o agente
  • 00:36:00
    mode.
  • 00:36:04
    Agente. AD.
  • 00:36:14
    Bem, é o seguinte, dentro do aplicativo
  • 00:36:15
    do Gemia, você vai poder clicar nesse
  • 00:36:17
    agente mode e aí como se você já tivesse
  • 00:36:19
    rodando, que nem eu falei, humanos lá
  • 00:36:20
    dentro e fazendo coisa para você. Então
  • 00:36:23
    não sei se eles ainda estão seguindo
  • 00:36:24
    tanto com a questão de estar dentro do
  • 00:36:25
    navegador do Chrome, se vai ser mais
  • 00:36:27
    esse uso interno Gemini, ou talvez são
  • 00:36:29
    os dois mesmo, mas eles estão chamando
  • 00:36:31
    bastante atenção que agora ele vai estar
  • 00:36:32
    integrado dentro Gemini, talvez para
  • 00:36:34
    também chamar as pessoas a utilizarem
  • 00:36:35
    mais o Gemini de uma forma geral do que
  • 00:36:37
    ter um outro aplicativo separado. Vamos
  • 00:36:38
    ver como é que vai ser isso depois
  • 00:36:40
    quando chegar pra gente utilizar. Mas
  • 00:36:42
    ele já vai pedir aqui, ele vai fazer a
  • 00:36:44
    busca, vai fazer todo o trabalho ali
  • 00:36:55
    dentro. Que nem humanos também, ele
  • 00:36:58
    mostra al as coisas que ele vai fazer.
  • 00:36:59
    Você pode editar o plano ou começar
  • 00:37:01
    nesse plano que ele levantou ali das
  • 00:37:03
    tarefas.
  • 00:37:14
    E aí agora ele tá usando o pro marino
  • 00:37:15
    para pesquisar como se fosse uma pessoa
  • 00:37:17
    lá dentro. E aí provavelmente você
  • 00:37:18
    poderia mexer aqui dentro, dar o preview
  • 00:37:21
    para você ver. Realmente tá parecendo
  • 00:37:23
    mais parecido assim com com humanos.
  • 00:37:54
    கலவidade de forma geral, né? Resumindo,
  • 00:37:56
    mas é interessante porque a Google, né,
  • 00:37:58
    ela tem acessa a muito mais informações
  • 00:38:00
    do que às vezes o manus tem que tentar
  • 00:38:03
    pegar manualmente que ele usa várias e
  • 00:38:04
    diferentes, né, várias linguagens e vai
  • 00:38:06
    tentando ali, quase em alguns casos como
  • 00:38:08
    gambiarra, porque você ele não consegue
  • 00:38:09
    acessar certo site, etc. E talvez a
  • 00:38:11
    Google consiga ter mais acessos. Então
  • 00:38:13
    isso vai ser interessante para ver como
  • 00:38:15
    é que vai ser essa competição da Google
  • 00:38:16
    com humanos nessa questão de agente de
  • 00:38:18
    uso do computador, tá? Porque o Cláudio
  • 00:38:20
    eu também não vejo muito falar hoje em
  • 00:38:21
    dia. Do chat de PT também, se eu não me
  • 00:38:23
    engano, tava no plano mais caro. Eu
  • 00:38:24
    também ouvi mais no início, mas não vejo
  • 00:38:25
    tanto pessoal falar bem ver como é que
  • 00:38:27
    vai ser o pro de marina também. Então eu
  • 00:38:29
    acho que também muito vai ser em relação
  • 00:38:31
    a preço, né, para poder dar acesso às
  • 00:38:33
    pessoas. E agora a maior e como vou
  • 00:38:35
    mostrar depois maior parte das coisas
  • 00:38:36
    vai estar num plano bem mais caro para
  • 00:38:37
    você ter acesso e depois vai liberar
  • 00:38:39
    para baixo. Mas quando, né? Essa que é a
  • 00:38:41
    questão também. Agora vamos ver a
  • 00:38:42
    inovação do search life, que em resumo é
  • 00:38:45
    uma busca com a funcionalidade de a de
  • 00:38:47
    reconhecer o ambiente e dar resultados
  • 00:38:49
    de busca com referência de site, etc.
  • 00:38:51
    onde buscou informação. Usando o project
  • 00:38:54
    as novamente os nomes e para fazer as
  • 00:38:56
    integrações. E eu fico meio confuso com
  • 00:38:58
    tanto nome, não sei vocês, mas vamos ver
  • 00:39:00
    como é que isso aqui é na
  • 00:39:04
    praia. Tá vendo o que que tá acontecendo
  • 00:39:06
    aqui? Eh, ele fez uma busca utilizando a
  • 00:39:09
    visão do celular e ali ele vai fazer uma
  • 00:39:11
    busca embaixo. Então não é só você falar
  • 00:39:14
    e aí te dá uma resposta, que ele vai
  • 00:39:16
    mostrar sites que tem a resposta e tudo
  • 00:39:18
    mais. Então é pegar a funcionalidade que
  • 00:39:19
    já tava utilizando, só que em vez de só
  • 00:39:21
    ir a responder, agora ele vai estar
  • 00:39:22
    integrado com a busca e te dar
  • 00:39:23
    resultados em relação a isso. Então um
  • 00:39:25
    jeito diferente de você buscar.
  • 00:39:37
    Então assim, ele também dava tutorial.
  • 00:39:39
    Ah, eu tô fazendo aqui um experimento
  • 00:39:40
    científico. Como é que eu posso fazer
  • 00:39:41
    isso aqui? Ah, eu tenho essa outra coisa
  • 00:39:43
    aqui. Você consegue identificar qual
  • 00:39:44
    experimento é esse? Então, ele pode te
  • 00:39:46
    ajudar com o tutorial. Ele mostra os
  • 00:39:48
    sites relevantes para você aprender. É,
  • 00:39:50
    integrar a busca com outra
  • 00:39:51
    funcionalidade que já tinha. Agora
  • 00:39:53
    também tem o Gemini integrado ao Chrome,
  • 00:39:55
    tá?
  • 00:40:14
    browsut. Bem, isso aqui de forma geral é
  • 00:40:16
    em vez de você ter que pegar um link e
  • 00:40:18
    jogar no Gemini ou às vezes nem
  • 00:40:19
    conseguir ler o chat PT, às vezes tem
  • 00:40:21
    você manda o a URL, não lê direito o que
  • 00:40:23
    que tem lá dentro. O que você vai fazer?
  • 00:40:24
    Você vai clicar ali em cima e ele vai
  • 00:40:26
    ler o conteúdo, porque já porque como a
  • 00:40:28
    Google é dona do Chrome, né, que é o
  • 00:40:30
    maior eh browser que tem na internet,
  • 00:40:32
    eles podem fazer essas coisas. Então
  • 00:40:34
    eles têm o GM integrado e aí o Gini vai
  • 00:40:36
    ter acesso a ler a página que você tá
  • 00:40:38
    ali dentro e aí você pode pedir
  • 00:40:39
    justamente para ele poder resumir para
  • 00:40:41
    você. Então, em que algumas outras às
  • 00:40:43
    vezes tm limitação porque elas não têm
  • 00:40:45
    um browser integrado. Dessa forma, o
  • 00:40:47
    Google tá então integrando a IA com a
  • 00:40:50
    leitura e e saber o que realmente você
  • 00:40:52
    tá vendo. E você pode então disso tirar
  • 00:40:54
    o melhor proveito possível, fazer
  • 00:40:55
    resumo, fazer comparações. Você tá vendo
  • 00:40:57
    ali, sei lá, talvez tenha várias coisas
  • 00:40:59
    com várias opções é difíceis de compra,
  • 00:41:01
    tipo um computador. Aí tem várias partes
  • 00:41:03
    técnicas. Qual o computador aqui parece
  • 00:41:04
    ser melhor para eu que quero jogar
  • 00:41:05
    jogos? Ele pode talvez fazer a
  • 00:41:06
    comparação para você. Claro que a gente
  • 00:41:08
    vai ver na prática como é que é, mas em
  • 00:41:09
    teoria seria isso, então, né? Como é que
  • 00:41:11
    vai ser, como é que vai custar isso,
  • 00:41:13
    quando vai estar disponível. E eles
  • 00:41:15
    então estão lançando o plano do Google
  • 00:41:16
    Ultra, que é 250 por mês, realmente bem
  • 00:41:20
    caro. Aqui tá o Google AI Pro, que vai
  • 00:41:22
    ser 20 por mês, eh, que tem o Gemini
  • 00:41:25
    app, Flow, o VO2 e o whisky V2. E e aqui
  • 00:41:29
    já tem nas versões mais novas, o V3 é
  • 00:41:31
    aquela coisa, né? É pro early adopters,
  • 00:41:33
    né? As pessoas que estão querendo gastar
  • 00:41:34
    mais dinheiro para chegar primeiro ou
  • 00:41:35
    pessoas que têm uso comercial. e que vão
  • 00:41:37
    usar isso para conteúdo, para ganhar
  • 00:41:39
    dinheiro, etc. Porque 250 é muito caro.
  • 00:41:42
    Eh, o Project Mariner, por exemplo, tá
  • 00:41:43
    aqui na parte do mais caro. Acho que
  • 00:41:45
    você já deve ganhar uma assinatura do
  • 00:41:46
    Google Premium. Você ganha 30 TB de
  • 00:41:49
    guardar. Notebook LM também é que tem
  • 00:41:52
    limites maiores. Então é isso, mas
  • 00:41:54
    outras coisas já estão disponíveis
  • 00:41:55
    antes, que é o Gemini Chrome. O o Gemini
  • 00:41:57
    ele poder atrapalhar ali em cima que eu
  • 00:41:58
    acabei de mostrar o Gemini no Gmail,
  • 00:42:00
    Docs e vídeos e mais. Eu vou mostrar
  • 00:42:02
    aqui no Gmail que tá bem interessante
  • 00:42:03
    também. Mas aqui tá falando que tá
  • 00:42:04
    disponível nos Estados Unidos agora no
  • 00:42:06
    Brasil e outros países eles ainda estão
  • 00:42:08
    ver quando é que eles vão, ainda vão ver
  • 00:42:09
    quando é que eles vão lançar, tá? E
  • 00:42:11
    agora vamos mostrar o Stitch. Ele gera
  • 00:42:13
    interface usando os temas selecionados e
  • 00:42:15
    uma descrição. Esse aqui foi mostrado no
  • 00:42:16
    vídeo de desenvolvimento dos developers.
  • 00:42:20
    Eles fizeram uma outra apresentação que
  • 00:42:22
    era para desenvolvedores
  • 00:42:22
    especificamente. E esse aqui é bem
  • 00:42:24
    interessante porque você bota um prompt
  • 00:42:26
    e ele vai gerar uma interface de usuário
  • 00:42:28
    para um aplicativo, por exemplo, que a
  • 00:42:29
    gente chama de UI. Então você já gera
  • 00:42:31
    ali para você ainda consegue modificar.
  • 00:42:33
    É bem interessante
  • 00:42:47
    mesmo. Ele botou um prompt que assim,
  • 00:42:50
    faça um aplicativo seja descobrindo a
  • 00:42:52
    Califórnia, um aplicativo de turismo,
  • 00:42:54
    por exemplo, e faz o resto aí. Vamos ver
  • 00:42:56
    o que ele vai fazer.
  • 00:43:05
    Ele falou que fez isso um pouquinho
  • 00:43:06
    antes ali, mas que demora geralmente um
  • 00:43:08
    minuto e ele já gerou aqui a interface e
  • 00:43:10
    para esse aplicativo com tudo pronto,
  • 00:43:12
    com a parte de reviews, é, com notas,
  • 00:43:15
    com a parte que você vai dar scroll ali
  • 00:43:16
    para você ver as
  • 00:43:22
    imagens. Parece tem quem trabalha com
  • 00:43:25
    design, com programação, etc. Parece que
  • 00:43:26
    já vai ter alguma integração aqui com
  • 00:43:27
    Figma. Vamos ver como é que vai
  • 00:43:29
    funcionar
  • 00:43:40
    isso. Você poderia conversar ali na
  • 00:43:43
    esquerda, ele vai gerar designs novos.
  • 00:43:44
    Ou você pode mudar pequenas coisas. Tá?
  • 00:43:46
    Eu quero que a cor principal seja outra.
  • 00:43:48
    Eu quero que seja mais arredondado e ele
  • 00:43:50
    vai aplicar essa
  • 00:43:59
    alteração.
  • 00:44:06
    2.5 minutes.
  • 00:44:12
    Então ele não mostrou quanto tempo roda,
  • 00:44:14
    né? Mas ele falou: "Ó, demora aqui um
  • 00:44:15
    minutinho ou algo do tipo e depois já
  • 00:44:17
    vai lhe customizar para o que você
  • 00:44:18
    pediu." Então assim, para quem trabalha
  • 00:44:20
    com design, com desenvolvimento, pode
  • 00:44:22
    ser que ajude muito a você fazer ou às
  • 00:44:24
    vezes você tem uma pequena empresa,
  • 00:44:25
    precisa gerar uma coisa rápida, assim,
  • 00:44:26
    um MVP, que a gente chama, né? Eh, pode
  • 00:44:28
    ser que ajude bastante para você. Agora,
  • 00:44:31
    uma outra coisa interessante é o Google
  • 00:44:32
    Meet vai adicionar uma tradução de fala
  • 00:44:34
    por IA. Esse aqui eu achei
  • 00:44:39
    legal.
  • 00:44:43
    Ela tá falando inglês com uma outra
  • 00:44:45
    pessoa que fala espanhol e ia, sei lá,
  • 00:44:47
    falar de uma viagem ou algo do tipo. E
  • 00:44:49
    aí agora ele vai traduzir
  • 00:44:51
    automaticamente o que você fala.
  • 00:44:58
    Ela acabou de falar em inglês e ali a Iá
  • 00:45:01
    acabou de traduzir em poucos segundos
  • 00:45:03
    pra Camila, a que fala espanhol, em
  • 00:45:05
    espanhol, uma diferença de poucos
  • 00:45:06
    segundos. Até brinquei aqui nas minhas
  • 00:45:08
    anotações falando que é como se tivesse
  • 00:45:09
    aquele tradutor do Ótica para você que
  • 00:45:11
    em poucos segundos depois já tá falando
  • 00:45:13
    a língua e traduzindo.
  • 00:45:17
    Te vas a divertir muito creo que te vai
  • 00:45:19
    encantar.
  • 00:45:21
    E aí, ó, ela também começou a falar em
  • 00:45:22
    espanhol e ali retornou pra língua da
  • 00:45:24
    outra pessoa que é em inglês. Isso aqui
  • 00:45:26
    parece aquelas coisas de ficção
  • 00:45:27
    científica que você fala na mesma
  • 00:45:28
    língua. Isso aqui eu acho legal, mas não
  • 00:45:29
    só nisso aqui, mas aplicado em outras
  • 00:45:31
    coisas, como por exemplo, já vi uma vez
  • 00:45:32
    no passado, era uma coisa que você tinha
  • 00:45:34
    um aparelho auditivo, algo do tipo. Acho
  • 00:45:35
    que até o Samsung lançou uma coisa
  • 00:45:37
    dessa, não sei se foi muito pra frente,
  • 00:45:38
    que era de fazer uma tradução
  • 00:45:40
    automática. Mas é legal que aqui o
  • 00:45:41
    Google Meet muitas pessoas utilizam, né?
  • 00:45:43
    Mas eu gostaria de ver isso em outros
  • 00:45:45
    tipos de tecnologia ou até mesmo no
  • 00:45:46
    óculos. Imagina você viajar com aquele
  • 00:45:48
    óculos e ele já traduz para você
  • 00:45:49
    enquanto você tá viajando para um outro
  • 00:45:51
    lugar. Tá falando em português, a pessoa
  • 00:45:52
    tá falando em espanhol e te responde em
  • 00:45:53
    português. Você vai viajar aqui fora do
  • 00:45:55
    Brasil. Então isso pode ser muito
  • 00:45:57
    interessante. Se já tivesse integrado no
  • 00:45:58
    óculos, você já conversa com a pessoa
  • 00:45:59
    como se tivesse falando ele
  • 00:46:00
    naturalmente.
  • 00:46:09
    Por enquanto só tem em inglês e espanhol
  • 00:46:11
    do que eu tinha visto aqui, mas parece
  • 00:46:12
    algo bastante interessante. Só que
  • 00:46:14
    assim, tem outras IA que já fazem isso,
  • 00:46:16
    tá? O interessante daqui é dependendo de
  • 00:46:18
    quanto que vai custar isso e também que
  • 00:46:19
    já tá no Google Meet, que é uma
  • 00:46:20
    plataforma que muitas pessoas usam, mas
  • 00:46:22
    tem outras reagu elas entram na conversa
  • 00:46:24
    e ficam o terceiro bote ali ou que
  • 00:46:26
    transcrevem. Eh, então assim, depende,
  • 00:46:28
    né? Tem que ver eh como é que vai ser a
  • 00:46:30
    aplicação disso, as outras línguas e
  • 00:46:32
    tudo mais. Mas parece bem interessante.
  • 00:46:34
    Até também uma outra coisa que eu
  • 00:46:34
    lembrei, o a o Samsung S24 e o S25, ele
  • 00:46:39
    faz isso para ligações normais. Eu ainda
  • 00:46:41
    não testei isso para ver se é bom ou
  • 00:46:42
    não, mas isso também é outra
  • 00:46:44
    possibilidade que é interessante, porque
  • 00:46:45
    o Google Meet você tem que ligar só de
  • 00:46:46
    web, né? Mas se você vai ligar para um
  • 00:46:47
    restaurante lá na Argentina para tirar
  • 00:46:49
    uma dúvida se tem mesa, etc e tal, e ele
  • 00:46:51
    já traduzia pra pessoa, né? Só que eu
  • 00:46:53
    não testei para ver se é bom ou não, mas
  • 00:46:54
    em teoria em ligações normais e também
  • 00:46:56
    não sei se nem se ligações do WhatsApp
  • 00:46:57
    também funciona, né? Mas em teoria o
  • 00:46:59
    Samsung tem essa funcionalidade no S24 e
  • 00:47:01
    no S25. Então quando lançar em outros
  • 00:47:03
    dispositivos aí também vai ficar muito
  • 00:47:04
    interessante. E agora respostas
  • 00:47:07
    personalizadas e inteligentes do Gmail,
  • 00:47:09
    tá? my friend to me looking for advice
  • 00:47:12
    he taking a road trip to ut and he
  • 00:47:16
    remers I did this trip before now if
  • 00:47:19
    being honestly reply something short and
  • 00:47:22
    unhelful sorry ele tá brincando assim
  • 00:47:25
    que do jeito que eu respondo eu diria
  • 00:47:27
    algo que não é muito uma boa resposta e
  • 00:47:29
    meio rápido, então desculpe Félix. Então
  • 00:47:32
    ele, o que ele vai justamente dizer é
  • 00:47:33
    que a IA vai melhorar o jeito que ele tá
  • 00:47:35
    respondendo. Ele pegou as coisas
  • 00:47:36
    principais de uma viagem eh de carro,
  • 00:47:38
    que seria, e aí ele vai pegar as
  • 00:47:40
    informações principais e vai responder
  • 00:47:41
    como se fosse ali o CEO do Google, do
  • 00:47:44
    jeito que ele responde naturalmente.
  • 00:47:45
    Então ele vai analisar as respostas,
  • 00:47:47
    documentos e etc.
  • 00:47:57
    Então, olha aqui todos os aplicativos do
  • 00:47:58
    Google que você tem integrados ali no
  • 00:48:00
    Google Drive, etc, e no Google Docs, que
  • 00:48:03
    ele vai integrar para poder te dar a
  • 00:48:05
    melhor resposta como se fosse você,
  • 00:48:07
    baseado em todos os dados que ele tem
  • 00:48:08
    sobre você.
  • 00:48:12
    scaning for reservation and finding my
  • 00:48:17
    go trip to national
  • 00:48:20
    park matches my typical greetings email
  • 00:48:23
    ele ainda pega assim o jeito que eu
  • 00:48:25
    costumo falar e com as outras pessoas e
  • 00:48:27
    me dá várias opções. Então ele ainda
  • 00:48:29
    fala aqui, ó, onde eu pesquisei e vários
  • 00:48:31
    tipos de opções que você pode responder
  • 00:48:32
    para pessoa se você concorda, se você
  • 00:48:33
    não concorda, se você quer dar uma
  • 00:48:34
    opção, então para tentar ganhar
  • 00:48:35
    produtividade. É aquela coisa, né? A
  • 00:48:36
    gente ganha produtividade, mas a que
  • 00:48:38
    custo, né? em relação à privacidade, eu
  • 00:48:40
    tenho ainda sentimentos misturados,
  • 00:48:42
    mixed feelings, né, que o pessoal fala
  • 00:48:44
    em relação a isso, porque eu acho muito
  • 00:48:45
    interessante pela produtividade, mas eu
  • 00:48:47
    fico um pouquinho assim em relação à
  • 00:48:49
    privacidade, né? Eh, bem, vamos
  • 00:48:57
    ver ainda pega o tom da pessoa, palavras
  • 00:48:59
    que ele costuma utilizar muito no Gmail
  • 00:49:01
    e aí escreve como se realmente fosse
  • 00:49:06
    ele. I love how it included details like
  • 00:49:09
    keeping driving time under 5 hours per
  • 00:49:11
    day and it uses my faite adjective
  • 00:49:16
    exciting. Looks great. Maybe you want to
  • 00:49:19
    make a couple of changes to it and hit
  • 00:49:21
    send. This will be available in Gmail
  • 00:49:24
    this summer for
  • 00:49:26
    subscribers. Aí vai est disponível no
  • 00:49:28
    verão e pros subscribers lá no Gmail. E
  • 00:49:31
    o Google também tá investindo nas
  • 00:49:32
    compras e como IA pode te ajudar nisso
  • 00:49:34
    na hora que você vai buscar e comprar
  • 00:49:35
    algo também e que pode mudar bastante em
  • 00:49:37
    relação ao e-commerce, né, que é algo
  • 00:49:39
    que cresce muito no Brasil. Vamos ver
  • 00:49:41
    aqui agora então o que que o Google vai
  • 00:49:42
    fazer.
  • 00:49:47
    Google search dynamically generatesable.
  • 00:49:54
    Então, novamente vamos pegar aqui para
  • 00:49:56
    traduzir, para traduzir mais ráp para
  • 00:49:57
    vocês, utilizando o Google Lens, né? Mas
  • 00:49:59
    o que que ela fez aqui? Eu tenho um sofá
  • 00:50:01
    cinza claro e estou procurando um tapete
  • 00:50:03
    para iluminar o ambiente. Então ela ela
  • 00:50:06
    pegou assim exemplos, né, e tapetes que
  • 00:50:09
    podem combinar bem com sofá cinza claro.
  • 00:50:11
    E aí ele vai dar várias opções de coisas
  • 00:50:13
    que você pode comprar baseado nisso. Ele
  • 00:50:15
    vai te levantar aqui do lado. E aqui
  • 00:50:17
    ainda dá ainda ainda ainda fala melhor
  • 00:50:20
    sobre isso, né? Como é que você pode
  • 00:50:21
    aplicar esse tapete, como é que pode ser
  • 00:50:24
    o melhor tipo de tapete, etc.
  • 00:50:30
    Agora é uma coisa interessante que eu já
  • 00:50:31
    vi umas outras viagens fazendo só de
  • 00:50:32
    imagem, é que você pegava, você quer
  • 00:50:34
    anunciar um produto e você tem uma uma
  • 00:50:36
    pessoa digital que você fez, você botava
  • 00:50:38
    um produto na mão da pessoa, etc. No
  • 00:50:39
    caso aqui é para você provar os produtos
  • 00:50:42
    da loja, você saber se fica bem em você.
  • 00:50:44
    Claro que eu acho que não deve ver o
  • 00:50:45
    tamanho nem nada disso, né? Mas de forma
  • 00:50:47
    geral é interessante para você ver se
  • 00:50:48
    você gostaria em você, se combina com o
  • 00:50:50
    seu estilo e etc.
  • 00:50:55
    we need a deep undanding of the human
  • 00:50:57
    body and how clothing looks on it. To do
  • 00:51:00
    this, we build a custom in a generation
  • 00:51:04
    modally trained for fashion. Wow. And
  • 00:51:08
    it's back.
  • 00:51:10
    Ali ele mostrou, deixa eu até voltar
  • 00:51:11
    aqui para vocês verem com calma aqui.
  • 00:51:12
    Ele colocou aquele aquele exato vestido
  • 00:51:14
    nela, vendo também eles fizeram uma uma
  • 00:51:18
    inteligência especificamente treinada
  • 00:51:19
    para isso, pra moda, para poder rejeitar
  • 00:51:21
    a roupa a pessoa. E aí agora você
  • 00:51:23
    consegue ver o produto em você, o que
  • 00:51:24
    também ganha produtividade. As pessoas
  • 00:51:26
    fazem mais vendas e você ganha mais
  • 00:51:28
    tempo, né? Claro que não sei como é que
  • 00:51:30
    vai ser tanto essa questão de tamanho,
  • 00:51:31
    tudo a gente tem que ver na prática. que
  • 00:51:32
    são as promessas do Google para a gente
  • 00:51:34
    e vamos ver o que que ele vai realmente
  • 00:51:36
    cumprir, o que que ele vai entregar, o
  • 00:51:37
    que que vai nos surpreender. E se você
  • 00:51:39
    já tem alguma coisa dessa que você já tá
  • 00:51:40
    gostando muito ou que você achou
  • 00:51:41
    bobeira, comenta aqui embaixo também. E
  • 00:51:43
    se você gostou desse vídeo aqui, das
  • 00:51:44
    novidades do Google, acredito que esse
  • 00:51:45
    outro vídeo aqui você vai se interessar
  • 00:51:47
    bastante.
Tags
  • Google IO 2023
  • Vio 3
  • AI Mode
  • Google Beam
  • Gmail
  • Gemini 2.5 Pro
  • produção de conteúdo
  • privacidade
  • Google Meet
  • Stitch