15 NOVIDADES INSANAS de IA do GOOGLE I/O 2025 (RESUMO COMPLETO)

00:51:50
https://www.youtube.com/watch?v=iCIafpg5Xg0

Sintesi

TLDRO Google IO 2023 trouxe inovações impressionantes, destacando a evolução das tecnologias existentes. O evento focou em melhorias na geração de imagens e vídeos, com o Vio 3 permitindo a criação de vídeos com som e efeitos sonoros. O AI Mode foi introduzido para personalizar buscas e respostas, enquanto o Google Beam apresentou uma nova plataforma de comunicação por vídeo. A integração da IA em produtos como Gmail e Google Meet promete transformar a experiência do usuário, mas também levanta preocupações sobre privacidade. O Gemini 2.5 Pro foi destacado como uma versão aprimorada da IA do Google, com melhor desempenho em tarefas complexas. O futuro da produção de conteúdo parece promissor, com a IA facilitando a criação de materiais audiovisuais.

Punti di forza

  • 🚀 O Google IO 2023 apresentou inovações significativas em IA.
  • 🎥 O Vio 3 agora gera vídeos com som e efeitos sonoros.
  • 🔍 O AI Mode personaliza buscas e respostas para usuários.
  • 📹 O Google Beam é uma nova plataforma de comunicação por vídeo.
  • ✉️ Gmail agora utiliza IA para melhorar respostas.
  • 🔒 Preocupações sobre privacidade foram levantadas durante o evento.
  • 💡 O Gemini 2.5 Pro oferece melhor desempenho em tarefas complexas.
  • 🎨 O Stitch gera interfaces de usuário com base em prompts.
  • 🌐 A IA pode revolucionar a produção de conteúdo audiovisual.
  • 🌟 O Google Meet agora oferece tradução automática de fala.

Linea temporale

  • 00:00:00 - 00:05:00

    O Google IO apresentou inovações significativas em busca, vídeos e inteligência artificial, destacando a evolução das tecnologias existentes e seu impacto na produção audiovisual e no mercado.

  • 00:05:00 - 00:10:00

    As atualizações no Google Imagem e Vio foram notáveis, com melhorias na geração de imagens e vídeos, permitindo a criação de conteúdo visual de forma mais eficiente e criativa.

  • 00:10:00 - 00:15:00

    O Vio 3 trouxe a capacidade de gerar vídeos com sons de fundo e diálogos, o que pode revolucionar a produção audiovisual, permitindo que criadores façam filmes sem a necessidade de dubladores.

  • 00:15:00 - 00:20:00

    Exemplos de vídeos gerados pelo Vio 3 mostraram a capacidade de criar cenários realistas e efeitos sonoros, embora a qualidade visual ainda precise de melhorias.

  • 00:20:00 - 00:25:00

    O Google Beam, uma plataforma de comunicação em vídeo em 3D, foi considerado menos impactante, com um foco restrito em empresas e teleconferências.

  • 00:25:00 - 00:30:00

    O Google está integrando IA em suas buscas, permitindo respostas mais personalizadas e contextuais, o que pode afetar a forma como os usuários interagem com a plataforma.

  • 00:30:00 - 00:35:00

    O AI Mode do Google busca entender melhor as intenções dos usuários, oferecendo respostas mais relevantes e personalizadas com base em dados históricos e preferências.

  • 00:35:00 - 00:40:00

    O Google Lens agora permite buscas mais contextuais, integrando informações de localização e preferências pessoais para oferecer resultados mais relevantes.

  • 00:40:00 - 00:45:00

    O Gmail também receberá melhorias com respostas inteligentes, utilizando IA para gerar respostas personalizadas com base no estilo de comunicação do usuário.

  • 00:45:00 - 00:51:50

    O Google está investindo em tecnologias de realidade aumentada e IA para melhorar a experiência do usuário em compras online, permitindo visualizações mais interativas e personalizadas.

Mostra di più

Mappa mentale

Video Domande e Risposte

  • O que foi apresentado no Google IO 2023?

    O Google IO 2023 apresentou inovações em busca, geração de imagens e vídeos, e IA.

  • Qual é a principal inovação na geração de vídeos?

    O Vio 3 agora gera vídeos com som e efeitos sonoros, permitindo uma produção audiovisual mais rica.

  • O que é o AI Mode?

    O AI Mode personaliza buscas e respostas, melhorando a experiência do usuário.

  • O que é o Google Beam?

    O Google Beam é uma nova plataforma de comunicação por vídeo que utiliza tecnologia de IA.

  • Como a IA está sendo integrada ao Gmail?

    A IA no Gmail melhora as respostas, personalizando-as com base nos dados do usuário.

  • Quais são as preocupações em relação à privacidade?

    As inovações levantam questões sobre como os dados dos usuários serão tratados e utilizados.

  • O que é o Gemini 2.5 Pro?

    O Gemini 2.5 Pro é uma versão aprimorada da IA do Google, com melhor desempenho em tarefas complexas.

  • Como a IA pode impactar a produção de conteúdo?

    A IA pode revolucionar a produção de conteúdo, permitindo que indivíduos criem vídeos e materiais de forma mais eficiente.

  • Quais são as novas funcionalidades do Google Meet?

    O Google Meet agora oferece tradução automática de fala em tempo real.

  • O que é o Stitch?

    O Stitch gera interfaces de usuário para aplicativos com base em prompts fornecidos.

Visualizza altre sintesi video

Ottenete l'accesso immediato ai riassunti gratuiti dei video di YouTube grazie all'intelligenza artificiale!
Sottotitoli
pt
Scorrimento automatico:
  • 00:00:00
    O Google acabou de fazer a sua
  • 00:00:01
    apresentação mais importante do ano, o
  • 00:00:03
    Google IO, e revelou tecnologias
  • 00:00:05
    incríveis de busca, vídeos, agentes e
  • 00:00:09
    muito mais. Nesse vídeo, eu vou te
  • 00:00:11
    resumir o que teve de melhor e o que
  • 00:00:13
    pode impactar na sua vida. Então,
  • 00:00:15
    pessoal, nesse vídeo aqui você vai ver
  • 00:00:16
    as coisas mais importantes que você deve
  • 00:00:18
    saber do evento Google que aconteceu
  • 00:00:20
    recentemente, tá? sem você ter que ver
  • 00:00:22
    duas horas de evento. Aqui vai tá tudo
  • 00:00:24
    resumidinho, mas também vai ter a nossa
  • 00:00:26
    análise. Então não é só um resumo, ele é
  • 00:00:28
    um resumo completo, porque tem análise
  • 00:00:29
    também e o futuro que pode ser dessas
  • 00:00:31
    tecnologias, tá bom? E o impacto também
  • 00:00:33
    que pode ter para a Open AI, que é a
  • 00:00:35
    dona do Chat GPT, e para o mundo, tá? E
  • 00:00:38
    tem um grande spoiler aqui, já vou
  • 00:00:40
    revelar para vocês, mas principalmente
  • 00:00:41
    para produção audiovisual de vídeos
  • 00:00:44
    principalmente, tá? Realmente uma coisa
  • 00:00:46
    absurda que você vai ver já já. E mas eu
  • 00:00:48
    acredito que a palavra principal desse
  • 00:00:50
    evento dessa vez foi evolução. Você vai
  • 00:00:53
    entender depois, mas ela não foi
  • 00:00:55
    disrupção, mas foi evolução do que já
  • 00:00:58
    existe, realmente, do poder que o Google
  • 00:00:59
    tem de juntar certas tecnologias que ele
  • 00:01:02
    tem, dos dados que ele tem das pessoas.
  • 00:01:04
    Realmente é muito interessante. Você vai
  • 00:01:05
    saber por ao longo dessa apresentação
  • 00:01:07
    aqui, tá? E são as coisas principais,
  • 00:01:09
    assim, as mais legais do evento, tá?
  • 00:01:11
    Primeiro de tudo, então já vou começar
  • 00:01:12
    aqui entregando quase que o ouro, mas o
  • 00:01:13
    resto do vídeo também tá muito bom, fica
  • 00:01:15
    até o final do vídeo. Mas a coisa mais
  • 00:01:17
    legal do evento, na minha opinião, foi o
  • 00:01:19
    imagem e o vio estão recebendo grandes
  • 00:01:21
    atualizações, principalmente o Vio, tá?
  • 00:01:23
    Mas eu vou aqui mostrar para vocês já a
  • 00:01:24
    atualização que eles fizeram eh na parte
  • 00:01:26
    de geração de imagens, que ele começa
  • 00:01:28
    agora a competir mais com o ideograma
  • 00:01:30
    que já gerava textos para a asiátic.
  • 00:01:32
    Quando você bota o seu promet, ele já
  • 00:01:33
    gera direto um texto e também pro
  • 00:01:35
    próprio Canva também, né? Se a gente
  • 00:01:36
    utiliza o Canva para fazer hosts, para
  • 00:01:39
    fazer um convite de aniversário
  • 00:01:40
    infantil, qualquer outra coisa, agora
  • 00:01:42
    você pode fazer diretamente com a IA, se
  • 00:01:44
    você não precisar tanto editar depois,
  • 00:01:45
    tudo mais, apesar que a gente também tem
  • 00:01:46
    algumas ferramentas de edição, mas agora
  • 00:01:48
    realmente eles estão melhorando a
  • 00:01:49
    questão da imagem. E eu vou mostrar aqui
  • 00:01:51
    para vocês como é que estão os
  • 00:01:51
    resultados estão bem
  • 00:02:16
    interessantes. Então aqui, ó, ele ele
  • 00:02:18
    faz as escolhas criativas com um prompt,
  • 00:02:20
    ele escreve tudo bonitinho, ele bota
  • 00:02:22
    fonte já. Realmente ficou muito legal. É
  • 00:02:24
    claro que eles vão mostrar sempre o
  • 00:02:25
    melhor aqui na apresentação, né? Mas
  • 00:02:27
    ficou muito legal porque antigamente ele
  • 00:02:29
    errava na no texto ou escrevia o texto
  • 00:02:31
    errado. Quem utilizou a geração de
  • 00:02:32
    imagem, principalmente o Mour in assim
  • 00:02:33
    para texto, era muito ruim mesmo. O ide
  • 00:02:36
    foi um dos que primeiro, é, se eu não me
  • 00:02:37
    engano, começou a fazer realmente um bom
  • 00:02:39
    trabalho de colocar texto na imagem. E
  • 00:02:41
    esse aqui ficou muito legal mesmo, não
  • 00:02:42
    só porque ele colocou o texto, mas toda
  • 00:02:44
    a direção de arte mesmo que ele acabou
  • 00:02:45
    escolhendo para
  • 00:02:55
    isso. É o que ele falou, não foi só
  • 00:02:57
    escolher a fonte, mas é o espaçamento, o
  • 00:02:59
    layout, como é que ficou o melhor
  • 00:03:00
    possível para ser um poster para
  • 00:03:02
    divulgar esse festival de música.
  • 00:03:16
    Sim, ficou muito legal. Eu achei que
  • 00:03:18
    ficou muito legal mesmo essa nova
  • 00:03:19
    geração de imagem que eles estão fazendo
  • 00:03:20
    agora. Agora eu vou aqui mostrar para
  • 00:03:22
    vocês o que que eu acho que realmente
  • 00:03:23
    ficou legal, que é o Vio 3, a geração de
  • 00:03:26
    vídeo. Mas não é só a geração de vídeo.
  • 00:03:28
    E você vai entender porquê.
  • 00:03:40
    dialog, viu? É o que ele falou? E agora
  • 00:03:42
    você vai ver o exemplo, ele não vai só
  • 00:03:44
    gerar vídeo, ele já vai gerar os sons de
  • 00:03:46
    fundo, ele vai gerar os efeitos sonoros,
  • 00:03:49
    ele vai gerar as pessoas falando com eh
  • 00:03:52
    sotaques diferentes, com entonações
  • 00:03:53
    diferentes. Isso aqui eu acho que é
  • 00:03:55
    revolucionário. E você vai ter uma uma
  • 00:03:57
    palinha agora. Você vai ver os exemplos
  • 00:03:58
    que ele vai mostrar. Eu vou mostrar
  • 00:03:59
    outros exemplos também. Isso aqui eu
  • 00:04:00
    acho que vai ser revolucionário porque
  • 00:04:01
    imagina, é quase como realmente se você
  • 00:04:03
    tiver uma boa ideia ou vez você pode até
  • 00:04:05
    escrever com o chat de PT, fazer um
  • 00:04:06
    roteiro legal, você pode criar realmente
  • 00:04:08
    um filme que você não precisa nem de
  • 00:04:08
    dublador, você faz tudo sozinho. É
  • 00:04:10
    assustador assim pelo potencial que isso
  • 00:04:12
    aqui pode trazer e mudar no mercado
  • 00:04:14
    audiovisual.
  • 00:04:15
    [Música]
  • 00:04:27
    Agora vou mostrar alguns outros exemplos
  • 00:04:28
    que tem aqui no Twitter deles do Google
  • 00:04:30
    Deep Mind que eles trouxeram que tá
  • 00:04:31
    muito interessante, que por exemplo,
  • 00:04:33
    você quer fazer um filme de detetive,
  • 00:04:35
    olha como é que fica.
  • 00:04:45
    Se você reparar, tem o efeito de fundo
  • 00:04:46
    das pessoas andando como se tivesse ali
  • 00:04:48
    no metrô as duas pessoas falando bem
  • 00:04:50
    diferente com sotaque. É, agora vamos
  • 00:04:52
    ver esse aqui. Desfeito sonoro,
  • 00:05:01
    ó. Isso que é muito legal. Até uma coisa
  • 00:05:03
    mais abstrata também, ele consegue fazer
  • 00:05:05
    um efeito sonoro muito é realista mesmo.
  • 00:05:07
    Parece que realmente tem um um designer
  • 00:05:09
    de som.
  • 00:05:17
    Bem, acho que talvez você tenha que
  • 00:05:18
    aumentar aqui o volume para você ouvir,
  • 00:05:20
    mas tem um leve barulinho de quando cai.
  • 00:05:22
    Exatamente. E agora esse aqui do
  • 00:05:32
    patinho. Se você reparar exatamente
  • 00:05:34
    quando ele aperta aqui, ele tá fazendo o
  • 00:05:36
    som. Então, realmente tá incrível.
  • 00:05:37
    Parece que uma pessoa fez manualmente,
  • 00:05:39
    né? Então assim, lembra daquele hype que
  • 00:05:41
    teve quando falaram que ia lançar o
  • 00:05:42
    Soric, mostrar aquelas imagens incríveis
  • 00:05:44
    pelo Chat PT? No fundo, o chat deptena,
  • 00:05:47
    ela acabou demorando muito para lançar e
  • 00:05:50
    hoje em dia acho que não chama tanta
  • 00:05:51
    atenção porque nesse meio tempo foram
  • 00:05:52
    surgindo várias outras que já faziam o
  • 00:05:54
    vídeo em alguns casos até melhores,
  • 00:05:56
    sabe? Com mais funcionalidades que o
  • 00:05:58
    Sora. Então o Sora pecou pelo tempo que
  • 00:06:00
    ele demorou para desenvolver, tá? E
  • 00:06:02
    nesse caso aqui, se eles realmente
  • 00:06:03
    conseguirem entregar tudo que eles estão
  • 00:06:04
    prometendo, parece realmente tá na
  • 00:06:06
    frente, tá, dessa questão de produção de
  • 00:06:08
    vídeo, principalmente porque você
  • 00:06:09
    realmente gerar já o áudio diretamente,
  • 00:06:12
    aí realmente pode ser incrível. Uma
  • 00:06:13
    pessoa pode fazer uma série e eu vou
  • 00:06:15
    mostrar depois também porque uma um dos
  • 00:06:16
    pequenos problemas você gerar um vídeo é
  • 00:06:19
    você fazer um personagem consistente,
  • 00:06:20
    porque por exemplo, aquele detetive tem
  • 00:06:21
    que ser o mesmo detetive nas outras
  • 00:06:23
    cenas e eles também estão trabalhando
  • 00:06:24
    nisso que eu vou mostrar mais a fundo
  • 00:06:26
    daqui a pouco também. Eh, mas só uma
  • 00:06:28
    outra coisa que eu acho que também tem
  • 00:06:30
    que ver como é que tá a qualidade desse
  • 00:06:31
    vídeo, tá? Porque o vídeo, assim, apesar
  • 00:06:34
    de ser incrível essa questão de você
  • 00:06:35
    gerar o o áudio e tudo mais, eu achei
  • 00:06:37
    que a geração do vídeo em alguns casos
  • 00:06:39
    não tá tão boa assim, os efeitos não
  • 00:06:41
    estão tão incríveis quanto eu já vi em
  • 00:06:43
    outras ia, por exemplo, das pessoas
  • 00:06:44
    mexendo e ali do da coruja também, sabe?
  • 00:06:47
    Umas coisas que não sei, não parece tão
  • 00:06:49
    realista no movimento, sabe? Mas claro
  • 00:06:51
    que assim, esse aqui é um é só o início,
  • 00:06:53
    né? Mas eu já acho muito promissor
  • 00:06:55
    comparando, se for bem comparar assim
  • 00:06:58
    muito no micro detalhe, acho que pode
  • 00:06:59
    melhorar a geração do vídeo, mas essa
  • 00:07:00
    coisa de você juntar com áudio tá
  • 00:07:02
    realmente muito interessante mesmo, tá?
  • 00:07:03
    E eu acho que o Google, se ele conseguir
  • 00:07:05
    entregar tudo que ele tá prometendo, ele
  • 00:07:06
    vai realmente sair na frente. Agora, a
  • 00:07:07
    coisa menos legal do evento, que eu
  • 00:07:09
    achei bem sem graça, tá? É o Google
  • 00:07:11
    Bean, que antes chamava projeto
  • 00:07:12
    Starline. Você vai ver e você vai me
  • 00:07:14
    dizer se você também achou isso aqui sem
  • 00:07:16
    graça. Google Beam, a new AI first video
  • 00:07:21
    communications platform.
  • 00:07:23
    Beam uses a new state of the art video
  • 00:07:28
    model. É o seguinte, é uma tela que tem
  • 00:07:30
    várias câmerazinhas, pelo que eu tinha
  • 00:07:32
    visto ali, e ela meio que renderiza você
  • 00:07:34
    em 3D para você fazer uma ligação de
  • 00:07:37
    vídeochamada. Então assim, você vai ver
  • 00:07:40
    a outra pessoa como se ela tivesse mais
  • 00:07:41
    ou menos em 3D na sua frente, mas isso
  • 00:07:44
    tem que ter uma tela específica para
  • 00:07:45
    você
  • 00:07:47
    comprar.
  • 00:07:50
    Eu acho que isso aqui vai ser acabar
  • 00:07:51
    sendo para algumas empresas grandes que
  • 00:07:53
    querem fazer e uma teleconferência ou
  • 00:07:55
    algo assim com quem tá trabalhando
  • 00:07:57
    remoto ou com a outra parte da empresa.
  • 00:08:00
    Eu achei muito nichado. Não acho que é
  • 00:08:01
    aqui pro público geral que é geralmente
  • 00:08:03
    o que a gente vê. E não sei quanto é que
  • 00:08:04
    vai ser isso. E ainda mais falando de
  • 00:08:06
    trabalho remoto, de pessoas fazem e hoje
  • 00:08:08
    em dia as empresas estão cada vez mais
  • 00:08:09
    diminuindo também o trabalho remoto.
  • 00:08:11
    Infelizmente, né? Eu sou um grande
  • 00:08:12
    adepto do trabalho remoto, mas
  • 00:08:13
    infelizmente tem começado as empresas a
  • 00:08:15
    fazerem híbrido ou voltando ao
  • 00:08:17
    presencial, né? Então, sei lá, eu achei
  • 00:08:19
    essa aqui a coisa bem mais ou menos
  • 00:08:20
    mesmo, sabe? De quem vai comprar isso,
  • 00:08:21
    se é só grande empresa. Realmente não
  • 00:08:23
    achei nada demais nesse caso aqui. Achei
  • 00:08:25
    o ponto mais fraco. Depois você me diz
  • 00:08:27
    se você concorda ou não. E aqui agora
  • 00:08:29
    pesquisa com IA no Google AI Mode, tá? É
  • 00:08:31
    uma resposta de se você reparar do
  • 00:08:33
    Google Ameaça da IA pros negócios da
  • 00:08:35
    busca. Quero que a gente no início do
  • 00:08:36
    chatt, né? A gente começava a falar
  • 00:08:37
    assim: "Cara, como é que vai ficar o
  • 00:08:38
    Google agora que o chat GPT já te
  • 00:08:40
    responde tudo? você não precisa lá
  • 00:08:41
    entrar de site a site para ver, depois
  • 00:08:43
    pesquisar, saber o resultado. E a
  • 00:08:45
    Google, ela já tinha se tocado disso, já
  • 00:08:46
    tinha percebido isso e começou a
  • 00:08:48
    trabalhar eternamente. E o que você vai
  • 00:08:49
    ver também muito aqui na apresentação é
  • 00:08:51
    a Google pegando os dados que ela tem
  • 00:08:53
    gigantesco, o sistema de busca e muitos
  • 00:08:55
    usuários, os ecossistemas também porque
  • 00:08:57
    tem o Google Chrome, tem Android. Com
  • 00:08:59
    isso eles têm não só dados, mas também
  • 00:09:01
    pontos de acesso que as pessoas utilizam
  • 00:09:02
    e que pode aplicar IA lá dentro. E com
  • 00:09:05
    isso a Google tá trabalhando bastante
  • 00:09:07
    nisso de trazer a IA para dentro desse
  • 00:09:08
    ecossistema. Então o que a gente fala
  • 00:09:10
    assim, vai acabar Google, agora estou
  • 00:09:11
    tentando dar uma resposta e mudar em
  • 00:09:13
    relação a isso, tá? e principalmente até
  • 00:09:14
    com outras que eram específicas a fazer
  • 00:09:17
    busca, como por exemplo a perplexity ou
  • 00:09:19
    agora a função de busca do chat GPT ou
  • 00:09:21
    até mesmo humanos, se você já viu alguns
  • 00:09:23
    vídeos do canal aqui, que é um agente
  • 00:09:24
    que ele busca para você, já faz
  • 00:09:25
    relatório, já sintetiza, ele é como se
  • 00:09:27
    fosse uma outra pessoa trabalhando do
  • 00:09:29
    seu lado, é o agente de computador que a
  • 00:09:31
    gente chama e vai ser falado também mais
  • 00:09:32
    aqui na apresentação. Então vamos dar
  • 00:09:34
    uma olhadinha agora nas respostas que a
  • 00:09:36
    Google tá dando para essas ameaças e o
  • 00:09:39
    futuro também.
  • 00:09:42
    Então esse aqui dentro do campo de busca
  • 00:09:44
    vai ter o AI modes que você vai poder
  • 00:09:45
    escrever o que tem na sua cabeça.
  • 00:09:54
    Aqui dando um pause aqui, a gente já
  • 00:09:55
    começa a ver, né, que ele tá fazendo
  • 00:09:57
    aquele modo de raciocínio que ele começa
  • 00:09:59
    a quebrar o raciocínio de acordo com o
  • 00:10:01
    que você pesquisou, parecendo mais uma
  • 00:10:02
    IA mesmo nos modos de pensamento que a
  • 00:10:04
    gente tem visto
  • 00:10:08
    recentemente. Então ele já vai reduzir,
  • 00:10:11
    ele vai já sintetizar aqui para você de
  • 00:10:13
    acordo com links de criadores de
  • 00:10:14
    conteúdo ali, dependendo da busca que
  • 00:10:16
    ele fez, né? O que que ela pesquisou
  • 00:10:17
    aqui? Eu agora vou até te mostrar um
  • 00:10:19
    hack aquizzinho, ó. A gente aqui já
  • 00:10:21
    utilizando o Google Lens, você pode, ó,
  • 00:10:23
    pegar aqui qualquer coisa tá numa imagem
  • 00:10:24
    e já traduzir aqui, ó. Traduzir,
  • 00:10:28
    ó. Coisas para fazer em Nashville nesse
  • 00:10:29
    fim de semana com os amigos. Somos
  • 00:10:31
    grandes amantes da gastronomia que
  • 00:10:32
    gostam de música, mas também de
  • 00:10:34
    vibrações mais relaxantes, explorar
  • 00:10:35
    caminhos fora do comum. Esse aqui foi o
  • 00:10:37
    prompt que ela pesquisou. Antigamente
  • 00:10:38
    você só ia pesquisar restaurante em
  • 00:10:39
    Nashville, é, ou coisa muito sintética,
  • 00:10:41
    porque uma pesquisa grande não funciona
  • 00:10:43
    muito bem no Google se você tentar é
  • 00:10:45
    atualmente sem o a parte da IA, porque
  • 00:10:47
    ela não entendia o contexto como todo.
  • 00:10:49
    Era só uma busca quase que por uma
  • 00:10:51
    palavrachave de certa forma, né? E qual
  • 00:10:53
    site estava melhor ranqueando. E agora a
  • 00:10:55
    Ia não, ela consegue entender o contexto
  • 00:10:56
    disso e aí sim personalizar para você.
  • 00:10:59
    Ainda tem umas coisas a mais que ela vai
  • 00:11:00
    fazer de personalização para você
  • 00:11:01
    também.
  • 00:11:05
    and merchants and
  • 00:11:06
    businesses
  • 00:11:09
    informating
  • 00:11:20
    us. Ela tá falando aquilo, né? Ela
  • 00:11:22
    mostrou alguns produtores de conteúdo,
  • 00:11:23
    mostrou ali alguns restaurantes e
  • 00:11:24
    mostrou ali especificamente, segundo o
  • 00:11:26
    que você procurou, vai mostrar ali no
  • 00:11:27
    mapa também. Então ele tá pegando as
  • 00:11:29
    coisas que o Google já ia implementando
  • 00:11:30
    de pouquinho e agora juntando com o IA
  • 00:11:32
    para ficar mais customizado.
  • 00:11:38
    Aí uma coisa legal, né, que antigamente
  • 00:11:39
    se você lembrar da busca, você quando
  • 00:11:41
    faz e você vai complementar, você vai
  • 00:11:43
    escrever algo no Google, ele vai fazer
  • 00:11:44
    uma nova busca, ele não vai complementar
  • 00:11:45
    a busca. Então agora aqui ela tá
  • 00:11:47
    perguntando: "Ah, e o que que eu posso
  • 00:11:49
    fazer para tomar um brunch, para comer
  • 00:11:50
    um café da manhã?" E aí ele vai falar
  • 00:11:52
    baseado no que você tinha falado
  • 00:11:53
    anteriormente. Então ele tá
  • 00:11:54
    complementando aquela busca que
  • 00:11:56
    geralmente a gente quando tem que fazer
  • 00:11:57
    manualmente a gente, sei lá, bota e num
  • 00:11:59
    arquivo de texto e vai aqui, ah, esse
  • 00:12:01
    aqui é para restaurante, depois o
  • 00:12:02
    pbrante. Agora você já pode integrar as
  • 00:12:03
    coisas num lugar só, facilitando e
  • 00:12:05
    ganhando mais tempo pro usuário.
  • 00:12:37
    version. Então, ela vai separar em
  • 00:12:39
    várias etapas o tipo da sua busca e ele
  • 00:12:41
    vai ver, ah, uma pesquisa na web, é uma
  • 00:12:43
    pesquisa no mundo real, é o clima, é
  • 00:12:45
    shopping, são esportes, é finanças, ele
  • 00:12:47
    vai procurar em categorias diferentes
  • 00:12:49
    para te dar a melhor resposta. E aí
  • 00:12:51
    agora também eles tm uma função que você
  • 00:12:53
    pode personalizar a resposta da busca de
  • 00:12:56
    acordo com os dados que o Google tem
  • 00:12:57
    sobre você. Você pode ativar ou
  • 00:12:59
    desativar
  • 00:13:07
    isso. Então ela vai conectar com o Gmail
  • 00:13:10
    e vai dar um contexto pessoal.
  • 00:13:20
    Então ela vai ver que de acordo com o
  • 00:13:22
    histórico que você tem de reservar em
  • 00:13:25
    restaurantes que são ao ar livre, ela
  • 00:13:27
    vai te mostrar opções mais ao ar livre.
  • 00:13:30
    Então ela vai além do que você buscou
  • 00:13:31
    inicialmente porque ela já sabe o que
  • 00:13:33
    que você gosta.
  • 00:13:41
    E como você tá inscrito em algumas
  • 00:13:42
    exposições de arte, ele também vai te
  • 00:13:44
    recomendar exposições de arte que tem
  • 00:13:56
    perto. Então, mas ele também pega as
  • 00:13:58
    datas de voo e hotel e ele também vai
  • 00:14:00
    saber outros eventos que estão ocorrendo
  • 00:14:01
    na cidade nesse data e aí vai te dar
  • 00:14:03
    também sugestões baseado com a data que
  • 00:14:05
    já sabe que você vai est lá.
  • 00:14:20
    Então, realmente é algo super
  • 00:14:22
    customizado. E ela tá agora falando
  • 00:14:23
    porque uma primeira preocupação que a
  • 00:14:25
    gente vem, né? Pô, então quer dizer que
  • 00:14:26
    o Google tá pegando todos os meus dados,
  • 00:14:27
    que a gente já sabe que ele tem acesso a
  • 00:14:29
    vários dados nossos, né? Mas agora vendo
  • 00:14:31
    detalhes de e-mail e etc e podendo botar
  • 00:14:33
    isso na busca, como é que vai ser
  • 00:14:34
    tratado o meu dado em relação a isso? Se
  • 00:14:36
    eu não quiser, então eles vão mostrar
  • 00:14:37
    que você pode desativar isso
  • 00:14:46
    e aí vai chegar no AI modes no verão.
  • 00:14:49
    Agora eles vão mostrar aqui um outro uso
  • 00:14:50
    do AI modes que ele agora vai resumir
  • 00:14:53
    para você os dados. Então não só ele vai
  • 00:14:54
    pesquisar a melhor coisa para você, mas
  • 00:14:56
    ele também pode resumir e eles vão
  • 00:14:58
    começar a lançar isso também com coisas
  • 00:14:59
    de esporte e finanças. Então que nem
  • 00:15:02
    você, por exemplo, pedindo mano, sei lá,
  • 00:15:03
    como é que está a ação da Tesla? ele vai
  • 00:15:05
    levantar e fazer para você a ação da
  • 00:15:07
    Tesla. Agora ele também já vai resumir
  • 00:15:09
    para você as coisas. Então, eh, não só
  • 00:15:11
    ele tá pegando a melhor informação, mas
  • 00:15:13
    ele já tá digerindo para você essa
  • 00:15:15
    informação.
  • 00:15:24
    A informação que ele buscou ali foi:
  • 00:15:26
    "Ah, agora tem um novo taco de beisebol
  • 00:15:28
    que tem um ponto de peso diferente e eu
  • 00:15:30
    quero saber quais são as últimas pessoas
  • 00:15:32
    que usaram esse taco, se elas realmente
  • 00:15:33
    aumentaram a eficácia". Então a IA vai
  • 00:15:36
    pegar todo esse dado, botou num gráfico
  • 00:15:38
    e foi vendo ali, ó, o time tal usa esse
  • 00:15:40
    taco e aumentou o número de home runs e
  • 00:15:44
    etcam fazer e com esse taco ou não para
  • 00:15:46
    tentar achar essa correlação.
  • 00:15:49
    SPS
  • 00:15:50
    data updated down to the
  • 00:15:53
    last even brings
  • 00:16:07
    in. E aí você pode fazer que nem a liga,
  • 00:16:09
    você pode complementar a pesquisa. E
  • 00:16:11
    então ele ainda respondeu com o
  • 00:16:26
    gráfico. Realmente parece que eles aqui
  • 00:16:28
    pegaram essa inspiração assim na questão
  • 00:16:30
    do humanos de fazer gráfico. Claro que
  • 00:16:32
    vão de outras outras e também que às
  • 00:16:33
    vezes tem isso, mas como a gente vê como
  • 00:16:35
    é que essas evoluções vão acontecendo,
  • 00:16:37
    né? uma uma pessoa destrava uma coisa,
  • 00:16:39
    depois a Google faz outra, depois outra
  • 00:16:41
    pessoa pega baseado nisso, sabe? Então é
  • 00:16:43
    realmente interessante assim como é que
  • 00:16:44
    a gente às vezes não consegue prever as
  • 00:16:46
    evoluções, porque elas são incrementais,
  • 00:16:48
    né? Uma i vai evoluindo numa coisa,
  • 00:16:49
    depois a outra resolve fazer outra e
  • 00:16:51
    vamos ver o que que vai vir aí do
  • 00:16:52
    futuro. Mas isso aqui já é bem
  • 00:16:54
    interessante na questão de ganho de
  • 00:16:55
    produtividade que você vai ter e quando
  • 00:16:57
    você fizer buscas, mas tem uma
  • 00:16:58
    preocupação que é para quem produz
  • 00:17:00
    conteúdo, né? Então, por exemplo, os
  • 00:17:02
    sites e blogs que monetizavam, porque a
  • 00:17:04
    pessoa entrava lá dentro, via um
  • 00:17:06
    anúncio, até pelo próprio Google
  • 00:17:07
    mostrava anúncios, que mostra anúncios
  • 00:17:09
    lá dentro, né? Eh, como é que vai ser
  • 00:17:11
    essa questão? Porque em teoria vai
  • 00:17:12
    ganhar menos acessos, porque as pessoas
  • 00:17:14
    vão precisar passar menos tempo. Então,
  • 00:17:15
    pro lado do usuário é muito bom. Pro
  • 00:17:17
    lado do blog, do pequeno produtor de
  • 00:17:19
    conteúdo, eh, ou da empresa pode não ser
  • 00:17:21
    tão bom, dependendo de caso a caso. Eh,
  • 00:17:23
    e também como é que pros profissionais
  • 00:17:25
    agora que trabalham com o SEO, que é
  • 00:17:26
    você ranquear nas buscas, como é que
  • 00:17:27
    eles vão se preparar para isso? Porque o
  • 00:17:29
    SEO tinha certas regras e tudo mais.
  • 00:17:30
    Como é que a IA agora lê e mostra qual é
  • 00:17:32
    a melhor informação? O SEO era um pouco
  • 00:17:34
    mais fácil de você decifrar. Agora vai
  • 00:17:36
    ter um soado em a. Como é que é essa
  • 00:17:38
    questão? Eu já tinha levantado isso
  • 00:17:39
    antes quando eu tinha analisado o acho
  • 00:17:41
    acredito que o Google do ano passado,
  • 00:17:43
    mas agora realmente tá cada vez mais e
  • 00:17:45
    preocupante como é que você vai estar
  • 00:17:46
    com isso. De certa forma, pelo menos
  • 00:17:48
    eles mostraram que eles vão mostrar ali
  • 00:17:49
    na direita, criadores independentes,
  • 00:17:51
    empresa embaixo, sabe? Então, em teoria
  • 00:17:54
    pode ser que ajude, mas fica muito, o
  • 00:17:56
    jogo agora tá incerto para você que
  • 00:17:58
    produz conteúdo, para você saber como
  • 00:18:00
    realmente você pode produzir o conteúdo
  • 00:18:01
    para ele aparecer na primeira página,
  • 00:18:02
    porque agora também é tudo customizado.
  • 00:18:04
    Então, a primeira página para uma pessoa
  • 00:18:06
    não é a primeira página para outra, já
  • 00:18:07
    era customizado antes, mas agora é mais
  • 00:18:08
    ainda. Antigamente você sabia que o seu
  • 00:18:10
    site tinha uma autoridade de domínio
  • 00:18:12
    muito boa, ele ia ranquear lá no Google.
  • 00:18:14
    Agora não necessariamente, porque vai
  • 00:18:15
    depender do que a pessoa conversou por
  • 00:18:17
    e-mail, do que ela tá falando da busca,
  • 00:18:19
    da complemento da busca. Então,
  • 00:18:22
    realmente não sabemos como é que vai ser
  • 00:18:23
    em breve. E as empresas maiores pode ser
  • 00:18:26
    que elas ganhem mais dinheiro com isso,
  • 00:18:27
    que, por exemplo, a pessoa que já ia
  • 00:18:28
    reservar um hotel, pode ser que ela
  • 00:18:30
    chegue mais rápido no hotel, mas uma
  • 00:18:31
    pessoa que produz conteúdo independente,
  • 00:18:33
    tem o seu próprio blog, talvez a pessoa
  • 00:18:35
    não e ela ganhava com a com o anúncio,
  • 00:18:38
    não vai monetizar tanto. Então, talvez o
  • 00:18:40
    caminho dos blogos seja ter seus
  • 00:18:41
    próprios produtos ou justamente você,
  • 00:18:43
    por exemplo, lá um hotel, etc., ter o
  • 00:18:45
    seu próprio block, aí vai aparecer mais
  • 00:18:46
    nas buscas. Então aqui é só uma um
  • 00:18:49
    brainstorm aqui que eu tô fazendo em
  • 00:18:50
    relação como é que pode ser. o cenário
  • 00:18:52
    aqui para quem produz conteúdo, para
  • 00:18:53
    quem eh precisa trazer tráfego orgânico,
  • 00:18:55
    por exemplo, pro seu negócio, o que que
  • 00:18:57
    pode mudar? Então, acredito que você ter
  • 00:18:58
    o seu próprio produto, já é mais
  • 00:19:00
    garantido que a pessoa vai clicar lá e
  • 00:19:01
    ter uma transação, porque de anúncios
  • 00:19:03
    pode ser que reduza muito o tráfego, a
  • 00:19:05
    visibilidade de anúncios e quanto que o
  • 00:19:07
    pessoal já ganhava pouco dinheiro, né,
  • 00:19:09
    com block, antigamente ganhava muito
  • 00:19:10
    mais, agora para diminuir mais ainda.
  • 00:19:12
    Agora vamos ver aqui o flow. Esse aqui é
  • 00:19:15
    interessante, ele combina com aquela
  • 00:19:16
    outra que eu falei anteriormente, que é
  • 00:19:18
    o Vio 3, que ele gera os vídeos agora
  • 00:19:20
    com som, só que esse aqui é um editor e
  • 00:19:22
    criador de vídeo de IA ao mesmo tempo e
  • 00:19:25
    ele pode junto com, principalmente
  • 00:19:26
    juntando com o poder do Vio 3,
  • 00:19:28
    revolucionar a criação de vídeos. E se
  • 00:19:30
    você não acredita em mim, vamos ver aqui
  • 00:19:31
    o
  • 00:19:37
    [Aplausos]
  • 00:19:52
    vídeo. Então vamos lá. O que que ele
  • 00:19:54
    fez? Ele pode ter gerado no no de
  • 00:19:56
    imagem, qualquer outro lugar de imagem.
  • 00:19:57
    Ele gerou um senhor e um carro. Ok.
  • 00:19:59
    Esses aqui são os ingredientes do vídeo
  • 00:20:01
    que ele quer montar aqui. Tá montando o
  • 00:20:02
    vídeo do zero, tá?
  • 00:20:10
    Ou você poderia gerar ali dentro
  • 00:20:11
    diretamente, mas vamos botar que você
  • 00:20:13
    botou aqui as suas próprias imagens.
  • 00:20:20
    Aí ele fez isso, ele gerou uma imagem lá
  • 00:20:22
    dentro que era como se fosse como se
  • 00:20:24
    fosse a marcha do carro, né? com a
  • 00:20:25
    cabeça de uma galinha de ouro. Aí vamos
  • 00:20:27
    ver como é que ele vai incrementar isso
  • 00:20:29
    no
  • 00:20:38
    vídeo. Aí você falou: "Ah, vai ser um
  • 00:20:40
    ângulo baixo de 8 mm da filmagem". Aí
  • 00:20:43
    foi uma coisa mais técnica explicando
  • 00:20:45
    como é que vai ser filmado, né? e num
  • 00:20:46
    carro que tá se balançando e
  • 00:20:53
    rápido. Tá dizendo que você pode botar
  • 00:20:56
    ângulos muito específicos e ele vai
  • 00:20:58
    gerar ali para você as opções.
  • 00:21:16
    E aí, basicamente o que ele vai fazer
  • 00:21:18
    aqui é o seguinte, ele botou, ele tem
  • 00:21:19
    duas opções, que é jump e o outro que é
  • 00:21:21
    estender. Ele botou a opção jump, que é
  • 00:21:23
    para mudar o corte da cena e vai para
  • 00:21:24
    uma outra cena. Aí ele botou um prompt
  • 00:21:26
    aqui muito mais complexo para ficar uma
  • 00:21:27
    coisa mais interessante, mas vai mudar
  • 00:21:30
    de uma cena para outra. Então ele já tá
  • 00:21:31
    gerando aqui e já tá editando e juntando
  • 00:21:33
    tudo num lugar só.
  • 00:21:44
    Então ele gerou o a consistência de
  • 00:21:46
    personagem que a gente chama, né, que é
  • 00:21:48
    o mesmo senhor que tá ali, é o mesmo
  • 00:21:50
    carro com a mesma marcha e agora tem uma
  • 00:21:52
    galinha em cima e aí ele gerou esse
  • 00:21:54
    prompt e agora a galinha e o carro vão
  • 00:21:56
    cair do penhasco.
  • 00:22:03
    Mas só um detalhe, né? Tá vendo como as
  • 00:22:05
    coisas parecem meio borradas? geração de
  • 00:22:06
    vídeo não parece tão boa que eu que eu
  • 00:22:07
    mencionei anteriormente. Isso que eu
  • 00:22:09
    achei meio mais ou menos assim, a
  • 00:22:11
    funcionalidade parece incrível. Agora a
  • 00:22:13
    geração do vídeo para mim tá meio
  • 00:22:15
    estranha, não sei, não tá parecendo tão
  • 00:22:16
    realista. Então tem que ver como é que
  • 00:22:18
    isso aqui vai melhorar. Parece a geração
  • 00:22:19
    de vídeo de algumas IAIS um pouquinho
  • 00:22:21
    mais antigas, sabe? E mas vamos ver no
  • 00:22:23
    na prática mesmo como é que vai est.
  • 00:22:39
    Então o que ele vai fazer o seguinte, eu
  • 00:22:40
    não queria que ele tivesse caído, é
  • 00:22:42
    porque aí acabou gerando isso. Então eu
  • 00:22:43
    vou cortar, vou voltar com a setinha
  • 00:22:44
    para lá e vou botar estender e vou
  • 00:22:46
    falar: "Não vai cair". Ele botou um
  • 00:22:48
    prompt lá complexo, mas em resumir esse
  • 00:22:49
    não vai cair. Agora o carro vai voar e
  • 00:22:51
    aí realmente ele vai gerar aqui o carro
  • 00:22:53
    voando. Isso que é legal.
  • 00:23:09
    E aí agora ele falou: "Ah, botei aqui no
  • 00:23:11
    meu software edição, botei a música de
  • 00:23:12
    fundo e vou lá. vai ter aqui agora o
  • 00:23:15
    vídeo
  • 00:23:16
    [Música]
  • 00:23:31
    [Música]
  • 00:23:35
    pronto. Não, isso aqui eu realmente com
  • 00:23:37
    eh juntando ainda mais com outro defeito
  • 00:23:39
    sonoro, eu acho que pode ser incrível.
  • 00:23:40
    Imagina, você pode fazer a sua série da
  • 00:23:42
    Netflix de certa forma. Claro que, como
  • 00:23:44
    eu vou mostrar depois ainda nesse vídeo
  • 00:23:45
    aqui, eh os planos estão salgados, eh
  • 00:23:48
    vai demorar ainda para lançar certas
  • 00:23:49
    coisas, mas o futuro é bastante
  • 00:23:52
    promissor para quem produz conteúdo. É,
  • 00:23:54
    realmente parece até uma coisa de Black
  • 00:23:56
    Mirror, né? Teve até um episódio do
  • 00:23:57
    Black Mirror recente que era mais ou
  • 00:23:58
    menos isso, que você pode gerar várias
  • 00:24:00
    variações diferentes e de um show e pode
  • 00:24:02
    ser customizado com o que você quer. É
  • 00:24:05
    realmente assim incrível que pode ser
  • 00:24:06
    feito no futuro. Agora vamos ver aqui o
  • 00:24:09
    Gemini 2.5 Pro que ele adicionou o modo
  • 00:24:11
    de raciocínio aprimorado, tá? Esse aqui
  • 00:24:14
    não tem muita coisa assim para mostrar o
  • 00:24:15
    vídeo para vocês de forma geral o porque
  • 00:24:17
    também tá incrementando em várias outras
  • 00:24:19
    funcionalidades deles. Então, só para
  • 00:24:21
    resumir aqui para vocês, eles lançaram a
  • 00:24:23
    o modo de deep think dele, né, de
  • 00:24:25
    pensamento aprimorado e que e segundo os
  • 00:24:28
    dados ali das pesquisas, tá nos
  • 00:24:29
    benchmarks, ele tá indo melhor do que,
  • 00:24:31
    por exemplo, a Open AI do chat GPT em
  • 00:24:34
    matemática, em programação e raciocínio
  • 00:24:37
    multimodal. Aqui no último tá bem
  • 00:24:38
    pequenininho assim o o aumento, mas é
  • 00:24:41
    isso. Então é sempre fazem esses
  • 00:24:41
    benchmark. Geralmente os que são melhor
  • 00:24:43
    para cada IA, né, que você mostra.
  • 00:24:45
    Depois tem que ver outro site como LM
  • 00:24:46
    Arena e tal, pra gente ver a comparação
  • 00:24:48
    de usuários e muito mais. E agora aqui,
  • 00:24:50
    ó, o Gemini 2.5 Pro, você também pode
  • 00:24:53
    configurar o quanto ele deve pensar e
  • 00:24:55
    quanto que ele vai gastar de tokens.
  • 00:24:57
    Então, se você vai ativar esse modo de
  • 00:24:59
    pensamento profundo e quanto que ele vai
  • 00:25:01
    gastar também. Então, porque vai ter
  • 00:25:02
    tarefas que você vai querer que ele
  • 00:25:03
    pense menos, que ele gaste menos do seu
  • 00:25:04
    crédito ou pode ter tarefas que você
  • 00:25:07
    acha que ele deve pensar mais, ir mais
  • 00:25:08
    fundo, que você precisa de uma coisa
  • 00:25:09
    mais aprimorada. Então isso aqui também
  • 00:25:11
    é uma coisa interessante que eles
  • 00:25:12
    lançaram. E agora ela vai mostrar o GM
  • 00:25:14
    2.5 Pro executando uma tarefa de
  • 00:25:16
    programação para você ver na prática.
  • 00:25:23
    Ela já tinha parte do código e alguém
  • 00:25:25
    trouxe ali um rascunho de que seria uma
  • 00:25:26
    coisa tridimensional, que é uma coisa
  • 00:25:28
    que ela falou na apresentação que era
  • 00:25:29
    complexa e tal. Então ele vai pegar as
  • 00:25:31
    fotos que você tirou lá do museu e vai
  • 00:25:33
    botar num ambiente tridimensional, onde
  • 00:25:34
    cada vez que ele vira, ele tem que
  • 00:25:36
    mostrar uma foto na cara da pessoa para
  • 00:25:37
    ela poder ver. Então, é uma coisa mais
  • 00:25:39
    complexazinha mesmo e que o 2.5 Pro vai
  • 00:25:41
    fazer para você e vai e você vai ver ao
  • 00:25:43
    vivo ele executando.
  • 00:25:57
    Então foi isso, foi realmente baseado e
  • 00:26:00
    num esboço que alguém levantou ali,
  • 00:26:01
    desenhou no papel e ele foi lá e
  • 00:26:03
    executou. Isso é muito interessante pela
  • 00:26:05
    questão da produtividade que pode trazer
  • 00:26:07
    para desenvolvimento de software, para
  • 00:26:08
    programadores, é, pras pessoas de
  • 00:26:10
    startup e para muitas outras coisas
  • 00:26:12
    também. E para você ficar atualizado
  • 00:26:13
    sobre is e muito mais, eu recomendo você
  • 00:26:15
    se inscrever aqui no canal e ativar o
  • 00:26:17
    sininho. Só assim você vai receber
  • 00:26:18
    vídeos de notícias, tutoriais completos,
  • 00:26:20
    nossas análises e muito mais aqui no
  • 00:26:22
    canal, porque senão você não vai saber
  • 00:26:24
    se o YouTube vai entregar ou não para
  • 00:26:25
    você. Ativando o sininho, você garante
  • 00:26:26
    isso, tá? E se o conteúdo que tá
  • 00:26:28
    interessante, as outras que você tá
  • 00:26:29
    gostando, por favor, dá uma curtida,
  • 00:26:31
    comenta ou aperta o botão hypar. Isso
  • 00:26:33
    ajuda demais aqui o canal a entregar
  • 00:26:34
    mais conteúdo para as pessoas e a
  • 00:26:36
    remunerar também o nosso trabalho aqui
  • 00:26:38
    eh para vocês trazendo as novidades e
  • 00:26:40
    analisando, tá? E mas também eu também
  • 00:26:42
    quero dar algo para você aqui. Tem
  • 00:26:43
    ferramentas, planilhas, mais de 500
  • 00:26:45
    promps grátis e todos os materiais que a
  • 00:26:46
    gente já lançou. Tem o link aqui na
  • 00:26:48
    descrição ou no comentário fixado ou
  • 00:26:50
    nesse QRcode aqui. Se você tiver vendo
  • 00:26:51
    na TV também pode apontar o celular que
  • 00:26:53
    você vai ter acesso a tudo que a gente
  • 00:26:55
    já lançou grátis aqui para vocês com
  • 00:26:56
    tutoriais e muito mais, tá? Mas se você
  • 00:26:59
    quiser levar o seu conhecimento em IAS
  • 00:27:01
    para o próximo nível, tem o nosso curso,
  • 00:27:03
    o Mestre das IA, que tem mais de 130
  • 00:27:05
    aulas, visita em 18 módulos, que te
  • 00:27:07
    ajuda realmente você a fazer dinheiro
  • 00:27:09
    com IAs, saber aplicar IA no seu
  • 00:27:11
    trabalho, no seu novo negócio, uma renda
  • 00:27:13
    extra muito mais, tá? É um curso muito
  • 00:27:15
    completo que a gente fez com muito
  • 00:27:17
    carinho e acredito pode ajudar muito na
  • 00:27:19
    sua vida, não só para você eh aprender
  • 00:27:21
    sobre IAG, mas como realmente executar
  • 00:27:22
    para poder fazer dinheiro e negócios. E
  • 00:27:25
    aqui também temos o nosso mestre dos
  • 00:27:26
    prompt, que é o nosso pacote de prompt e
  • 00:27:28
    o mestre do network, que é a nossa
  • 00:27:29
    comunidade também, tá tudo aqui no link
  • 00:27:30
    da descrição e no comentário fixado para
  • 00:27:32
    você ver depois, tá? E o Google também
  • 00:27:34
    lançou um novo sistema, é, que é o
  • 00:27:36
    Android XR, que é para ser usado em
  • 00:27:38
    óculos, o de questão da realidade
  • 00:27:40
    aumentada, é com uma IA que responde
  • 00:27:42
    você em tempo real as coisas. Eu já vou
  • 00:27:44
    até fazer uma
  • 00:27:49
    comparação. Então isso aqui é a visão
  • 00:27:52
    dela, né, do óculos. Tanto que tá um
  • 00:27:54
    pouquinho mais escurecida a imagem que
  • 00:27:55
    foi feita lá na apresentação e no óculos
  • 00:27:58
    já tá mostrando aqui embaixo a
  • 00:27:59
    temperatura e a hora dela. Então tudo
  • 00:28:02
    que ela tá vendo vai tá mostrando aqui
  • 00:28:03
    no óculos, porque o óculos ele vai ter
  • 00:28:04
    uma partezia que tem uma tela que você
  • 00:28:06
    pode ver através, mas a informação
  • 00:28:07
    também que aparece aqui você tá vendo
  • 00:28:09
    ela ao vivo. Tanto que em alguns ângulos
  • 00:28:11
    já viu uns óculos desse, você consegue
  • 00:28:13
    ver mais ou menos a telinha que tem ali.
  • 00:28:15
    Eu vou já falar um pouquinho mais sobre
  • 00:28:16
    o mercado disso, né, e umas coisas que o
  • 00:28:18
    Google fez no passado em relação a isso.
  • 00:28:19
    Mas aqui você já vai ver a aplicação de
  • 00:28:21
    como é que funciona esse óculos com
  • 00:28:23
    realidade aumentada e a integrado.
  • 00:28:32
    Presta muita atenção que ela mostrou um
  • 00:28:33
    café ali e tinha uma logo do café. Essa
  • 00:28:36
    informação vai ser relevante daqui a
  • 00:28:37
    pouco. E ali ele começou a mostrar que
  • 00:28:39
    ela recebeu uma mensagem. É como se
  • 00:28:41
    fosse um smartwatch, só que em vez de
  • 00:28:42
    você olhar para baixo, já tá no seu
  • 00:28:43
    óculos usando diretamente.
  • 00:28:59
    Então aquele copo que ela mostrou, o
  • 00:29:01
    Gémini teve memória. Agora não sei
  • 00:29:02
    também como é que eles vão estipular
  • 00:29:03
    isso, quanto tempo é de memória. Você
  • 00:29:05
    vai ficar sempre gravando, ele esquece
  • 00:29:06
    quanto tempo que ele vai gravar.
  • 00:29:08
    Realmente isso até preocupante, né?
  • 00:29:09
    Porque tudo que você tá vendo, o óculos
  • 00:29:11
    vai est vendo, né? Então não sei como é
  • 00:29:12
    que eles vão lidar em relação a isso,
  • 00:29:13
    né? Mas ele lembrou ali qual era a
  • 00:29:17
    empresa que apareceu ali do do copo que
  • 00:29:19
    ela tava bebendo e agora vai fazer
  • 00:29:20
    perguntas específicas a isso.
  • 00:29:28
    Aí tá mostrando assim: "Ah, se eu
  • 00:29:29
    quisesse andar de lá para cá, quanto
  • 00:29:30
    tempo demoraria?" Aí falou: "Vai demorar
  • 00:29:32
    uma hora". E aqui já tá começando a
  • 00:29:33
    mostrar as instruções para você andar.
  • 00:29:42
    Ou você pode ver um mapa 3D também que
  • 00:29:44
    te mostra exatamente como é que você
  • 00:29:45
    pode chegar lá. Isso aqui eu acho legal
  • 00:29:46
    nessas funções de óculos, além de outras
  • 00:29:48
    coisas também, né? Por exemplo, podia
  • 00:29:49
    gravar esse vídeo aqui com o roteiro,
  • 00:29:51
    lendo um roteiro. Esse vídeo aqui tá
  • 00:29:52
    sendo improvisado, tô falando aqui com
  • 00:29:53
    vocês, mas se eu quisesse fazer um vídeo
  • 00:29:54
    roteirizado, eu já podia estar vendo ali
  • 00:29:56
    no óculos, entre várias outras coisas
  • 00:29:58
    que podem ser utilizados também.
  • 00:30:06
    Aí eles falam lá depois que empresas
  • 00:30:08
    grandes ali de óculos já estão fazendo
  • 00:30:10
    parceria para poder trazer o design,
  • 00:30:11
    porque a ideia eles é implementarem esse
  • 00:30:13
    sistema em e empresas de óculos, que nem
  • 00:30:16
    fez a meta com o HBAN. Então é um jeito,
  • 00:30:20
    uma resposta à meta com o HBAN. E ao
  • 00:30:23
    mesmo tempo também eles estão liberando
  • 00:30:25
    o código e tá sendo feito um a Samsung
  • 00:30:27
    tá fazendo o seu próprio óculos também,
  • 00:30:29
    que aí é para competir diretamente com o
  • 00:30:30
    Apple Vision Pro. Esse aqui é o óculos
  • 00:30:32
    que a Samsung tá lançando, que ele aí
  • 00:30:34
    compete mais diretamente e tal nas
  • 00:30:36
    funções que tem, porque um é como se
  • 00:30:37
    fosse uma realidade ah aumentada, mais
  • 00:30:40
    discreta com outras fabricantes. Aqui é
  • 00:30:42
    o fabricante específico que é a Samsung
  • 00:30:44
    e com funcionalidades diferentes de cada
  • 00:30:46
    um, tá? E você pode também tirar foto
  • 00:30:48
    com esse óculos. Então também e eu acho
  • 00:30:50
    interessante essa questão para você
  • 00:30:51
    poder tirar foto num momento qualquer,
  • 00:30:52
    assim, não ter que pegar o celular ou às
  • 00:30:54
    vezes coisa que você gostaria de ter
  • 00:30:55
    tirado foto e acaba perdendo
  • 00:30:56
    oportunidade. Pode ser interessante, mas
  • 00:30:58
    vamos ver como é que vai ser isso na
  • 00:30:59
    prática, tá? E até a brincadeira, né?
  • 00:31:01
    Será que dessa vez o Google Glass vai
  • 00:31:03
    realmente funcionar? Não sei se vocês
  • 00:31:04
    lembram a que o Google tinha tentado
  • 00:31:05
    lançar um tempo atrás o Google Glass,
  • 00:31:07
    mas não vingou e a ideia era um
  • 00:31:08
    projetorzinho que você olhava ali, mas
  • 00:31:10
    não tinha óculos. Era uma coisa que
  • 00:31:11
    parecia estranha e você já via que era o
  • 00:31:14
    coisa do Google Glaz. Eu acho que tinha
  • 00:31:15
    também perguntas que eh considerações
  • 00:31:17
    que as pessoas fizeram em relação à
  • 00:31:18
    privacidade. Agora, como é que vai ser
  • 00:31:19
    essa questão em relação ao óculos? Será
  • 00:31:21
    que hoje em dia também as pessoas já
  • 00:31:22
    lidam com a privacidade diferente, não
  • 00:31:25
    se importam tanto quanto antigamente,
  • 00:31:26
    foi há quase 11 anos atrás que lançou.
  • 00:31:28
    Então vamos ver se agora realmente o
  • 00:31:30
    Google foi muito à frente do tempo dele,
  • 00:31:32
    se a sociedade mudou, como é que vai ser
  • 00:31:34
    realmente, se as pessoas vão realmente
  • 00:31:36
    abraçar essa questão do do óculos, né?
  • 00:31:38
    Apesar de que já existem outros que
  • 00:31:39
    estão aí no mercado, né? E o principal
  • 00:31:40
    também vai ser o preço disso, né? quanto
  • 00:31:42
    que vai custar isso aqui e
  • 00:31:43
    aplicabilidade mesmo, se vai funcionar
  • 00:31:44
    direito, né? Isso também vai dizer
  • 00:31:46
    muito. Mas essas outras questões, na
  • 00:31:47
    minha, na minha visão de privacidade e
  • 00:31:50
    etc também acho que vão ser consideradas
  • 00:31:51
    e gostaria de saber de vocês também se
  • 00:31:53
    vocês ligam para isso ou não. Agora o
  • 00:31:55
    projeto Astra é melhorado dentro do
  • 00:31:58
    Gemini Live, tá? O agente de A que vai
  • 00:32:00
    te ajudar na vida real. É uma coisa que
  • 00:32:02
    já tinham mostrado antes e agora vai tá
  • 00:32:04
    melhor.
  • 00:32:17
    Então era o que nem tem o chat de PT
  • 00:32:19
    também, você pode perguntar e etc. Ele
  • 00:32:21
    também fazia isso, ele viu ao seu redor
  • 00:32:22
    e você pode perguntar e se preparar para
  • 00:32:24
    entrevistas e muito mais, como eles
  • 00:32:26
    mostraram na apresentação do ano
  • 00:32:28
    passado, só que agora ele vai estar
  • 00:32:28
    melhorado.
  • 00:32:37
    Aí agora eles vão fazer uma
  • 00:32:37
    brincadeirinha porque eles vão até
  • 00:32:39
    mostrar a capacidade de processamento na
  • 00:32:40
    questão que a pessoa tenta enganar a IA
  • 00:32:42
    fazendo perguntas muito idiotas de
  • 00:32:44
    coisas que a ia ficar confusa, mas a IA
  • 00:32:47
    dá uma resposta e rápida, direta e
  • 00:32:50
    precisa.
  • 00:33:04
    tá falando assim: "Ah, aquilo dali
  • 00:33:04
    parece um carro conversível". Não,
  • 00:33:06
    aquilo dali é uma um carro de lixo.
  • 00:33:09
    Depois, o que que é esse prédio alto
  • 00:33:10
    aqui fininho? Não, isso aqui é um poste
  • 00:33:12
    de luz.
  • 00:33:18
    Porque essas palmeiras são tão baixas e
  • 00:33:20
    ele vai falar: "Não, essas palmeiras até
  • 00:33:21
    que na verdade são bem altas". Então ele
  • 00:33:23
    tem uma relação contextual também de
  • 00:33:24
    entender o ambiente, não só de corrigir,
  • 00:33:26
    de dar resposta rápida, mas também de
  • 00:33:28
    entender. Tipo, ele sabe mais ou menos
  • 00:33:29
    pelo ângulo de vista da pessoa qual que
  • 00:33:31
    seria o tamanho de uma palmeira. E e ela
  • 00:33:33
    tá falando, isso aqui são até palmeiras
  • 00:33:34
    bem altas. Então é interessante assim,
  • 00:33:36
    fizeram uma brincadeirinha, mas é isso
  • 00:33:38
    aí, novamente evoluindo algo que eles já
  • 00:33:40
    estavam fazendo e tal.
  • 00:33:48
    É isso, eles fazem essas
  • 00:33:50
    brincadeirinhas, mas essa tecnologia
  • 00:33:52
    também tem tudo a ver com outras coisas,
  • 00:33:53
    né? Com os óculos que vão lançar. Se
  • 00:33:55
    você parar para pensar, essa
  • 00:33:56
    reconhecimento de ambiente tem a ver
  • 00:33:58
    também com a questão dos óculos. Então
  • 00:33:59
    são tecnologias incrementais. Eles
  • 00:34:01
    lançam várias tecnologias que conversam
  • 00:34:03
    entre si. Tanto que fica até às vezes
  • 00:34:04
    meio confuso, porque eles mencionam uma
  • 00:34:05
    tecnologia que foi falada antes, agora
  • 00:34:07
    aplicada no Chrome, aplicada não sei
  • 00:34:08
    aonde. Você fica até meio confuso com
  • 00:34:10
    tanto nome que tem de cada projeto, de
  • 00:34:12
    cada coisa. por exemplo, Project
  • 00:34:14
    Mariner, né, que na verdade é o agente
  • 00:34:16
    de uso do computador. Eh, por exemplo,
  • 00:34:18
    humanos dele. Hoje em dia acho que o
  • 00:34:19
    mais palpável da gente ver de forma
  • 00:34:21
    geral humanos. Aquele gente que você
  • 00:34:22
    pede para ele uma coisa, ele pesquisa
  • 00:34:24
    para você, depois executa. A gente chama
  • 00:34:25
    de a gente usa do computador porque ele
  • 00:34:27
    toma controle sobre o computador, seja
  • 00:34:29
    sobre um computador remoto, seja sobre o
  • 00:34:31
    seu computador, que era como o Cloud
  • 00:34:32
    estava fazendo, eu já mostrei aqui no
  • 00:34:33
    canal com computer use, ou como eh o
  • 00:34:36
    Google tinha começado utilizando o
  • 00:34:38
    navegador que era o Project Mariner, tá?
  • 00:34:40
    E, e agora até tô até em dúvida se eles
  • 00:34:42
    realmente estão aplicando o navegador ou
  • 00:34:43
    não, mas eles começaram a integrar em
  • 00:34:45
    outras partes que eu vou mostrar aqui
  • 00:34:46
    para vocês.
  • 00:34:53
    Aí a principal coisa que eles falaram,
  • 00:34:55
    melhorias incrementadas, como eu falei,
  • 00:34:56
    evoluções, né? Ele pode fazer 10 tarefas
  • 00:34:59
    simultâneas. Então, é como se você
  • 00:35:00
    tivesse 10 pessoas trabalhando para você
  • 00:35:02
    ou uma pessoa fazendo 10 coisas ao mesmo
  • 00:35:03
    tempo para o mesmo projeto. Isso é uma
  • 00:35:05
    das e melhorias que eles estão fazendo
  • 00:35:07
    no Project Mariner.
  • 00:35:10
    செகண்ட இ
  • 00:35:21
    யீட் Então eles estão fazendo mais
  • 00:35:24
    tarefas paralelas e também estão
  • 00:35:26
    deixando ele mais inteligente de se ele
  • 00:35:27
    já fez uma coisa antes, ele pode
  • 00:35:28
    executar do jeito que você quer no
  • 00:35:29
    futuro, que mais ou menos tem um
  • 00:35:30
    pouquinho no manus, apesar deles usarem
  • 00:35:32
    mais como prompt, então acho me parece
  • 00:35:35
    mais uma resposta direta ao manus de
  • 00:35:38
    certa forma,
  • 00:35:47
    eles estão liberando para outros paraos
  • 00:35:48
    desenvolvedores, etc, poderem trabalhar
  • 00:35:49
    com essa tecnologia através da API. E
  • 00:35:53
    agora vamos ver como é que fica isso
  • 00:35:54
    quando eles integram com o Gemini app
  • 00:35:57
    que faz o agente
  • 00:36:00
    mode.
  • 00:36:04
    Agente. AD.
  • 00:36:14
    Bem, é o seguinte, dentro do aplicativo
  • 00:36:15
    do Gemia, você vai poder clicar nesse
  • 00:36:17
    agente mode e aí como se você já tivesse
  • 00:36:19
    rodando, que nem eu falei, humanos lá
  • 00:36:20
    dentro e fazendo coisa para você. Então
  • 00:36:23
    não sei se eles ainda estão seguindo
  • 00:36:24
    tanto com a questão de estar dentro do
  • 00:36:25
    navegador do Chrome, se vai ser mais
  • 00:36:27
    esse uso interno Gemini, ou talvez são
  • 00:36:29
    os dois mesmo, mas eles estão chamando
  • 00:36:31
    bastante atenção que agora ele vai estar
  • 00:36:32
    integrado dentro Gemini, talvez para
  • 00:36:34
    também chamar as pessoas a utilizarem
  • 00:36:35
    mais o Gemini de uma forma geral do que
  • 00:36:37
    ter um outro aplicativo separado. Vamos
  • 00:36:38
    ver como é que vai ser isso depois
  • 00:36:40
    quando chegar pra gente utilizar. Mas
  • 00:36:42
    ele já vai pedir aqui, ele vai fazer a
  • 00:36:44
    busca, vai fazer todo o trabalho ali
  • 00:36:55
    dentro. Que nem humanos também, ele
  • 00:36:58
    mostra al as coisas que ele vai fazer.
  • 00:36:59
    Você pode editar o plano ou começar
  • 00:37:01
    nesse plano que ele levantou ali das
  • 00:37:03
    tarefas.
  • 00:37:14
    E aí agora ele tá usando o pro marino
  • 00:37:15
    para pesquisar como se fosse uma pessoa
  • 00:37:17
    lá dentro. E aí provavelmente você
  • 00:37:18
    poderia mexer aqui dentro, dar o preview
  • 00:37:21
    para você ver. Realmente tá parecendo
  • 00:37:23
    mais parecido assim com com humanos.
  • 00:37:54
    கலவidade de forma geral, né? Resumindo,
  • 00:37:56
    mas é interessante porque a Google, né,
  • 00:37:58
    ela tem acessa a muito mais informações
  • 00:38:00
    do que às vezes o manus tem que tentar
  • 00:38:03
    pegar manualmente que ele usa várias e
  • 00:38:04
    diferentes, né, várias linguagens e vai
  • 00:38:06
    tentando ali, quase em alguns casos como
  • 00:38:08
    gambiarra, porque você ele não consegue
  • 00:38:09
    acessar certo site, etc. E talvez a
  • 00:38:11
    Google consiga ter mais acessos. Então
  • 00:38:13
    isso vai ser interessante para ver como
  • 00:38:15
    é que vai ser essa competição da Google
  • 00:38:16
    com humanos nessa questão de agente de
  • 00:38:18
    uso do computador, tá? Porque o Cláudio
  • 00:38:20
    eu também não vejo muito falar hoje em
  • 00:38:21
    dia. Do chat de PT também, se eu não me
  • 00:38:23
    engano, tava no plano mais caro. Eu
  • 00:38:24
    também ouvi mais no início, mas não vejo
  • 00:38:25
    tanto pessoal falar bem ver como é que
  • 00:38:27
    vai ser o pro de marina também. Então eu
  • 00:38:29
    acho que também muito vai ser em relação
  • 00:38:31
    a preço, né, para poder dar acesso às
  • 00:38:33
    pessoas. E agora a maior e como vou
  • 00:38:35
    mostrar depois maior parte das coisas
  • 00:38:36
    vai estar num plano bem mais caro para
  • 00:38:37
    você ter acesso e depois vai liberar
  • 00:38:39
    para baixo. Mas quando, né? Essa que é a
  • 00:38:41
    questão também. Agora vamos ver a
  • 00:38:42
    inovação do search life, que em resumo é
  • 00:38:45
    uma busca com a funcionalidade de a de
  • 00:38:47
    reconhecer o ambiente e dar resultados
  • 00:38:49
    de busca com referência de site, etc.
  • 00:38:51
    onde buscou informação. Usando o project
  • 00:38:54
    as novamente os nomes e para fazer as
  • 00:38:56
    integrações. E eu fico meio confuso com
  • 00:38:58
    tanto nome, não sei vocês, mas vamos ver
  • 00:39:00
    como é que isso aqui é na
  • 00:39:04
    praia. Tá vendo o que que tá acontecendo
  • 00:39:06
    aqui? Eh, ele fez uma busca utilizando a
  • 00:39:09
    visão do celular e ali ele vai fazer uma
  • 00:39:11
    busca embaixo. Então não é só você falar
  • 00:39:14
    e aí te dá uma resposta, que ele vai
  • 00:39:16
    mostrar sites que tem a resposta e tudo
  • 00:39:18
    mais. Então é pegar a funcionalidade que
  • 00:39:19
    já tava utilizando, só que em vez de só
  • 00:39:21
    ir a responder, agora ele vai estar
  • 00:39:22
    integrado com a busca e te dar
  • 00:39:23
    resultados em relação a isso. Então um
  • 00:39:25
    jeito diferente de você buscar.
  • 00:39:37
    Então assim, ele também dava tutorial.
  • 00:39:39
    Ah, eu tô fazendo aqui um experimento
  • 00:39:40
    científico. Como é que eu posso fazer
  • 00:39:41
    isso aqui? Ah, eu tenho essa outra coisa
  • 00:39:43
    aqui. Você consegue identificar qual
  • 00:39:44
    experimento é esse? Então, ele pode te
  • 00:39:46
    ajudar com o tutorial. Ele mostra os
  • 00:39:48
    sites relevantes para você aprender. É,
  • 00:39:50
    integrar a busca com outra
  • 00:39:51
    funcionalidade que já tinha. Agora
  • 00:39:53
    também tem o Gemini integrado ao Chrome,
  • 00:39:55
    tá?
  • 00:40:14
    browsut. Bem, isso aqui de forma geral é
  • 00:40:16
    em vez de você ter que pegar um link e
  • 00:40:18
    jogar no Gemini ou às vezes nem
  • 00:40:19
    conseguir ler o chat PT, às vezes tem
  • 00:40:21
    você manda o a URL, não lê direito o que
  • 00:40:23
    que tem lá dentro. O que você vai fazer?
  • 00:40:24
    Você vai clicar ali em cima e ele vai
  • 00:40:26
    ler o conteúdo, porque já porque como a
  • 00:40:28
    Google é dona do Chrome, né, que é o
  • 00:40:30
    maior eh browser que tem na internet,
  • 00:40:32
    eles podem fazer essas coisas. Então
  • 00:40:34
    eles têm o GM integrado e aí o Gini vai
  • 00:40:36
    ter acesso a ler a página que você tá
  • 00:40:38
    ali dentro e aí você pode pedir
  • 00:40:39
    justamente para ele poder resumir para
  • 00:40:41
    você. Então, em que algumas outras às
  • 00:40:43
    vezes tm limitação porque elas não têm
  • 00:40:45
    um browser integrado. Dessa forma, o
  • 00:40:47
    Google tá então integrando a IA com a
  • 00:40:50
    leitura e e saber o que realmente você
  • 00:40:52
    tá vendo. E você pode então disso tirar
  • 00:40:54
    o melhor proveito possível, fazer
  • 00:40:55
    resumo, fazer comparações. Você tá vendo
  • 00:40:57
    ali, sei lá, talvez tenha várias coisas
  • 00:40:59
    com várias opções é difíceis de compra,
  • 00:41:01
    tipo um computador. Aí tem várias partes
  • 00:41:03
    técnicas. Qual o computador aqui parece
  • 00:41:04
    ser melhor para eu que quero jogar
  • 00:41:05
    jogos? Ele pode talvez fazer a
  • 00:41:06
    comparação para você. Claro que a gente
  • 00:41:08
    vai ver na prática como é que é, mas em
  • 00:41:09
    teoria seria isso, então, né? Como é que
  • 00:41:11
    vai ser, como é que vai custar isso,
  • 00:41:13
    quando vai estar disponível. E eles
  • 00:41:15
    então estão lançando o plano do Google
  • 00:41:16
    Ultra, que é 250 por mês, realmente bem
  • 00:41:20
    caro. Aqui tá o Google AI Pro, que vai
  • 00:41:22
    ser 20 por mês, eh, que tem o Gemini
  • 00:41:25
    app, Flow, o VO2 e o whisky V2. E e aqui
  • 00:41:29
    já tem nas versões mais novas, o V3 é
  • 00:41:31
    aquela coisa, né? É pro early adopters,
  • 00:41:33
    né? As pessoas que estão querendo gastar
  • 00:41:34
    mais dinheiro para chegar primeiro ou
  • 00:41:35
    pessoas que têm uso comercial. e que vão
  • 00:41:37
    usar isso para conteúdo, para ganhar
  • 00:41:39
    dinheiro, etc. Porque 250 é muito caro.
  • 00:41:42
    Eh, o Project Mariner, por exemplo, tá
  • 00:41:43
    aqui na parte do mais caro. Acho que
  • 00:41:45
    você já deve ganhar uma assinatura do
  • 00:41:46
    Google Premium. Você ganha 30 TB de
  • 00:41:49
    guardar. Notebook LM também é que tem
  • 00:41:52
    limites maiores. Então é isso, mas
  • 00:41:54
    outras coisas já estão disponíveis
  • 00:41:55
    antes, que é o Gemini Chrome. O o Gemini
  • 00:41:57
    ele poder atrapalhar ali em cima que eu
  • 00:41:58
    acabei de mostrar o Gemini no Gmail,
  • 00:42:00
    Docs e vídeos e mais. Eu vou mostrar
  • 00:42:02
    aqui no Gmail que tá bem interessante
  • 00:42:03
    também. Mas aqui tá falando que tá
  • 00:42:04
    disponível nos Estados Unidos agora no
  • 00:42:06
    Brasil e outros países eles ainda estão
  • 00:42:08
    ver quando é que eles vão, ainda vão ver
  • 00:42:09
    quando é que eles vão lançar, tá? E
  • 00:42:11
    agora vamos mostrar o Stitch. Ele gera
  • 00:42:13
    interface usando os temas selecionados e
  • 00:42:15
    uma descrição. Esse aqui foi mostrado no
  • 00:42:16
    vídeo de desenvolvimento dos developers.
  • 00:42:20
    Eles fizeram uma outra apresentação que
  • 00:42:22
    era para desenvolvedores
  • 00:42:22
    especificamente. E esse aqui é bem
  • 00:42:24
    interessante porque você bota um prompt
  • 00:42:26
    e ele vai gerar uma interface de usuário
  • 00:42:28
    para um aplicativo, por exemplo, que a
  • 00:42:29
    gente chama de UI. Então você já gera
  • 00:42:31
    ali para você ainda consegue modificar.
  • 00:42:33
    É bem interessante
  • 00:42:47
    mesmo. Ele botou um prompt que assim,
  • 00:42:50
    faça um aplicativo seja descobrindo a
  • 00:42:52
    Califórnia, um aplicativo de turismo,
  • 00:42:54
    por exemplo, e faz o resto aí. Vamos ver
  • 00:42:56
    o que ele vai fazer.
  • 00:43:05
    Ele falou que fez isso um pouquinho
  • 00:43:06
    antes ali, mas que demora geralmente um
  • 00:43:08
    minuto e ele já gerou aqui a interface e
  • 00:43:10
    para esse aplicativo com tudo pronto,
  • 00:43:12
    com a parte de reviews, é, com notas,
  • 00:43:15
    com a parte que você vai dar scroll ali
  • 00:43:16
    para você ver as
  • 00:43:22
    imagens. Parece tem quem trabalha com
  • 00:43:25
    design, com programação, etc. Parece que
  • 00:43:26
    já vai ter alguma integração aqui com
  • 00:43:27
    Figma. Vamos ver como é que vai
  • 00:43:29
    funcionar
  • 00:43:40
    isso. Você poderia conversar ali na
  • 00:43:43
    esquerda, ele vai gerar designs novos.
  • 00:43:44
    Ou você pode mudar pequenas coisas. Tá?
  • 00:43:46
    Eu quero que a cor principal seja outra.
  • 00:43:48
    Eu quero que seja mais arredondado e ele
  • 00:43:50
    vai aplicar essa
  • 00:43:59
    alteração.
  • 00:44:06
    2.5 minutes.
  • 00:44:12
    Então ele não mostrou quanto tempo roda,
  • 00:44:14
    né? Mas ele falou: "Ó, demora aqui um
  • 00:44:15
    minutinho ou algo do tipo e depois já
  • 00:44:17
    vai lhe customizar para o que você
  • 00:44:18
    pediu." Então assim, para quem trabalha
  • 00:44:20
    com design, com desenvolvimento, pode
  • 00:44:22
    ser que ajude muito a você fazer ou às
  • 00:44:24
    vezes você tem uma pequena empresa,
  • 00:44:25
    precisa gerar uma coisa rápida, assim,
  • 00:44:26
    um MVP, que a gente chama, né? Eh, pode
  • 00:44:28
    ser que ajude bastante para você. Agora,
  • 00:44:31
    uma outra coisa interessante é o Google
  • 00:44:32
    Meet vai adicionar uma tradução de fala
  • 00:44:34
    por IA. Esse aqui eu achei
  • 00:44:39
    legal.
  • 00:44:43
    Ela tá falando inglês com uma outra
  • 00:44:45
    pessoa que fala espanhol e ia, sei lá,
  • 00:44:47
    falar de uma viagem ou algo do tipo. E
  • 00:44:49
    aí agora ele vai traduzir
  • 00:44:51
    automaticamente o que você fala.
  • 00:44:58
    Ela acabou de falar em inglês e ali a Iá
  • 00:45:01
    acabou de traduzir em poucos segundos
  • 00:45:03
    pra Camila, a que fala espanhol, em
  • 00:45:05
    espanhol, uma diferença de poucos
  • 00:45:06
    segundos. Até brinquei aqui nas minhas
  • 00:45:08
    anotações falando que é como se tivesse
  • 00:45:09
    aquele tradutor do Ótica para você que
  • 00:45:11
    em poucos segundos depois já tá falando
  • 00:45:13
    a língua e traduzindo.
  • 00:45:17
    Te vas a divertir muito creo que te vai
  • 00:45:19
    encantar.
  • 00:45:21
    E aí, ó, ela também começou a falar em
  • 00:45:22
    espanhol e ali retornou pra língua da
  • 00:45:24
    outra pessoa que é em inglês. Isso aqui
  • 00:45:26
    parece aquelas coisas de ficção
  • 00:45:27
    científica que você fala na mesma
  • 00:45:28
    língua. Isso aqui eu acho legal, mas não
  • 00:45:29
    só nisso aqui, mas aplicado em outras
  • 00:45:31
    coisas, como por exemplo, já vi uma vez
  • 00:45:32
    no passado, era uma coisa que você tinha
  • 00:45:34
    um aparelho auditivo, algo do tipo. Acho
  • 00:45:35
    que até o Samsung lançou uma coisa
  • 00:45:37
    dessa, não sei se foi muito pra frente,
  • 00:45:38
    que era de fazer uma tradução
  • 00:45:40
    automática. Mas é legal que aqui o
  • 00:45:41
    Google Meet muitas pessoas utilizam, né?
  • 00:45:43
    Mas eu gostaria de ver isso em outros
  • 00:45:45
    tipos de tecnologia ou até mesmo no
  • 00:45:46
    óculos. Imagina você viajar com aquele
  • 00:45:48
    óculos e ele já traduz para você
  • 00:45:49
    enquanto você tá viajando para um outro
  • 00:45:51
    lugar. Tá falando em português, a pessoa
  • 00:45:52
    tá falando em espanhol e te responde em
  • 00:45:53
    português. Você vai viajar aqui fora do
  • 00:45:55
    Brasil. Então isso pode ser muito
  • 00:45:57
    interessante. Se já tivesse integrado no
  • 00:45:58
    óculos, você já conversa com a pessoa
  • 00:45:59
    como se tivesse falando ele
  • 00:46:00
    naturalmente.
  • 00:46:09
    Por enquanto só tem em inglês e espanhol
  • 00:46:11
    do que eu tinha visto aqui, mas parece
  • 00:46:12
    algo bastante interessante. Só que
  • 00:46:14
    assim, tem outras IA que já fazem isso,
  • 00:46:16
    tá? O interessante daqui é dependendo de
  • 00:46:18
    quanto que vai custar isso e também que
  • 00:46:19
    já tá no Google Meet, que é uma
  • 00:46:20
    plataforma que muitas pessoas usam, mas
  • 00:46:22
    tem outras reagu elas entram na conversa
  • 00:46:24
    e ficam o terceiro bote ali ou que
  • 00:46:26
    transcrevem. Eh, então assim, depende,
  • 00:46:28
    né? Tem que ver eh como é que vai ser a
  • 00:46:30
    aplicação disso, as outras línguas e
  • 00:46:32
    tudo mais. Mas parece bem interessante.
  • 00:46:34
    Até também uma outra coisa que eu
  • 00:46:34
    lembrei, o a o Samsung S24 e o S25, ele
  • 00:46:39
    faz isso para ligações normais. Eu ainda
  • 00:46:41
    não testei isso para ver se é bom ou
  • 00:46:42
    não, mas isso também é outra
  • 00:46:44
    possibilidade que é interessante, porque
  • 00:46:45
    o Google Meet você tem que ligar só de
  • 00:46:46
    web, né? Mas se você vai ligar para um
  • 00:46:47
    restaurante lá na Argentina para tirar
  • 00:46:49
    uma dúvida se tem mesa, etc e tal, e ele
  • 00:46:51
    já traduzia pra pessoa, né? Só que eu
  • 00:46:53
    não testei para ver se é bom ou não, mas
  • 00:46:54
    em teoria em ligações normais e também
  • 00:46:56
    não sei se nem se ligações do WhatsApp
  • 00:46:57
    também funciona, né? Mas em teoria o
  • 00:46:59
    Samsung tem essa funcionalidade no S24 e
  • 00:47:01
    no S25. Então quando lançar em outros
  • 00:47:03
    dispositivos aí também vai ficar muito
  • 00:47:04
    interessante. E agora respostas
  • 00:47:07
    personalizadas e inteligentes do Gmail,
  • 00:47:09
    tá? my friend to me looking for advice
  • 00:47:12
    he taking a road trip to ut and he
  • 00:47:16
    remers I did this trip before now if
  • 00:47:19
    being honestly reply something short and
  • 00:47:22
    unhelful sorry ele tá brincando assim
  • 00:47:25
    que do jeito que eu respondo eu diria
  • 00:47:27
    algo que não é muito uma boa resposta e
  • 00:47:29
    meio rápido, então desculpe Félix. Então
  • 00:47:32
    ele, o que ele vai justamente dizer é
  • 00:47:33
    que a IA vai melhorar o jeito que ele tá
  • 00:47:35
    respondendo. Ele pegou as coisas
  • 00:47:36
    principais de uma viagem eh de carro,
  • 00:47:38
    que seria, e aí ele vai pegar as
  • 00:47:40
    informações principais e vai responder
  • 00:47:41
    como se fosse ali o CEO do Google, do
  • 00:47:44
    jeito que ele responde naturalmente.
  • 00:47:45
    Então ele vai analisar as respostas,
  • 00:47:47
    documentos e etc.
  • 00:47:57
    Então, olha aqui todos os aplicativos do
  • 00:47:58
    Google que você tem integrados ali no
  • 00:48:00
    Google Drive, etc, e no Google Docs, que
  • 00:48:03
    ele vai integrar para poder te dar a
  • 00:48:05
    melhor resposta como se fosse você,
  • 00:48:07
    baseado em todos os dados que ele tem
  • 00:48:08
    sobre você.
  • 00:48:12
    scaning for reservation and finding my
  • 00:48:17
    go trip to national
  • 00:48:20
    park matches my typical greetings email
  • 00:48:23
    ele ainda pega assim o jeito que eu
  • 00:48:25
    costumo falar e com as outras pessoas e
  • 00:48:27
    me dá várias opções. Então ele ainda
  • 00:48:29
    fala aqui, ó, onde eu pesquisei e vários
  • 00:48:31
    tipos de opções que você pode responder
  • 00:48:32
    para pessoa se você concorda, se você
  • 00:48:33
    não concorda, se você quer dar uma
  • 00:48:34
    opção, então para tentar ganhar
  • 00:48:35
    produtividade. É aquela coisa, né? A
  • 00:48:36
    gente ganha produtividade, mas a que
  • 00:48:38
    custo, né? em relação à privacidade, eu
  • 00:48:40
    tenho ainda sentimentos misturados,
  • 00:48:42
    mixed feelings, né, que o pessoal fala
  • 00:48:44
    em relação a isso, porque eu acho muito
  • 00:48:45
    interessante pela produtividade, mas eu
  • 00:48:47
    fico um pouquinho assim em relação à
  • 00:48:49
    privacidade, né? Eh, bem, vamos
  • 00:48:57
    ver ainda pega o tom da pessoa, palavras
  • 00:48:59
    que ele costuma utilizar muito no Gmail
  • 00:49:01
    e aí escreve como se realmente fosse
  • 00:49:06
    ele. I love how it included details like
  • 00:49:09
    keeping driving time under 5 hours per
  • 00:49:11
    day and it uses my faite adjective
  • 00:49:16
    exciting. Looks great. Maybe you want to
  • 00:49:19
    make a couple of changes to it and hit
  • 00:49:21
    send. This will be available in Gmail
  • 00:49:24
    this summer for
  • 00:49:26
    subscribers. Aí vai est disponível no
  • 00:49:28
    verão e pros subscribers lá no Gmail. E
  • 00:49:31
    o Google também tá investindo nas
  • 00:49:32
    compras e como IA pode te ajudar nisso
  • 00:49:34
    na hora que você vai buscar e comprar
  • 00:49:35
    algo também e que pode mudar bastante em
  • 00:49:37
    relação ao e-commerce, né, que é algo
  • 00:49:39
    que cresce muito no Brasil. Vamos ver
  • 00:49:41
    aqui agora então o que que o Google vai
  • 00:49:42
    fazer.
  • 00:49:47
    Google search dynamically generatesable.
  • 00:49:54
    Então, novamente vamos pegar aqui para
  • 00:49:56
    traduzir, para traduzir mais ráp para
  • 00:49:57
    vocês, utilizando o Google Lens, né? Mas
  • 00:49:59
    o que que ela fez aqui? Eu tenho um sofá
  • 00:50:01
    cinza claro e estou procurando um tapete
  • 00:50:03
    para iluminar o ambiente. Então ela ela
  • 00:50:06
    pegou assim exemplos, né, e tapetes que
  • 00:50:09
    podem combinar bem com sofá cinza claro.
  • 00:50:11
    E aí ele vai dar várias opções de coisas
  • 00:50:13
    que você pode comprar baseado nisso. Ele
  • 00:50:15
    vai te levantar aqui do lado. E aqui
  • 00:50:17
    ainda dá ainda ainda ainda fala melhor
  • 00:50:20
    sobre isso, né? Como é que você pode
  • 00:50:21
    aplicar esse tapete, como é que pode ser
  • 00:50:24
    o melhor tipo de tapete, etc.
  • 00:50:30
    Agora é uma coisa interessante que eu já
  • 00:50:31
    vi umas outras viagens fazendo só de
  • 00:50:32
    imagem, é que você pegava, você quer
  • 00:50:34
    anunciar um produto e você tem uma uma
  • 00:50:36
    pessoa digital que você fez, você botava
  • 00:50:38
    um produto na mão da pessoa, etc. No
  • 00:50:39
    caso aqui é para você provar os produtos
  • 00:50:42
    da loja, você saber se fica bem em você.
  • 00:50:44
    Claro que eu acho que não deve ver o
  • 00:50:45
    tamanho nem nada disso, né? Mas de forma
  • 00:50:47
    geral é interessante para você ver se
  • 00:50:48
    você gostaria em você, se combina com o
  • 00:50:50
    seu estilo e etc.
  • 00:50:55
    we need a deep undanding of the human
  • 00:50:57
    body and how clothing looks on it. To do
  • 00:51:00
    this, we build a custom in a generation
  • 00:51:04
    modally trained for fashion. Wow. And
  • 00:51:08
    it's back.
  • 00:51:10
    Ali ele mostrou, deixa eu até voltar
  • 00:51:11
    aqui para vocês verem com calma aqui.
  • 00:51:12
    Ele colocou aquele aquele exato vestido
  • 00:51:14
    nela, vendo também eles fizeram uma uma
  • 00:51:18
    inteligência especificamente treinada
  • 00:51:19
    para isso, pra moda, para poder rejeitar
  • 00:51:21
    a roupa a pessoa. E aí agora você
  • 00:51:23
    consegue ver o produto em você, o que
  • 00:51:24
    também ganha produtividade. As pessoas
  • 00:51:26
    fazem mais vendas e você ganha mais
  • 00:51:28
    tempo, né? Claro que não sei como é que
  • 00:51:30
    vai ser tanto essa questão de tamanho,
  • 00:51:31
    tudo a gente tem que ver na prática. que
  • 00:51:32
    são as promessas do Google para a gente
  • 00:51:34
    e vamos ver o que que ele vai realmente
  • 00:51:36
    cumprir, o que que ele vai entregar, o
  • 00:51:37
    que que vai nos surpreender. E se você
  • 00:51:39
    já tem alguma coisa dessa que você já tá
  • 00:51:40
    gostando muito ou que você achou
  • 00:51:41
    bobeira, comenta aqui embaixo também. E
  • 00:51:43
    se você gostou desse vídeo aqui, das
  • 00:51:44
    novidades do Google, acredito que esse
  • 00:51:45
    outro vídeo aqui você vai se interessar
  • 00:51:47
    bastante.
Tag
  • Google IO 2023
  • Vio 3
  • AI Mode
  • Google Beam
  • Gmail
  • Gemini 2.5 Pro
  • produção de conteúdo
  • privacidade
  • Google Meet
  • Stitch