Do ZERO ao GenAI: Databricks como seu atalho para o futuro

00:58:16
https://www.youtube.com/watch?v=wr-j2HyMwvU

Ringkasan

TLDRO webinar 'Do Zero ao Genen' foi realizado para apresentar a jornada de adoção de inteligência artificial e machine learning utilizando a plataforma Databricks. Ana Sanchez e Vitinho conduziram a sessão, que foi gravada para posterior revisão dos participantes. Durante o evento, abordaram-se temas como IA generativa e o papel dos modelos LLM (Large Language Models), destacando aplicações práticas em diversos setores. A Databricks foi introduzida como uma empresa de tecnologia com uma década de atividade, conhecida por criar conceitos como Lakehouse e ter uma receita de mais de 1.5 bilhões de dólares. O webinar também explicou conceitos e técnicas de IA, como machine learning e deep learning, além de discutir ferramentas específicas disponíveis na plataforma Databricks para desenvolvimento de soluções de IA.

Takeaways

  • 📅 O evento foi gravado e terá material de revisão.
  • 🖥️ Participantes aprenderam sobre IA generativa no Databricks.
  • 👥 A equipe de apresentação incluiu Ana Sanchez e Vitinho.
  • 📊 Databricks: mais de 10 anos e inovação tecnológica.
  • 🧠 Explicação de fundamentos de IA e machine learning.
  • 🔍 Exploração de potenciais de IA generativa.
  • 🤔 Sessões de perguntas e respostas durante o evento.
  • 💡 Introdução ao conceito de Lakehouse da Databricks.
  • 🚀 Discussão sobre o uso prático do LLM e seus potenciais.
  • 📚 Material educativo e exemplos práticos compartilhados.

Garis waktu

  • 00:00:00 - 00:05:00

    Início do webinar 'Do Zero ao GNNI', introduzindo a equipe e a importância da interação do público. Explicação sobre a Data Bricks, empresa fundada em 2013, conhecida por criar o conceito de Lake House e outras inovações tecnológicas. Apresentação da agenda que cobre desde fundamentos de IA até um caso de sucesso de IA generativa.

  • 00:05:00 - 00:10:00

    Ana Sanchez inicia a introdução sobre os fundamentos de inteligência artificial, machine learning e deep learning. Explicações sobre exemplos comuns de IA, como visão computacional e processamento de linguagem natural. A evolução da IA e como machine learning e deep learning contribuem para o desenvolvimento de técnicas mais complexas.

  • 00:10:00 - 00:15:00

    Discussão sobre IA generativa e os fatores que possibilitam a prática atual da IA, como a existência de grandes datasets e maior poder computacional. O surgimento de inovações em deep learning, como Transformers e Reinforcement Learning, que permitem processamento complexo.

  • 00:15:00 - 00:20:00

    Detallhamento sobre os modelos LLMs e fundacionais, com foco no processamento de linguagem de grandes conjuntos de dados. Explicação sobre a diferença entre LLMs focados em linguagem de texto e modelos fundacionais que cobrem outras áreas além da linguagem, como o DALL-E para imagens.

  • 00:20:00 - 00:25:00

    O processo de funcionamento dos LLMs inclui o codificador, modelo Transformer e decodificador. A importância do entendimento dos conceitos de tokenização e embedding para a busca eficiente de informações. Explicações sobre como LLMs são treinados para fornecer respostas mais precisas.

  • 00:25:00 - 00:30:00

    Introdução ao conceito de 'Prompt Engineering' como o ponto de partida mais simples para trabalhar com LLMs. Importância de definir claramente para o modelo como deve se comportar para fornecer respostas adequadas. Explicações sobre casos de uso de sucesso e a jornada para aplicá-lo dentro das empresas.

  • 00:30:00 - 00:35:00

    O conceito de 'RAG' (Retrieval-Augmented Generation) como uma solução intermediária que melhora a precisão e atualização das informações fornecidas por LLMs. A integração de uma base de dados para gerar respostas mais contextualizadas e dinâmicas.

  • 00:35:00 - 00:40:00

    Explicação de como soluções RAG são orquestradas através de bibliotecas de chain, permitindo a recuperação e aumento do prompt com dados relevantes para fornecer respostas mais precisas. Demostrada a prática de identificar e buscar informações não estruturadas através do data warehouse e vector search.

  • 00:40:00 - 00:45:00

    Como realizar o fine-tuning e eventual pretraining de modelos para adaptá-los a tarefas específicas ou contextos. Comparação entre quando usar RAG versus fine-tuning, com foco na personalização mais avançada e maior controle na resposta dos modelos.

  • 00:45:00 - 00:50:00

    Casos de uso reais onde o pretraining é aplicado; mencionado exemplo da Bloomberg que treinou modelo especializado no mundo financeiro. Etapas e complexidade do treinamento de um modelo de forma robusta e personalizada para domínio específico.

  • 00:50:00 - 00:58:16

    Encerramento do webinar com apresentação do caso de sucesso da Arezzo Co que usou AI generativa para melhorar experiência de cliente e eficiência operacional. Anúncio de materials adicionais e incentivos para participantes aplicarem IA nas suas empresas com apoio da Data Bricks.

Tampilkan lebih banyak

Peta Pikiran

Mind Map

Pertanyaan yang Sering Diajukan

  • O que é um webinar?

    É um seminário online onde informações são apresentadas ao vivo e interativas para uma audiência via internet.

  • Quem são os apresentadores do webinar?

    Os apresentadores são Ana Sanchez e Vitinho.

  • Para que serve a plataforma Databricks?

    A Databricks serve para ajudar na jornada de uso de inteligência artificial e machine learning em empresas.

  • Como é classificada a Databricks no mercado?

    A Databricks é classificada como uma empresa moderna que tem mais de 10 anos de mercado e é pioneira no conceito de Lakehouse.

  • Quantos funcionários a Databricks possui?

    A Databricks possui mais de 8.000 funcionários em todo o mundo.

  • Qual é a receita da Databricks?

    A receita da Databricks é superior a 1.5 bilhões de dólares.

  • Qual é o foco principal da inteligência artificial?

    O foco principal da inteligência artificial é permitir que computadores imitem o comportamento humano.

  • Quais são alguns exemplos de uso de IA na vida diária?

    Exemplos incluem reconhecimento de fala e linguagem natural, como assistentes virtuais tipo Alexa e Siri.

  • Quem são os fundadores do conceito Lakehouse?

    Os fundadores da Databricks são os inventores do conceito de Lakehouse.

  • O que são LLMS?

    LLMs são modelos de aprendizado de máquina de linguagem que processam tarefas linguísticas.

Lihat lebih banyak ringkasan video

Dapatkan akses instan ke ringkasan video YouTube gratis yang didukung oleh AI!
Teks
pt
Gulir Otomatis:
  • 00:00:00
    bom são
  • 00:00:01
    10:3 Então a gente vai iniciar agora o
  • 00:00:04
    webinar do zero ao genen antes da gente
  • 00:00:07
    começar o webinar eu queria salientar
  • 00:00:10
    alguns pontos que são importantes de
  • 00:00:12
    serem compartilhados com todos vocês o
  • 00:00:14
    primeiro deles é que essa sessão ela vai
  • 00:00:16
    ser gravada ela já está sendo gravada
  • 00:00:19
    então posteriormente vocês vão receber
  • 00:00:21
    não só o material que foi apresentado
  • 00:00:22
    mas a gravação para vocês poderem
  • 00:00:24
    revisitar o conteúdo que tá sendo
  • 00:00:27
    compartilhado existe aqui no na no
  • 00:00:30
    botton do zoom aqui no fundo do zoom na
  • 00:00:32
    parte inferior da tela alguns botões que
  • 00:00:35
    vocês conseguem utilizar ao longo desse
  • 00:00:37
    webinar então se vocês tiverem algumas
  • 00:00:39
    perguntas que surgirem no meio da
  • 00:00:41
    apresentação não hesitem em entrar em
  • 00:00:43
    contato conosco através desse botão q en
  • 00:00:46
    que é question and answer pergunta e
  • 00:00:47
    resposta para que vocês possam falar com
  • 00:00:49
    a gente e ao longo da apresentação
  • 00:00:51
    também pra gente poder aqui sentir o
  • 00:00:54
    calor de vocês mesmo a gente estando
  • 00:00:55
    online reajam e interajam principalmente
  • 00:00:58
    aqui comigo que você eu apresent ador
  • 00:01:00
    hoje a Ana Sanchez que também vai estar
  • 00:01:02
    apresentando o webinar comigo e também
  • 00:01:04
    deixem aí o agradecimento para todo o
  • 00:01:06
    pessoal que tá no backend mandem
  • 00:01:08
    coraçãozinho o Lucas rampin o Marcelo
  • 00:01:10
    winer o Caio que vão estar conosco nos
  • 00:01:12
    ajudando a a sair aqui com as respostas
  • 00:01:16
    de todas as perguntas que vocês fizerem
  • 00:01:18
    Bom vamos lá do zero a genen a ideia
  • 00:01:20
    Hoje é a gente conseguir apresentar essa
  • 00:01:22
    jornada para vocês bem como a plataforma
  • 00:01:24
    data Breaks pode abraçar vocês ao longo
  • 00:01:27
    dessa jornada a equipe da data Break que
  • 00:01:30
    tá presente hoje aqui ela é composta
  • 00:01:31
    pela Ana e por mim no qual seremos os
  • 00:01:34
    apresentadores dessa sessão hoje e a
  • 00:01:36
    gente tem um time de peso é bem grande
  • 00:01:39
    aqui para perguntas e respostas que é
  • 00:01:40
    formado pelo Caio pelo Lucas e pelo
  • 00:01:43
    Marcelo então mandem aí bastante
  • 00:01:44
    coraçãozinho para esse pessoal que a
  • 00:01:46
    gente tá com um pessoal bem bom aqui
  • 00:01:48
    dentro da dat Bricks uma galera camisa
  • 00:01:50
    10 que vai ajudar bastante a gente hoje
  • 00:01:52
    ao longo dessa jornada bom para aqueles
  • 00:01:55
    que não conhecem a data Bricks Eu
  • 00:01:57
    imagino que a maioria das pessoas que
  • 00:01:58
    estão aqui hoje já conhecem a data
  • 00:01:59
    Bricks eh mas para aqueles que não
  • 00:02:02
    conhecem é uma oportunidade de conhecer
  • 00:02:03
    ela é uma empresa que foi fundada em
  • 00:02:05
    2013 Então temos um pouco mais de 10
  • 00:02:07
    anos de vida hoje somos mais de 8.000
  • 00:02:09
    empregados ao redor do mundo temos uma
  • 00:02:12
    receita superior a 1.5 Bilhões de
  • 00:02:14
    Dólares tivemos já algumas rodadas de
  • 00:02:17
    investimento no passado onde grandes
  • 00:02:19
    empresas fizeram aporte aqui de dinheiro
  • 00:02:21
    né dentro do nosso negócio e somos os
  • 00:02:24
    inventores do conceito Lake House um
  • 00:02:26
    conceito muito difundido no mercado hoje
  • 00:02:28
    utilizado por várias as outras
  • 00:02:30
    companhias que fazem parte desse
  • 00:02:32
    ecossistema de tecnologia também e não
  • 00:02:34
    só isso ah os fundadores da dat Break
  • 00:02:36
    são também os fundadores do Delta Lake
  • 00:02:38
    do mlflow do Spark e de alguns outros
  • 00:02:41
    elementos aí que fazem parte do nosso
  • 00:02:43
    dia a dia no que tange esse processo de
  • 00:02:45
    codificação de workloads de Pipe de
  • 00:02:48
    dados a nossa agenda hoje ela é uma
  • 00:02:50
    agenda bem direta a gente vai como a
  • 00:02:52
    proposta do webinar é ser do zero ao
  • 00:02:55
    genen a gente não pode partir do zero
  • 00:02:57
    sem a gente ter uma base sólida e saber
  • 00:02:59
    sabermos os fundamentos de Inteligência
  • 00:03:02
    Artificial ciência de dados machine
  • 00:03:04
    learning E por aí vai então a gente vai
  • 00:03:06
    passar por todos esses fundamentos até
  • 00:03:08
    chegarmos de fato no que é um l llm
  • 00:03:10
    perdão para que todos nós fiquemos na
  • 00:03:12
    mesma página depois disso a gente vai
  • 00:03:15
    comentar sobre os potenciais da ia
  • 00:03:17
    generativa então o que eu consigo
  • 00:03:19
    alcançar dentro da minha empresa quando
  • 00:03:21
    eu coloco Live um caso de uso de a
  • 00:03:24
    generativa e a partir do momento que a
  • 00:03:26
    gente entendeu o potencial que a gente
  • 00:03:28
    tem com a e generativa Qual é a jornada
  • 00:03:31
    que eu tenho do início ao fim para
  • 00:03:33
    construir casos de uso de sucesso dentro
  • 00:03:36
    da minha empresa com ia generativo Então
  • 00:03:38
    a gente vai passar por toda a jornada de
  • 00:03:40
    A do nível mais simples Até o nível mais
  • 00:03:44
    sofisticado com demonstrações práticas
  • 00:03:46
    para vocês verem como a gente consegue
  • 00:03:48
    fazer isso dentro da plataforma datab
  • 00:03:50
    Breaks e por fim mas não menos
  • 00:03:51
    importante a gente vai trazer um caso de
  • 00:03:53
    sucesso eu não vou falar o nome do
  • 00:03:55
    cliente ainda não vou dar esse spoiler
  • 00:03:57
    mas a gente vai trazer um caso de
  • 00:03:58
    sucesso de um cliente real onde ele
  • 00:04:00
    aplica já no dia a dia dele e a
  • 00:04:02
    generativa com a plataforma dat Breaks
  • 00:04:05
    dito isso a gente vai agora começar com
  • 00:04:07
    a parte de fundamentos e eu passo a
  • 00:04:08
    palavra pra minha colega de time Ana
  • 00:04:10
    Aninha com você Bom dia pessoal Vitinho
  • 00:04:14
    muito obrigada pela super introdução e
  • 00:04:16
    agora vamos começar né Vamos começar a
  • 00:04:19
    falar de fundamentos por pra gente
  • 00:04:21
    realmente sair do zero e colocar todo
  • 00:04:23
    mundo na mesma página como o Vitinho
  • 00:04:25
    falou a gente vai passar para alguns
  • 00:04:27
    fundamentos bem importantes pra gente
  • 00:04:29
    conseguir conseguir trabalhar com ia
  • 00:04:30
    generativa então pra gente começar a
  • 00:04:33
    gente vai introduzir a inteligência
  • 00:04:34
    artificial né E para introduzir a
  • 00:04:37
    inteligência artificial o primeiro ponto
  • 00:04:40
    é justamente explicar o que é né o Tão o
  • 00:04:44
    Tão famoso tal da Inteligência
  • 00:04:45
    Artificial né então basicamente o que
  • 00:04:47
    que ela é né Ela é basicamente qualquer
  • 00:04:49
    técnica que permita aos computadores
  • 00:04:52
    imitar o comportamento humano né então
  • 00:04:54
    como por exemplo né a gente tem a visão
  • 00:04:58
    né então por exemplo lá quando a gente
  • 00:05:01
    quando as pessoas tomam alguma multa por
  • 00:05:03
    exemplo né e tira foto da placa e ele já
  • 00:05:06
    sabe reconhecer Quais que são os
  • 00:05:08
    caracteres ali daquela placa justamente
  • 00:05:11
    é um formato de Inteligência Artificial
  • 00:05:13
    de visão né outro exemplo muito usado
  • 00:05:16
    hoje em dia é caso da fala né então
  • 00:05:19
    várias pessoas né eu sei que tem Alexa
  • 00:05:21
    né Fala com a Siri também então a gente
  • 00:05:25
    falar né com a Alexa e ela nos responder
  • 00:05:28
    é um outro Campo da da Inteligência
  • 00:05:31
    Artificial te fala e a linguagem é um
  • 00:05:34
    campo muito importante também porque
  • 00:05:35
    para ela entender né O que que a gente
  • 00:05:38
    tá falando e conseguir trazer a resposta
  • 00:05:40
    correta é o campo de linguagem né então
  • 00:05:43
    além desses você pode vocês podem
  • 00:05:45
    reparar que o quê esse conceito ele é um
  • 00:05:48
    conceito super antigo né ele surgiu lá
  • 00:05:50
    nos anos 50 mas a gente só vê a
  • 00:05:53
    inteligência artificial em prática
  • 00:05:55
    realmente bem mais paraa frente isso
  • 00:05:57
    porque para Iá tornar uma real idade a
  • 00:06:00
    gente precisa utilizar técnicas que
  • 00:06:02
    consigam gerar esse resultado né como o
  • 00:06:05
    machine learning que a gente tá vendo
  • 00:06:07
    aqui na tela né então machine learning é
  • 00:06:10
    um exemplo de como a gente consegue
  • 00:06:11
    tornar ia uma realidade né justamente
  • 00:06:14
    por ele é um subconjunto de técnicas e
  • 00:06:17
    algoritmos que usam métodos estatísticos
  • 00:06:19
    pra gente permitir com que as máquinas
  • 00:06:21
    aprendam com base nos dados de entrada
  • 00:06:24
    né E quais técnicas que a gente tem de
  • 00:06:27
    exemplo né de machine learning Então a
  • 00:06:29
    gente tem por exemplo a técnica de
  • 00:06:30
    regressão né então quando eu quero
  • 00:06:32
    prever um número né então ah eu vou
  • 00:06:34
    prever o valor das ações amanhã né então
  • 00:06:37
    isso é uma técnica de regressão né
  • 00:06:40
    quando eu quero classificar né algum
  • 00:06:43
    rótulo né então por exemplo Ah eu quero
  • 00:06:45
    saber se esse meil é Spa ou não né a
  • 00:06:48
    gente utiliza as técnicas de
  • 00:06:50
    classificação outra técnica que a gente
  • 00:06:52
    tem aqui de exemplo é claster iação
  • 00:06:54
    quando eu quero agrupar os dados pelas
  • 00:06:56
    suas características semelhantes para
  • 00:06:58
    tirar algum site né Outra técnica muito
  • 00:07:02
    utilizada hoje em dia que surgiu um
  • 00:07:04
    pouquinho mais paraa frente né um pouco
  • 00:07:06
    depois do machine learning é justamente
  • 00:07:08
    o Deep learning né então o Deep learning
  • 00:07:12
    ele já é uma técnica mais avançada que
  • 00:07:14
    machine learning que permite que os
  • 00:07:16
    computadores aprendam e tomam decisões
  • 00:07:19
    no como se fosse nosso cérebro humano né
  • 00:07:22
    E com isso acaba tendo capacidades de
  • 00:07:24
    lidar com dados muito mais complexos do
  • 00:07:26
    que o machine learning né E
  • 00:07:28
    principalmente dados não estruturados
  • 00:07:30
    como imagem audio texto por exemplo né e
  • 00:07:33
    alguns exemplos de Deep learning são
  • 00:07:35
    justamente os casos de nlp né natural
  • 00:07:39
    language processing né então
  • 00:07:41
    processamento de linguagem natural
  • 00:07:43
    justamente para entender por exemplo lá
  • 00:07:44
    num texto Qual é o sentimento que a
  • 00:07:47
    pessoa que escreveu esse texto trazendo
  • 00:07:50
    né negativo positivo é neutro né um
  • 00:07:53
    outro exemplo que usa bastante das
  • 00:07:55
    técnicas Deep learning é a visão
  • 00:07:57
    computacional também né então um outro
  • 00:07:59
    exemplo de visão computacional é quando
  • 00:08:01
    a gente precisa desbloquear o nosso
  • 00:08:03
    celular né e a gente consegue
  • 00:08:05
    desbloquear hoje através do nosso rosto
  • 00:08:07
    isso é uma são utilizadas técnicas de
  • 00:08:10
    Deep learning para conseguir fazer esse
  • 00:08:12
    reconhecimento eh facial tá e a técnica
  • 00:08:15
    queridinha do momento né a técnica que
  • 00:08:18
    vocês vieram aqui para ouvir mais sobre
  • 00:08:20
    é justamente a ia generativa né então
  • 00:08:24
    mais uma década depois agora aqui nos
  • 00:08:26
    anos 2020 né que chegou essa queridinha
  • 00:08:29
    do momento que é justamente a a
  • 00:08:31
    generativa né e o foco dela é criar um
  • 00:08:34
    conteúdo original inovador né e
  • 00:08:37
    conteúdos como textos imagens vídeos e
  • 00:08:40
    códigos né e a par tudo isso a partir de
  • 00:08:44
    padrões apreendidos em grandes conjuntos
  • 00:08:47
    de dados né e alguns exemplos que a
  • 00:08:50
    gente tem aqui são os llms que a gente
  • 00:08:52
    vai se aprofundar um pouco mais paraa
  • 00:08:54
    frente né para trabalhar com dados
  • 00:08:56
    criação de dados mais focados em texto e
  • 00:08:59
    também os difusão models né os modelos
  • 00:09:01
    de difusão para focar mais em dados de
  • 00:09:03
    imagem tá mas assim né Por só agora né a
  • 00:09:09
    gente tá vendo a a i não só a i
  • 00:09:13
    generativa né mas a própria a bombando
  • 00:09:16
    né Então quais foram os fatores que
  • 00:09:18
    fizeram que com que a ia fosse uma
  • 00:09:21
    realidade hoje e não lá nos anos 50
  • 00:09:23
    quando ela foi criada né então o
  • 00:09:25
    primeiro fator é justamente os grandes
  • 00:09:28
    datasets né então o que que acontece a
  • 00:09:30
    gente tem um estudo né que diz o quê que
  • 00:09:33
    não é muitas vezes não é o melhor
  • 00:09:35
    algoritmo que gera o melhor modelo de a
  • 00:09:39
    e sim o o algoritmo que trabalha com a
  • 00:09:42
    maior quantidade de dados né e não só a
  • 00:09:45
    maior quantidade de dados mas com dados
  • 00:09:47
    com qualidade e hoje a gente vê que a
  • 00:09:49
    gente tem diversos datasets muito
  • 00:09:52
    grandes com muita qualidade disponível
  • 00:09:54
    né inclusive no mundo open source a
  • 00:09:56
    gente tem plataformas que consigam lidar
  • 00:09:58
    com essas quantidade de dados né Como o
  • 00:10:00
    próprio dat Bricks Então tudo isso
  • 00:10:02
    possibilita que a gente tenha essa
  • 00:10:05
    tecnologia na prática no nosso dia a dia
  • 00:10:08
    um Outro fator super importante é
  • 00:10:10
    justamente o poder computacional porque
  • 00:10:13
    pra gente conseguir treinar esses
  • 00:10:15
    modelos a gente precisa desse poder
  • 00:10:17
    computacional e antigamente esse poder
  • 00:10:19
    computacional ele era muito caro né
  • 00:10:21
    então acabava tornando inviável essas
  • 00:10:23
    soluções e hoje como a gente tem né um
  • 00:10:26
    poder computacional com valor muito mais
  • 00:10:29
    eh muito mais aquisitivo né muito mais
  • 00:10:32
    eh barato a gente consegue trabalhar com
  • 00:10:34
    esses modelos também né e o último ponto
  • 00:10:37
    né super importante também a gente ter
  • 00:10:40
    justamente esses algoritmos Deep
  • 00:10:42
    learning inovadores né então ter
  • 00:10:44
    tecnologias como as gus os Transformers
  • 00:10:47
    né e o reinforcement learning eh também
  • 00:10:50
    são muito importantes porque eles têm a
  • 00:10:52
    capacidade de processar informações de
  • 00:10:54
    forma muito eficiente né E eles têm uma
  • 00:10:58
    capacidade muito boa de responder como
  • 00:11:00
    os humanos né E além disso com o poder
  • 00:11:02
    de de processamento que a gente tem hoje
  • 00:11:05
    super melhorado né esses modelos são
  • 00:11:07
    capazes de atingir resultados cada vez
  • 00:11:10
    mais significantes tá bom então agora
  • 00:11:13
    vamos mergulhar um pouquinho no mundo do
  • 00:11:15
    llm né que é uma sigla que a gente ouve
  • 00:11:18
    muito no nosso dia a dia e muitas vezes
  • 00:11:20
    a gente não sabe o que significa então
  • 00:11:22
    basicamente né llm ele tá dentro ali do
  • 00:11:27
    conceito justamente de agen
  • 00:11:29
    né então a gente tem tantos os modelos
  • 00:11:32
    de llm e os modelos fundacionais os dois
  • 00:11:35
    eles são treinados com grandes conjuntos
  • 00:11:38
    de dados né grandes mesmos viu gente e
  • 00:11:40
    eles são baseados como a gente comentou
  • 00:11:42
    anteriormente em RS neurais de Deep
  • 00:11:44
    learning né como arquitetura Transformer
  • 00:11:46
    por exemplo E no caso do llm
  • 00:11:48
    especificamente o foco é trabalhar com
  • 00:11:51
    tarefas de processamento de linguagem né
  • 00:11:53
    então basicamente trabalhar com terços
  • 00:11:55
    então aqui embaixo a gente tem alguns
  • 00:11:57
    exemplos já os modelos fundacionais eles
  • 00:12:00
    são modelos que também T outros focos
  • 00:12:02
    além de linguagem né então por exemplo o
  • 00:12:05
    gpt3 que tá nesse exemplo ele é um llm e
  • 00:12:09
    ele também é um modelo fundacional porém
  • 00:12:11
    a gente tem outros modelos fundacionais
  • 00:12:13
    que tem outros focos além da linguagem
  • 00:12:16
    né então a gente pode ver que aqui na
  • 00:12:17
    caixinha Verde a caixinha que tá aqui
  • 00:12:20
    abaixo a gente tem na segunda linha
  • 00:12:22
    outros modelos de exemplo né então a
  • 00:12:25
    gente tem como modelo fundacional o Doli
  • 00:12:27
    né que trabalha para criar novas imagens
  • 00:12:30
    e o Whisper que ele consegue trabalhar
  • 00:12:32
    com áudio né então basicamente Essa é a
  • 00:12:34
    diferença entre os llms e os modelos
  • 00:12:37
    fundacionais tá então quem tinha essa
  • 00:12:39
    dúvida eu espero que agora esteja
  • 00:12:41
    esclarecida tá se não tiver V mandando
  • 00:12:43
    ali no k Enem e Mas como que funciona
  • 00:12:46
    por trás né então qual é o processo pra
  • 00:12:50
    gente conseguir né justamente criar
  • 00:12:52
    esses modelos né então ele trabalha
  • 00:12:55
    basicamente em algumas etapas né Então
  • 00:12:58
    primeiramente ele tem três componentes
  • 00:13:00
    principais né então a gente tem o
  • 00:13:02
    codificador no meio a gente tem o modelo
  • 00:13:04
    Transformer E no fim a gente tem o
  • 00:13:06
    decodificador né então basicamente o
  • 00:13:09
    quantificador ele converte grandes
  • 00:13:12
    entradas né então como pdfs de livros
  • 00:13:15
    htmls por exemplo de da Wikipedia por
  • 00:13:17
    exemplo e entradas de texto em tokens
  • 00:13:21
    que basicamente é o quê é a quebra desse
  • 00:13:23
    texto em partes menores né que ele pode
  • 00:13:26
    ser quebras em palavras e em subpav ras
  • 00:13:30
    ou até mesmo em caracteres tá E aí após
  • 00:13:33
    essa quebra o que que vai acontecer a
  • 00:13:35
    gente vai para essa fase de tokenização
  • 00:13:37
    que a gente vai transformar esses esses
  • 00:13:40
    tokens em valores numéricos depois disso
  • 00:13:43
    Qual é a etapa né dentro de codificação
  • 00:13:46
    é justamente converter esses tokens em
  • 00:13:50
    edgings né e o que que é eding né um
  • 00:13:52
    conceito que a gente fala muito também
  • 00:13:53
    em a generativa é justamente a
  • 00:13:56
    representação matemática dessas inform
  • 00:13:59
    ações em um espaço vetorial e ele serve
  • 00:14:02
    para quê justamente pra gente agrupar
  • 00:14:04
    esses tokens semelhantes né então por
  • 00:14:07
    exemplo se a gente for ver nessa imagem
  • 00:14:09
    que tá aqui dentro de codificação tem um
  • 00:14:12
    exemplo né então a palavra dog e pup
  • 00:14:15
    eles estão muito próximos no espaço
  • 00:14:17
    vetorial Já a palavra vem e Car eles
  • 00:14:21
    estão próximas entre elas mas um
  • 00:14:24
    pouquinho distante ali de dog pup Então
  • 00:14:27
    essa que é a ideia pra gente quebrar
  • 00:14:29
    essas palavras em toking depois em
  • 00:14:32
    badings justamente pra gente aproximar
  • 00:14:34
    elas né Beleza feito isso Qual que é a
  • 00:14:37
    próxima etapa então esses tokens eles
  • 00:14:39
    são usados né dentro de um modelo
  • 00:14:42
    Transformer pré treinado né dependendo
  • 00:14:44
    da arquitetura específica do llm pode
  • 00:14:46
    até haver uma etapa que a gente consegue
  • 00:14:49
    envolver ali um feedback humano paraa
  • 00:14:51
    gente conseguir orientar o modelo na
  • 00:14:54
    geração da saída justamente para tarefas
  • 00:14:56
    mais específicas né então se token
  • 00:14:58
    Passou aqui pro modelo Transformer PR
  • 00:15:01
    treinado E aí depois a gente vai ter um
  • 00:15:03
    resultado né e qual que vai ser o
  • 00:15:05
    resultado então o resultado ele vai ter
  • 00:15:07
    ali um texto de saída né que ele traz
  • 00:15:10
    esse texto de saída né justamente né no
  • 00:15:13
    formato aqui eh numérico e tudo mais
  • 00:15:16
    então a gente tem um decodificador para
  • 00:15:18
    quê paraa gente não trazer pro usuário
  • 00:15:20
    final somente esses números senão ele
  • 00:15:21
    não vai entender nada né então a gente
  • 00:15:23
    usa o decodificador para traduzir de
  • 00:15:26
    volta esses números em texto e uso o
  • 00:15:29
    final ter a resposta ali do seu llm Tá
  • 00:15:31
    bom então basicamente Esse é o processo
  • 00:15:34
    mais utilizado ali mais encontrado nos
  • 00:15:36
    llms
  • 00:15:38
    atuais E agora se vocês estiverem já
  • 00:15:41
    pensando Nossa legal quero usar um llm
  • 00:15:43
    já entendo como funciona por trás mas
  • 00:15:46
    uma das primeiras perguntas que vocês
  • 00:15:48
    podem se fazer é Qual modelo eu devo
  • 00:15:50
    usar né porque existe milhares de
  • 00:15:52
    modelos então a primeira etapa para
  • 00:15:54
    decidir qual modelo usar é entender
  • 00:15:56
    essas duas opções principais né a
  • 00:15:59
    primeira dela é justamente os modelos de
  • 00:16:01
    código aberto e esses modelos eles podem
  • 00:16:04
    ser usados do jeito que eles estão ou ou
  • 00:16:07
    ajustados de acordo com as suas
  • 00:16:09
    necessidades né o Vitinho vai falar um
  • 00:16:11
    pouquinho mais paraa frente como fazer
  • 00:16:12
    um fine tunning como ajustar o modelo
  • 00:16:15
    focado na sua necessidade e esses
  • 00:16:17
    modelos de código aberto permitem isso
  • 00:16:19
    né então eles oferecem justamente essa
  • 00:16:21
    flexibilidade paraa personalização e
  • 00:16:24
    geralmente são de menores tamanhos né
  • 00:16:26
    então isso é bem importante porque ajuda
  • 00:16:29
    muito a reduzir custos né um out e um
  • 00:16:31
    outro tipo de modelo também que tá sendo
  • 00:16:33
    muito utilizado hoje no mercado é
  • 00:16:35
    justamente os modelos proprietários né
  • 00:16:38
    então esses modelos eles são treinados
  • 00:16:40
    também com grandes com conjuntos muito
  • 00:16:43
    grandes de dados né e geralmente eles
  • 00:16:45
    são oferecidos como soluções llm as a
  • 00:16:49
    service né então acredito que vocês
  • 00:16:51
    muitos muita gente já testou né o GPT
  • 00:16:54
    tanto da Open ai quanto do eure openi
  • 00:16:56
    Por Exemplo antropic né também é um
  • 00:16:59
    exemplo de modelo proprietário então
  • 00:17:01
    eles são servidos dessa forma né E só
  • 00:17:04
    que ele tem um ponto que normalmente as
  • 00:17:05
    licenças para esses modelos geralmente
  • 00:17:08
    tem restrição de uso e modificação né
  • 00:17:11
    então é um ponto a se analisar né e cada
  • 00:17:14
    opção tem as suas próprias considerações
  • 00:17:16
    então a escolha de cada um desses
  • 00:17:18
    modelos vai depender de diversos fatores
  • 00:17:21
    né justamente como orçamento requisitos
  • 00:17:23
    de personalizações e também restrições
  • 00:17:25
    de licenciamento né e o que que é legal
  • 00:17:28
    a a gente tem vários modelos hoje né
  • 00:17:31
    então a depender do seu US Case você
  • 00:17:34
    pode usar um modelo diferente você não
  • 00:17:36
    precisa ter um modelo único para usar
  • 00:17:37
    para todos os casos né E essa planilha
  • 00:17:40
    ela é muito legal a gente vai mandar
  • 00:17:41
    depois esse material para vocês porque
  • 00:17:43
    ele tem diversos exemplos né de modelos
  • 00:17:47
    tanto proprietários quanto open source
  • 00:17:49
    né tem algumas explicações ali bem legal
  • 00:17:52
    para até ajudar vocês a definir e tem um
  • 00:17:54
    link mais embaixo com uma lista
  • 00:17:56
    atualizada dos modelos mais recentes que
  • 00:17:58
    a databricks vem trabalhando justamente
  • 00:18:01
    para orientar o cliente né então em cada
  • 00:18:03
    caso de uso Qual o melhor modelo né ou
  • 00:18:06
    os melhores modelos né que eu posso
  • 00:18:08
    testar para eu decidir então a lista é
  • 00:18:10
    bem grande então é bem legal acompanhar
  • 00:18:12
    esse link para vocês estarem sempre
  • 00:18:14
    atualizados nos novos modelos que vão
  • 00:18:16
    surgindo Tá bom então agora gostaria de
  • 00:18:19
    chamar o Vitinho aqui novamente para
  • 00:18:21
    falar Vista tudo isso né Quais são os
  • 00:18:24
    potenciais da ia generativa legal
  • 00:18:26
    obrigado Aninha agora acho que tá tudo
  • 00:18:28
    mundo na mesma página né a gente passou
  • 00:18:30
    pelos fundamentos entendemos O que é o
  • 00:18:32
    llm agora onde a gente consegue chegar
  • 00:18:35
    né Vamos pensar aqui numa casa
  • 00:18:37
    construída as pessoas que hoje TM
  • 00:18:39
    maturidade tão
  • 00:18:42
    produtizar generativa aonde elas estão
  • 00:18:45
    aplicando isso o que que elas estão
  • 00:18:47
    melhorando no dia a dia delas e é um
  • 00:18:49
    pouco dessa percepção que eu gostaria de
  • 00:18:51
    compartilhar com vocês hoje a data
  • 00:18:53
    Bricks ela fez uma pesquisa interna
  • 00:18:55
    dentro dos seus diferentes clientes e
  • 00:18:56
    indústrias no qual temos hoje hoje e a
  • 00:18:59
    gente chegou hoje nesse resultado que
  • 00:19:03
    90% dos casos de uso inicial de llm São
  • 00:19:07
    para eficiência operacional Eu imagino
  • 00:19:10
    que aqui a gente tá com quase 450
  • 00:19:12
    pessoas participando quem aqui hoje usa
  • 00:19:15
    de alguma forma e a generativa para te
  • 00:19:17
    ajudar no dia a dia com tarefas e
  • 00:19:19
    dúvidas que surgem Eu imagino que a
  • 00:19:22
    maioria das pessoas que está aqui
  • 00:19:23
    utilizam dessa forma Ó Chuva de joinha
  • 00:19:26
    Por quê a gente tá tornando o nosso dia
  • 00:19:28
    mais eficiente então no final do dia a
  • 00:19:30
    gente trabalha ali com eficiência
  • 00:19:32
    operacional também e a generativa no
  • 00:19:34
    nosso dia a dia não é muito diferente os
  • 00:19:36
    clientes hoje que já tem casos de uso
  • 00:19:38
    eh de fato Live né produtizar dentro da
  • 00:19:42
    sua empresa inclusive o caso de uso de
  • 00:19:44
    sucesso que a gente vai apresentar lá no
  • 00:19:45
    final é um desses casos que trouxe não
  • 00:19:47
    só eficiência operacional perdão mas
  • 00:19:50
    trouxe também um retorno de investimento
  • 00:19:52
    pra empresa e hoje esses casos de uso
  • 00:19:55
    eles estão separados em vários pilares
  • 00:19:57
    engajamento do cliente busca de
  • 00:19:59
    conhecimento sumarização e geração de
  • 00:20:01
    conteúdo migração de código então a
  • 00:20:04
    gente tem aqui diferentes clientes
  • 00:20:05
    utilizando aí generativa para
  • 00:20:07
    suportá-los em diferentes tópicos também
  • 00:20:10
    às vezes vocês podem se pegar um pouco
  • 00:20:12
    perdido ah Vitor eu trabalho hoje no
  • 00:20:14
    segmento de seguradoras ah eu tô no
  • 00:20:17
    setor público ah eu tô no segmento de
  • 00:20:19
    varejo como que a i generativa pode me
  • 00:20:21
    ajudar pensando nisso a dat Bricks
  • 00:20:24
    construiu um eBook que ela explica
  • 00:20:26
    exatamente com 52 possíveis casos de uso
  • 00:20:29
    para diferentes segmentos da indústria
  • 00:20:32
    então varejo bens de consumo manufatura
  • 00:20:35
    comunicação setor público saúde serviços
  • 00:20:38
    financeiros enfim você vai encontrar ali
  • 00:20:40
    dentro como a ia generativa pode te
  • 00:20:42
    suportar no dia a dia Imagino que os
  • 00:20:45
    casos de uso vão fazer muito sentido
  • 00:20:46
    para vocês e a gente pode pensar aqui em
  • 00:20:49
    produtizar em colocar isso no chão de
  • 00:20:50
    fábrica e fazer acontecer dentro da sua
  • 00:20:53
    empresa e aí vocês devem estar se
  • 00:20:55
    perguntando agora por onde começar a a
  • 00:20:58
    jornada de genen ela tem etapas né e
  • 00:21:01
    vejam que aqui eu tenho quatro grandes
  • 00:21:03
    Pilares eu vou do prompt Engineering até
  • 00:21:06
    o pretraining e essa corzinha aqui não é
  • 00:21:08
    para deixar o slide bonito é Porque de
  • 00:21:11
    fato a gente tem aqui uma sofisticação e
  • 00:21:14
    um nível de complexidade que vai ser
  • 00:21:16
    adicionado à medida que a gente for
  • 00:21:19
    caminhando para esse lado direito então
  • 00:21:21
    hoje quando eu falo assim ah por onde eu
  • 00:21:23
    começo a nossa sugestão É vamos começar
  • 00:21:26
    pelo prompt Engineering por quê é o é a
  • 00:21:29
    maneira mais simples da gente embarcar e
  • 00:21:32
    iniciar uma jornada com a a ia
  • 00:21:34
    generativa à medida que a gente ganhar
  • 00:21:36
    maturidade eu ganhar maturidade nos
  • 00:21:38
    fundamentos nos conceitos a gente vai
  • 00:21:40
    subindo um degrau dessa escada Então a
  • 00:21:43
    gente vai passar pelo reg pelo fine
  • 00:21:44
    tuning finalmente chegar no PR trining
  • 00:21:46
    caso seja necessário mas para isso é
  • 00:21:49
    muito importante a gente entender o que
  • 00:21:50
    é o prompt Engineering Então qual que é
  • 00:21:53
    a definição de prompt Engineering é a
  • 00:21:55
    criação de prompts especializados para
  • 00:21:58
    guiar as respostas do llm llm agora todo
  • 00:22:01
    mundo já sabe o que significa então eu
  • 00:22:02
    não preciso me preocupar veja que para
  • 00:22:05
    fazer um prompt Engineering eu não
  • 00:22:07
    preciso disponibilizar dados para ia
  • 00:22:10
    generativa ou seja eu não preciso pegar
  • 00:22:12
    um histórico de dados meu uma tabela de
  • 00:22:14
    dados minha para fazer com que o prompt
  • 00:22:16
    Engineering seja capaz de responder a
  • 00:22:19
    pergunta que eu tô fazendo vantagem aqui
  • 00:22:21
    é uma customização extremamente rápida
  • 00:22:24
    então aqui eu tenho um exemplo para
  • 00:22:25
    vocês de prompt Engineering imagina que
  • 00:22:27
    eu queira ionar ali as respostas das
  • 00:22:30
    perguntas que vão ser feitas em cima de
  • 00:22:32
    um assistente então eu vou ali e faço
  • 00:22:34
    uma pergunta do tipo como eu faço para
  • 00:22:36
    desligar um cluster veja que eu tô
  • 00:22:38
    utilizando aqui no meu backend um modelo
  • 00:22:40
    fundacional que foi treinado com milhões
  • 00:22:42
    e milhões talvez bilhões de parâmetros
  • 00:22:45
    de dados provenientes da internet gente
  • 00:22:48
    cluster pode ser uma palavra que
  • 00:22:50
    endereça várias situações e esse é o
  • 00:22:53
    caso eu gostaria que ele tivesse me
  • 00:22:54
    respondido olhando pro mundo dat Bricks
  • 00:22:57
    mas não ele me responde de maneira
  • 00:22:59
    genérica pensando que eu tô falando de
  • 00:23:01
    um cluster ali talvez dentro de um cnet
  • 00:23:03
    e não é o caso então o que que acontece
  • 00:23:05
    você
  • 00:23:06
    precisa dizer pro seu llm como ele deve
  • 00:23:10
    se comportar e aí a gente consegue
  • 00:23:11
    colocar um um prompt de sistema por
  • 00:23:14
    exemplo eu consigo ir ali e declarar
  • 00:23:16
    você é um assistente do databricks que
  • 00:23:19
    está ajudando usuários a utilizar os
  • 00:23:20
    recursos do databricks Responda de
  • 00:23:23
    maneira objetiva cordial e sempre em
  • 00:23:25
    português veja que se eu replicar a
  • 00:23:28
    pergunta nesse momento como faço para
  • 00:23:30
    desligar um cluster ele vai levar em
  • 00:23:32
    consideração que ele é um assistente do
  • 00:23:34
    dat Bricks e ele vai me trazer a
  • 00:23:35
    resposta certa de como eu devo seguir
  • 00:23:38
    ali no final do dia para ter sucesso
  • 00:23:40
    nessa minha tarefa por trás existe um
  • 00:23:44
    conceito muito interessante que faz tudo
  • 00:23:46
    isso acontecer que é o conceito de eu
  • 00:23:48
    servir o meu modelo para eu conseguir
  • 00:23:50
    criar uma aplicação como essa que vocês
  • 00:23:52
    estão vendo aqui hoje eu preciso ter um
  • 00:23:54
    modelo fundacional a Aninha já explicou
  • 00:23:56
    né Open sece ou proprietário mas eu
  • 00:23:59
    preciso ter um lugar de onde eu possa
  • 00:24:01
    plugar naquele modelo para consumir ele
  • 00:24:04
    e hoje dentro da dat Bricks como a gente
  • 00:24:06
    suporta os nossos clientes com essa
  • 00:24:07
    jornada através do que a gente chama
  • 00:24:10
    hoje de Model serving Model serving o
  • 00:24:12
    nome é muito intuitivo né servir modelos
  • 00:24:15
    e ali dentro eu posso servir modelos
  • 00:24:16
    tradicionais tem gente que não gosta
  • 00:24:18
    dessa nomenclatura Me desculpa se você
  • 00:24:20
    não gosta mas quando eu falo
  • 00:24:21
    tradicionais os modelos ali de ch os
  • 00:24:24
    modelos de regressão enfim os modelos
  • 00:24:25
    que a gente tá acostumado a falar já tem
  • 00:24:27
    bons anos mas a gente consegue também
  • 00:24:29
    hoje servir modelos fundacionais modelos
  • 00:24:32
    externos que são os modelos
  • 00:24:33
    proprietários como Aninha trouxe aqui né
  • 00:24:35
    antropic Ager Open ey Open ey enfim e
  • 00:24:38
    entre outros então a gente tem essa
  • 00:24:40
    capacidade hoje que abraça o dat Breaks
  • 00:24:43
    Além disso eu imagino que aqui nessas
  • 00:24:45
    450 pessoas que a gente tem hoje dentro
  • 00:24:47
    da sessão Existem várias que já T uma
  • 00:24:49
    subscrição ativa com algum tipo de
  • 00:24:51
    modelo proprietário se você tem um
  • 00:24:53
    modelo proprietário você poderia
  • 00:24:55
    servi-lo utilizando dat Breaks também a
  • 00:24:58
    através do que a gente chama de ai
  • 00:24:59
    Gateway Qual que é o grande benefício do
  • 00:25:01
    ai Gateway é você controlar é como se
  • 00:25:04
    fosse um portão literalmente e você
  • 00:25:07
    controla tudo que tá acontecendo com
  • 00:25:09
    aquela api do seu modelo então permissão
  • 00:25:12
    e limitação de taxa para controlar quem
  • 00:25:14
    tem acesso e quanto de acesso aquela
  • 00:25:16
    pessoa deveria ter registro de payload
  • 00:25:18
    rastreamento de uso caso eu precise
  • 00:25:21
    depois auditar né quais dados estão
  • 00:25:24
    sendo enviados paraas apis de modelo e
  • 00:25:26
    quem tá fazendo esse request nessa api
  • 00:25:29
    eu posso definir aqui também ai guard
  • 00:25:31
    rails né ou seja Vitor tenho uma
  • 00:25:33
    preocupação muito grande de Security no
  • 00:25:34
    meu time com vazamento de dados como eu
  • 00:25:36
    trabalho isso a gente consegue limitar
  • 00:25:38
    aqui essa questão do ai guard rails
  • 00:25:41
    também na prática pra gente ver vamos
  • 00:25:43
    passar agora por essa questão do Model
  • 00:25:45
    serving do ai Gateway para vocês
  • 00:25:47
    conseguirem Navegar junto comigo na
  • 00:25:48
    plataforma datab Breaks e conhecerem
  • 00:25:50
    mais profundamente o que a gente tem lá
  • 00:25:52
    dentro da plataforma datab Bricks no
  • 00:25:54
    canto esquerdo você tem vários tópicos e
  • 00:25:56
    ali dentro lá embaixo dentro do tópico
  • 00:25:58
    de machine learning você tem a parte de
  • 00:26:00
    serving nessa parte de serving você vai
  • 00:26:02
    encontrar um monte de modelo Open sece
  • 00:26:04
    através de paper token Onde você
  • 00:26:06
    consegue utilizar ou você pode servir o
  • 00:26:08
    seu próprio modelo se você escolher a
  • 00:26:10
    opção de servir o próprio modelo você
  • 00:26:12
    pode criar o seu próprio endp seja para
  • 00:26:14
    servir um modelo open source seja para
  • 00:26:17
    servir um modelo externo aqui utilizando
  • 00:26:19
    a ideia do a Gateway que a gente
  • 00:26:21
    comentou um ponto muito interessante
  • 00:26:23
    também é que você pode usar o unit
  • 00:26:25
    catler com modelo registrado ali dentro
  • 00:26:27
    ou seja você você garante toda a
  • 00:26:29
    governabilidade em cima dos ativos que
  • 00:26:32
    tangem o assunto de modelagem indo pra
  • 00:26:34
    prática eu vou pegar um modelo da Open
  • 00:26:36
    ey agora e eu vou mostrar para vocês o
  • 00:26:38
    que a gente tem ali dentro quando eu tô
  • 00:26:39
    trabalhando com modelo externo veja que
  • 00:26:41
    eu consigo trabalhar com permissões eu
  • 00:26:43
    consigo definir quem pode usar esse
  • 00:26:45
    endpoint quem pode só visualizar quem
  • 00:26:48
    pode gerenciar esse endpoint então eu
  • 00:26:50
    consigo configurar essas permissões E
  • 00:26:53
    além disso eu tenho a possibilidade aqui
  • 00:26:55
    também do ai Gateway Onde eu consigo
  • 00:26:57
    configurar todo todos os pontos que Eu
  • 00:26:58
    mencionei para vocês o o o rastreamento
  • 00:27:01
    de uso tabelas de inferência o guard
  • 00:27:03
    reio ji para segurança enfim eu consigo
  • 00:27:05
    definir tudo isso ali dentro também a
  • 00:27:08
    partir do momento que você seleciona
  • 00:27:10
    qual é o modelo que você quer utilizar
  • 00:27:12
    ou quer testar um ótimo lugar para você
  • 00:27:14
    testar o prompt Engineering é dentro do
  • 00:27:16
    playground Então vem Navegar comigo
  • 00:27:18
    dentro do playground lá dentro a gente
  • 00:27:20
    pode selecionar diferentes modelos de
  • 00:27:22
    novo sejam modelos open source sejam
  • 00:27:25
    modelos proprietários você escolhe qual
  • 00:27:27
    é o modelo que você quer trabalhar e o
  • 00:27:29
    que é legal aqui você consegue testar os
  • 00:27:32
    três modelos ao mesmo tempo então
  • 00:27:33
    imagina que eu sou um assistente de
  • 00:27:35
    contratos do imposto de renda e eu
  • 00:27:37
    coloco ali posso declarar minha sogra
  • 00:27:39
    como dependente eu tô vendo aqui que
  • 00:27:41
    deve ter uma galera que não quer
  • 00:27:42
    declarar a sogra de jeito nenhum né
  • 00:27:44
    vamos ver se a gente pode declarar ou
  • 00:27:45
    não a sogra e aí a gente vê aqui que o
  • 00:27:48
    liama ele traz algumas informações que
  • 00:27:51
    parecem ser pertinentes o dbx me
  • 00:27:54
    responde em inglês e passa longe e o
  • 00:27:56
    open Eye ali ele dá ali um ol eu não
  • 00:27:58
    posso muito fornecer informações mas
  • 00:28:00
    ainda me dá um texto veja que aqui eu
  • 00:28:02
    consigo já avaliar como um modelo
  • 00:28:05
    fundacional tá se comportando diante da
  • 00:28:08
    pergunta que eu fiz agora imagina um
  • 00:28:10
    cenário diferente aqui eu não tenho
  • 00:28:11
    nenhum prompt de sistema mas eu quero eu
  • 00:28:13
    quero definir um prompt de sistema
  • 00:28:15
    dentro dessa situação então eu vou lá e
  • 00:28:18
    crio esse prompt de sistema falando o
  • 00:28:20
    seguinte Olha você vai ser um assistente
  • 00:28:23
    da Receita Federal do Brasil e responda
  • 00:28:25
    sempre as perguntas em português eu vou
  • 00:28:27
    lá e replico com a minha pergunta posso
  • 00:28:29
    declarar a minha sogra como dependente
  • 00:28:31
    para ver agora se os modelos vão
  • 00:28:32
    performar de forma equalitário ou se vai
  • 00:28:34
    alterar muito o que eu já tinha aqui
  • 00:28:36
    dentro veja que o dbx ele agora consegue
  • 00:28:39
    me trazer uma resposta talvez não tão
  • 00:28:40
    aderente quanto eu gostaria mas ele
  • 00:28:42
    consegue ali me trazer um pouco de
  • 00:28:44
    contexto isso é prompt Engineering veja
  • 00:28:47
    que não tem muita dificuldade aqui a
  • 00:28:48
    gente ainda foi numa numa fase bem
  • 00:28:51
    simples né da jornada de prompt
  • 00:28:52
    Engineering mas aqui já é o primeiro
  • 00:28:54
    passo para vocês começarem a utilizar eh
  • 00:28:57
    e a generativa na prática óbvio que
  • 00:28:59
    existem steps e o próximo step agora
  • 00:29:02
    depois que prompt Engineering não te
  • 00:29:03
    atende mais é você trabalhar com o
  • 00:29:05
    conceito de reg e para falar de reg a
  • 00:29:07
    Aninha vai apresentar pra gente Esse
  • 00:29:10
    conceito Obrigada Vitinho muito
  • 00:29:13
    interessante a gente ver o quanto é
  • 00:29:14
    simples né trabalhar com llm né com o
  • 00:29:17
    próprio prompt Engineering só que em
  • 00:29:19
    muitos casos a gente não tem informação
  • 00:29:21
    mais atualizada né então como vocês
  • 00:29:23
    viram a gente em cada um dos modelos o
  • 00:29:26
    primeiro modelo ele foi o mais mais
  • 00:29:28
    próximo de trazer a resposta correta
  • 00:29:30
    porém ele trouxe uma resposta
  • 00:29:32
    desatualizada né então ele trouxe uma
  • 00:29:34
    resposta do ano anterior do Imposto de
  • 00:29:36
    Renda né falando que o teto ali do o
  • 00:29:40
    teto dos recursos da sogra teria que ser
  • 00:29:42
    25.000 e na verdade não é esse valor né
  • 00:29:45
    então como a gente poderia solucionar
  • 00:29:47
    esse problema né pensando na nossa
  • 00:29:48
    empresa muitas vezes a gente vai
  • 00:29:50
    precisar ter ali um chat para fazer
  • 00:29:52
    perguntas sobre documentos vivos né que
  • 00:29:55
    chegam não uma vez por ano como na
  • 00:29:57
    Receita Federal né nesse caso do Imposto
  • 00:29:59
    de Renda mas sim documentos diários
  • 00:30:01
    documentos semanais se a gente
  • 00:30:04
    precisasse retreinar esse modelo do zero
  • 00:30:06
    toda semana todos os dias daria um
  • 00:30:08
    trabalhão né então por isso que a gente
  • 00:30:10
    tem a solução de reg justamente para
  • 00:30:14
    simplificar esse processo e a gente ter
  • 00:30:16
    os nossos chats com respostas muito mais
  • 00:30:18
    acuradas né E como que funciona então
  • 00:30:21
    esse tal de reg né então a sigl
  • 00:30:24
    significa retriever retrieval sorry
  • 00:30:27
    aument Generation e qual é a definição
  • 00:30:30
    então basicamente é a gente combinar o
  • 00:30:32
    nosso llm com um prompt e principalmente
  • 00:30:37
    com uma base de dados que é onde vai ter
  • 00:30:39
    essas informações mais atualizadas né
  • 00:30:41
    então o requerimento de dados é
  • 00:30:43
    justamente a gente ter essa base pra
  • 00:30:45
    gente acoplar aí nessa solução né o
  • 00:30:48
    tempo de treino ele é moderado porque a
  • 00:30:50
    única coisa que a gente vai precisar
  • 00:30:51
    fazer na questão mais de treinamento é a
  • 00:30:54
    gente converter os os nossos textos os
  • 00:30:57
    nossos documentos
  • 00:30:58
    beding né que eu expliquei para vocês
  • 00:31:00
    anteriormente para ele localizar
  • 00:31:02
    justamente o conteúdo correto do
  • 00:31:04
    documento as vantagens é justamente que
  • 00:31:06
    a gente vai ter esse contexto super
  • 00:31:08
    atualizado e dinâmico né e as
  • 00:31:10
    considerações a gente acaba aumentando o
  • 00:31:13
    prompt Porque além do prompt a gente
  • 00:31:15
    adiciona as informações encontradas no
  • 00:31:17
    documento e aí tem um pouquinho mais de
  • 00:31:19
    computação necessária porém a gente tem
  • 00:31:22
    um resultado muito mais acurado e muito
  • 00:31:24
    mais atualizado Tá então vamos ver como
  • 00:31:28
    funciona o processo fim a fim para
  • 00:31:30
    trabalhar no cenários de reg então
  • 00:31:33
    voltando a pensar nesse nosso caso de
  • 00:31:35
    uso né no assistente de Imposto de Renda
  • 00:31:37
    vamos ver como seria esse processo por
  • 00:31:39
    debaixo dos panos trabalhando com reg né
  • 00:31:42
    O que que mudaria ali do processo de
  • 00:31:44
    somente prompt Engineering Então a
  • 00:31:46
    primeira etapa né a gente vai ter
  • 00:31:49
    justamente o o usuário mandando a
  • 00:31:52
    pergunta se ele pode declarar a sogra
  • 00:31:54
    como dependente e a partir daí a
  • 00:31:57
    primeira fase vai ser justamente enviar
  • 00:32:00
    essa pergunta que o usuário fez para um
  • 00:32:03
    embed llm Para quê Para ele justamente
  • 00:32:07
    transformar essa pergunta em um vetor de
  • 00:32:09
    números aí na segunda etapa o que que a
  • 00:32:12
    gente vai fazer nessa segunda etapa ele
  • 00:32:16
    vai buscar né no na nossa base vetorial
  • 00:32:21
    Qual é a parte do texto né Qual é aonde
  • 00:32:24
    tá nesse documento a resposta mais
  • 00:32:28
    próxima dessa pergunta que o usuário fez
  • 00:32:31
    né por isso que a gente transforma ali
  • 00:32:32
    em vetorial depois disso qual que vai
  • 00:32:35
    ser a etapa a gente vai ter o Retorno
  • 00:32:38
    dos desse conteúdo que ele vai ser
  • 00:32:41
    acoplado ao nosso prompt né então o
  • 00:32:43
    nosso prompt basicamente é responda a p
  • 00:32:47
    que é a pergunta do usuário baseado em C
  • 00:32:51
    né então c é o conteúdo relevante que a
  • 00:32:53
    gente trouxe dessa base de dados e aí a
  • 00:32:56
    gente vai empacotar tá todo esse esse
  • 00:32:59
    texto e vai mandar ali pro nosso llm que
  • 00:33:02
    pode ser qualquer um daqueles modelos
  • 00:33:03
    que a gente apresentou lá no início e aí
  • 00:33:06
    ele vai trazer a resposta pro usuário né
  • 00:33:09
    então ele vai explicar Quais são as
  • 00:33:11
    regras para declarar a sogra como
  • 00:33:14
    dependente tá E aí vocês podem ver né a
  • 00:33:16
    sigla retrieval retrieval aent
  • 00:33:19
    Generation é justamente isso retrieval é
  • 00:33:22
    justamente essa essa parte de buscar o
  • 00:33:25
    dado na minha base de dados aument é
  • 00:33:29
    justamente pra gente aumentar ali o
  • 00:33:31
    nosso prompt com esses dados né a gente
  • 00:33:34
    adicionar mais informações nesse prompt
  • 00:33:36
    e o Generation é gerar o resultado final
  • 00:33:39
    pro usuário tá então agora o que que a
  • 00:33:42
    gente vai fazer vamos ver na prática
  • 00:33:44
    como que a dat Bricks te ajuda nesse
  • 00:33:46
    processo todo né como a dat Bricks
  • 00:33:48
    simplifica que a gente consiga criar é
  • 00:33:51
    soluções reg mas para isso antes disso a
  • 00:33:54
    gente tem que pensar num passo muito
  • 00:33:55
    importante que justamente é etapa de
  • 00:33:58
    qual tipo de base de dados que eu vou
  • 00:34:01
    utilizar pra minha solução né então a
  • 00:34:03
    gente tem dois tipos de base de dados
  • 00:34:05
    que a gente pode usar nesse cenário a
  • 00:34:07
    primeira quando a gente tá trabalhando
  • 00:34:09
    justamente nesse caso de uso que são
  • 00:34:11
    documentos né então grandes textos ali
  • 00:34:14
    de documentos que a gente precisa
  • 00:34:16
    encontrar através de similaridade o
  • 00:34:19
    Vector search é uma solução que
  • 00:34:21
    simplifica muito esse processo né e o
  • 00:34:24
    Vector se da det Bricks ele é muito
  • 00:34:26
    legal por quê Porque basicamente a gente
  • 00:34:28
    consegue sincronizar qualquer tabela
  • 00:34:30
    Delta com esse Vector search e não
  • 00:34:33
    precisa criar um pipeline de dados extra
  • 00:34:36
    para fazer sincronização não é um uma
  • 00:34:38
    forma muito visual de fazer e muito
  • 00:34:40
    simplificada que vocês vão ver daqui a
  • 00:34:42
    pouco na demo né mas agora se por
  • 00:34:44
    exemplo né eu tenho dados ali
  • 00:34:46
    estruturados né Eu tenho um ID do meu
  • 00:34:49
    cliente né que tá logado ali nesse meu
  • 00:34:51
    chatbot e eu preciso encontrar além de
  • 00:34:54
    informações ali de documentos né tirar
  • 00:34:57
    dúvida ali sobre imposto de renda eu o
  • 00:34:59
    cliente quer saber também quanto foi o
  • 00:35:02
    valor restituído na sua última
  • 00:35:04
    declaração nesse caso a gente poderia
  • 00:35:07
    utilizar uma outra base adicional né que
  • 00:35:10
    chama feature serving ou online tables
  • 00:35:13
    né que ele é justamente para quê com
  • 00:35:15
    base nesse ID do meu cliente eu vou
  • 00:35:18
    encontrar essa informação nessa tabela E
  • 00:35:20
    aí eu vou trazer esse valor desse esse
  • 00:35:22
    valor restituído do cliente no chatbot
  • 00:35:25
    né então ele é bem legal porque na
  • 00:35:26
    solução r eu posso trabalhar tanto com
  • 00:35:28
    os dados não estruturados de documento
  • 00:35:30
    usando Vector search quanto valores
  • 00:35:32
    estruturados com feature server ou com
  • 00:35:34
    os dois na mesmo bot tá então é bem
  • 00:35:37
    legal e a gente vai mandar depois o link
  • 00:35:39
    para vocês de um exemplo com esses dados
  • 00:35:41
    estruturados porque na demo hoje tá mais
  • 00:35:43
    focada com os dados de documentos tá
  • 00:35:46
    então pra próxima etapa né qual que vai
  • 00:35:49
    ser então depois que a gente decidiu né
  • 00:35:50
    então no nosso caso de uso a gente tá
  • 00:35:53
    trabalhando aqui com documentos a gente
  • 00:35:55
    vai usar o Vector search como a gente
  • 00:35:58
    faz para orquestrar né então a gente viu
  • 00:36:00
    lá que a gente tem o nosso orquestrador
  • 00:36:02
    né então o nosso orquestrador que a
  • 00:36:04
    gente pode utilizar aqui no data Bricks
  • 00:36:06
    né e até em outras plataformas é
  • 00:36:08
    justamente as cadeias né que a gente
  • 00:36:10
    chama de chin né que ela basicamente faz
  • 00:36:12
    o quê né então elas são bibliotecas que
  • 00:36:16
    fazem justamente essa etapa né então a
  • 00:36:18
    gente aponta Qual é a base que a gente
  • 00:36:21
    vai buscar essa informação depois a
  • 00:36:23
    gente coloca o nosso prompt e aponta
  • 00:36:26
    Qual que é o nosso l m para trazer o
  • 00:36:28
    resultado né então basicamente a gente
  • 00:36:31
    segue essas etapas depois a gente vai
  • 00:36:33
    Compartilhar esse material para vocês
  • 00:36:34
    verem alguns exemplos de código e por
  • 00:36:36
    fim a gente precisa registrar esse
  • 00:36:39
    modelo né justamente pra gente garantir
  • 00:36:41
    a governança a a linhagem entender todo
  • 00:36:45
    esse processo né do nosso do nossos
  • 00:36:48
    modelos a gente consegue integrar com o
  • 00:36:50
    Emil Flow simplesmente com alguns
  • 00:36:52
    comandos como mostra aqui na tela né
  • 00:36:54
    então a gente tem toda a integração a
  • 00:36:56
    diversos tipos de cadeia né como leng
  • 00:36:58
    Chin que é o mais utilizado hoje
  • 00:37:00
    diretamente com a mflow tá então ele é
  • 00:37:03
    super legal então agora a gente vai pra
  • 00:37:05
    demo e é um ponto importante por conta
  • 00:37:07
    do tempo a gente não vai conseguir
  • 00:37:08
    mostrar todo o código por trás né mas
  • 00:37:11
    quem tiver curiosidade pessoal fique
  • 00:37:13
    super a vontade em procurar o time de
  • 00:37:15
    conta de vocês para disponibilizar esse
  • 00:37:17
    código e para quem não souber quem é o
  • 00:37:20
    seu time de conta fiquem à vontade para
  • 00:37:22
    nos procurar que a gente ajuda vocês a
  • 00:37:24
    descobrir e a Compartilhar esse material
  • 00:37:26
    então vamos lá então Então vamos agora
  • 00:37:28
    pra prática Então a primeira coisa que a
  • 00:37:30
    gente fez foi justamente pegar o
  • 00:37:32
    material PDF mais atualizado da Receita
  • 00:37:34
    Federal sobre o Imposto de Renda dali
  • 00:37:37
    que a gente já pesquisou as informações
  • 00:37:39
    sobre a sogra e viu que o modelo que a
  • 00:37:42
    gente foi testar anteriormente no prompt
  • 00:37:44
    Engineering não tinha trago a informação
  • 00:37:46
    correta Né tava trazendo ali que a
  • 00:37:48
    isenção era no anual no máximo de 25.000
  • 00:37:52
    e pouco e na verdade diminuiu né 24.500
  • 00:37:57
    a pessoa usasse ali aquele bote e
  • 00:38:00
    colocasse ali a informação eh uma esse
  • 00:38:03
    valor ele ia ter alguns problemas com a
  • 00:38:05
    Receita Federal né então visto isso a
  • 00:38:09
    gente baixou né esse documento PDF então
  • 00:38:12
    a gente acessou o nosso catálogo dali a
  • 00:38:14
    gente procurou o nosso esquema da nossa
  • 00:38:16
    demonstração e dali a gente foi em
  • 00:38:18
    volumes né então como é um dado não
  • 00:38:21
    estruturado a gente acaba colocando essa
  • 00:38:23
    informação em volumes então a gente
  • 00:38:25
    criou uma pastinha eo subiu esse PDF lá
  • 00:38:29
    em volumes depois disso qual que foi a
  • 00:38:31
    próxima parte né então basicamente é a
  • 00:38:34
    gente pegar esse documento quebrar ele
  • 00:38:37
    no que a gente chama de chunks né então
  • 00:38:39
    são pedacinhos menores de textos para
  • 00:38:42
    quê para ficar mais fácil do Vector
  • 00:38:45
    search encontrar informação então foi
  • 00:38:47
    isso que a gente fez por trás Então
  • 00:38:49
    feito isso que que a gente vai fazer
  • 00:38:51
    agora então agora a gente vai acessar
  • 00:38:54
    essa tabela que a gente quebrou esses
  • 00:38:56
    dados do PDF né então é uma tabela Delta
  • 00:38:59
    comum e aí a gente criou Super simples
  • 00:39:02
    dois Campos um campo de ID e um campo
  • 00:39:05
    que tem a pergunta e a resposta agrupada
  • 00:39:08
    ali nessa linha né Então feito isso a
  • 00:39:12
    gente colocou todas as perguntas e
  • 00:39:14
    respostas do documento nessa tabela
  • 00:39:16
    Delta e a partir daí a gente já consegue
  • 00:39:19
    criar um Vector search com alguns
  • 00:39:21
    cliques né a gente também consegue fazer
  • 00:39:23
    por código né mas para quem prefere de
  • 00:39:26
    forma visual a a gente vem ali em Create
  • 00:39:28
    Vector search Vector search index coloca
  • 00:39:31
    o nome desse Vector search então
  • 00:39:33
    coloquei esse nome aqui depois
  • 00:39:35
    selecionei a minha chave primária depois
  • 00:39:38
    eu vou selecionar um end Point de Vector
  • 00:39:40
    search previamente criado também a gente
  • 00:39:43
    consegue criar com alguns cliques as
  • 00:39:45
    colunas que a gente vai sincronizar né
  • 00:39:48
    automaticamente da tabela Delta para as
  • 00:39:50
    tabela de Vector search né Depois de se
  • 00:39:53
    a gente colocar em branco ele vai pegar
  • 00:39:55
    todas depois disso eu vou selecionar
  • 00:39:58
    Qual é o llm de embedding que eu vou
  • 00:40:00
    utilizar né para converter essas
  • 00:40:03
    perguntas em respostas em edgings néz
  • 00:40:07
    fiz isso cliquei em Sink aqui para
  • 00:40:09
    salvar em uma outra tabela Delta mas
  • 00:40:11
    para ter rastreabilidade e por fim eu
  • 00:40:14
    posso selecionar triggered para rodar
  • 00:40:16
    isso uma vez por dia uma vez por semana
  • 00:40:19
    ou se é uma informação viva né que vem o
  • 00:40:22
    tempo todo eu posso clicar continu que
  • 00:40:25
    ela já vai ser uma uma operação em
  • 00:40:28
    streaming né então toda vez que chegar
  • 00:40:30
    um novo documento né na e a gente tiver
  • 00:40:33
    isso na tabela Delta automaticamente ele
  • 00:40:35
    vai ser sincronizado com o nosso endp
  • 00:40:38
    agora a gente pode fazer um teste né
  • 00:40:41
    então depois que eu criei o meu Vector
  • 00:40:42
    search eu posso já testar então eu posso
  • 00:40:44
    mandar posso declarar minha sogra como
  • 00:40:46
    dependente E aí ele vai trazer
  • 00:40:49
    Justamente a parte do documento que tem
  • 00:40:51
    essa resposta então show de bola nosso
  • 00:40:53
    Vector search Tá funcionando então agora
  • 00:40:56
    a gente pode criar a nossa cadeia
  • 00:41:02
    rec mas para isso para facilitar também
  • 00:41:06
    todo esse processo como essa parte a
  • 00:41:07
    gente tem que né acabar programando o
  • 00:41:09
    nosso agente O que que a gente precisa o
  • 00:41:11
    que a gente pode fazer né o dat Bricks
  • 00:41:13
    Ele criou o mosaic a ag gente Framework
  • 00:41:16
    que ele é um Framework que simplifica
  • 00:41:18
    muito essas etapas né e além de
  • 00:41:20
    simplificar ele traz funcionalidades que
  • 00:41:23
    ajudam muito nesse processo né então ele
  • 00:41:26
    ajuda muito toda a parte de integração
  • 00:41:28
    com m Flow que eu falei com vocês
  • 00:41:30
    anteriormente toda a parte de
  • 00:41:32
    monitoração a parte de avaliação que é
  • 00:41:34
    um ponto muito importante né quando a
  • 00:41:36
    gente cria esse produto a gente tem que
  • 00:41:38
    deixar os nossos stakeholders o nosso
  • 00:41:40
    cliente final testar né então antes de
  • 00:41:44
    colocar isso em produção então também a
  • 00:41:46
    gente consegue criar um app super visual
  • 00:41:48
    pros usuários testarem e inclusive fazer
  • 00:41:51
    avaliações através de outras llms
  • 00:41:54
    automatizadas pra gente ver se ela tá
  • 00:41:56
    respondo Endo corretamente ou não então
  • 00:41:58
    são recursos muito
  • 00:42:00
    legais e agora a gente vai ver né como
  • 00:42:04
    que vai ficar o resultado então agora a
  • 00:42:06
    gente usou o mosaic Agent ai Framework
  • 00:42:10
    né para criar essa cadeia né que nem eu
  • 00:42:12
    comentei o código depois a gente
  • 00:42:13
    compartilha com vocês e gerou esse
  • 00:42:15
    agente então agora o que que a gente vai
  • 00:42:17
    fazer a gente vai voltar lá naquela demo
  • 00:42:19
    do Vitinho né que ele fez somente ali
  • 00:42:21
    com os llms e o prompt Engineering aí a
  • 00:42:24
    gente vai comparar com o nosso Agent
  • 00:42:27
    criado aqui de com a solução reg então
  • 00:42:30
    Vitinho vamos
  • 00:42:31
    lá legal então aqui na nossa
  • 00:42:34
    demonstração Então a gente tem o Lhama
  • 00:42:36
    novamente o d brx e o nosso agente então
  • 00:42:39
    eu pergunto novamente se eu posso
  • 00:42:40
    declarar minha sogra como dependente e a
  • 00:42:43
    gente vê agora o lama mandou outro valor
  • 00:42:46
    um valor de 28.000 e a gente vê que o
  • 00:42:49
    único correto com a informação
  • 00:42:50
    atualizada é justamente o nosso agente
  • 00:42:54
    que a gente criou utilizando ali o
  • 00:42:56
    Vector sech que ele traz Justamente que
  • 00:42:59
    o limite no máximo é 24.000 o que que é
  • 00:43:01
    legal eu posso clicar também para ver
  • 00:43:04
    cada etapa do processo quanto tempo tá
  • 00:43:06
    levando isso é muito legal porque às
  • 00:43:08
    vezes Ah tem uma etapa que tá demorando
  • 00:43:11
    muito mais que a outra que etapa é essa
  • 00:43:13
    é o Vector search ou não é a parte que
  • 00:43:16
    eu chamo o meu llm se for a parte que eu
  • 00:43:18
    chamo o meu llm por exemplo eu posso
  • 00:43:21
    trocar de modelo falar não esse modelo
  • 00:43:23
    tá muito lento pro meu caso de uso vou
  • 00:43:25
    testar com outro modelo e a assim vai
  • 00:43:27
    todo o meu processo de desenvolvimento
  • 00:43:29
    né então pro desenvolvedor fica muito
  • 00:43:31
    mais simples para avaliar seus
  • 00:43:33
    resultados só que agora não só o
  • 00:43:36
    desenvolvedor precisa avaliar né então a
  • 00:43:38
    gente precisa ter alguns usuários que
  • 00:43:41
    avaliem esse produto né então para isso
  • 00:43:43
    a gente tem o review app que a gente
  • 00:43:45
    cria com simples comando do e Agent
  • 00:43:48
    Framework e ele gera toda uma interface
  • 00:43:50
    visual pra gente tá então o que que a
  • 00:43:52
    gente vai fazer a gente vai acessar o
  • 00:43:53
    nosso modelo né que a gente criou
  • 00:43:55
    registrou ali no un etiquet log a gente
  • 00:43:58
    consegue acompanhar todas as versões
  • 00:44:00
    desse modelo quando que foi registrado
  • 00:44:03
    quem registrou a gente consegue ver ali
  • 00:44:06
    informações mais detalhadas né Inclusive
  • 00:44:09
    a gente consegue ver detalhe daquela
  • 00:44:12
    execução né então qual foi o Notebook
  • 00:44:14
    que gerou esse modelo reg Qual foi o
  • 00:44:18
    tipo de cadeia que foi utilizada os
  • 00:44:20
    artefatos gerados para eu reproduzir até
  • 00:44:22
    em outros lugares né então é muito legal
  • 00:44:25
    quando a gente registra esse modelo aqui
  • 00:44:27
    com o emow E aí o que que a gente pode
  • 00:44:30
    fazer depois documentar né esse esse
  • 00:44:32
    agente colocar ali uma descrição para
  • 00:44:34
    que que ele serve e justamente colocar o
  • 00:44:37
    link desse review app para já ficar tudo
  • 00:44:40
    registrado em um único local e esse link
  • 00:44:43
    pode ser compartilhado com esses
  • 00:44:44
    clientes para fazer o teste ali a gente
  • 00:44:46
    consegue colocar algumas instruções para
  • 00:44:48
    ele fazer esse teste variar as perguntas
  • 00:44:52
    dar o feedback em cada resposta revisar
  • 00:44:55
    os documentos devolvidos para ver se tá
  • 00:44:57
    tudo certo pra gente conseguir avaliar
  • 00:44:59
    para pôr em produção então aí o usuário
  • 00:45:02
    vai vir novamente com a mesma pergunta
  • 00:45:04
    né vai perguntar se pode declarar a
  • 00:45:06
    sogra aqui como dependente E aí ele
  • 00:45:09
    mandando esse resultado ele vai aparecer
  • 00:45:11
    novos botões diferentes do playground né
  • 00:45:14
    justamente pra gente fazer a avaliação
  • 00:45:16
    legal ele tá com a resposta certa mas se
  • 00:45:18
    ele não tivesse né então o que que eu
  • 00:45:20
    poderia fazer então esse usuário que tá
  • 00:45:22
    avaliando ele poderia editar a resposta
  • 00:45:25
    né pra gente ter esse retorno de qual
  • 00:45:28
    seria a resposta certa a gente poderia
  • 00:45:30
    colocar itens de avaliação de feedback
  • 00:45:33
    né que a resposta foi boa ela foi
  • 00:45:35
    acurada relevante profissional poderia
  • 00:45:39
    colocar feedbacks a mais também né
  • 00:45:42
    depois disso eu já consigo ver qual foi
  • 00:45:44
    o documento que ele trouxe né que trouxe
  • 00:45:46
    essa resposta então eu poderia avaliar
  • 00:45:48
    isso também e confirmar né se tá correto
  • 00:45:51
    se não tá depois disso O que que eu
  • 00:45:54
    poderia fazer né então viria ali os
  • 00:45:57
    desenvolvedores analisaria esse teste e
  • 00:46:00
    veria se tá pronto já paraa produção ou
  • 00:46:02
    não né então simplifica todo o processo
  • 00:46:05
    né desde desenvolvimento até mesmo aos
  • 00:46:09
    testes finais antes de entrar em
  • 00:46:13
    produção e agora para vocês conhecerem
  • 00:46:16
    mais duas técnicas muito interessantes
  • 00:46:18
    Vou chamar o Vitinho aqui para falar
  • 00:46:19
    sobre fine tunning e pre-training valeu
  • 00:46:22
    Obrigado Aninha bom a Aninha deu um show
  • 00:46:24
    né gente falando de reg acho que eh uma
  • 00:46:28
    solução como essa ela pode ser aplicada
  • 00:46:31
    em vários contextos dentro da sua
  • 00:46:33
    empresa e eu imagino que isso resolveria
  • 00:46:37
    boa parte do dos problemas que vocês têm
  • 00:46:39
    Talvez hoje e imagino que vocês
  • 00:46:41
    concordem comigo só que a jornada de
  • 00:46:43
    genen ela não para em reg ela continua
  • 00:46:46
    eu diria que reg a gente tá chegando ali
  • 00:46:47
    na metade do caminho né a gente pode
  • 00:46:50
    sofisticar ainda mais essa jornada caso
  • 00:46:53
    seja necessário então a gente viu prompt
  • 00:46:56
    engeneering entendeu muito bem que reg
  • 00:46:58
    traz ali já documentos específicos para
  • 00:47:01
    uma resposta mais acurada só que a gente
  • 00:47:03
    tem agora o conceito de fine tunning
  • 00:47:05
    também E aí vocês devem estar se
  • 00:47:07
    perguntando pô Vitor quando que dentro
  • 00:47:09
    do meu contexto no meu dia a dia eu vou
  • 00:47:11
    saber que eu preciso migrar uma solução
  • 00:47:13
    rag para uma solução de fine tuning vou
  • 00:47:16
    responder vocês já sobre isso mas é
  • 00:47:18
    importante a gente entender que fine
  • 00:47:20
    tuning é a adaptação do modelo
  • 00:47:22
    pré-treino a tarefas ou domínios
  • 00:47:25
    específicos ou seja eu quero que esse
  • 00:47:27
    meu modelo ele seja capaz de entender de
  • 00:47:30
    forma granular de forma especialista
  • 00:47:33
    aquela pergunta que tá sendo feita para
  • 00:47:35
    que ele dê uma resposta de fato acurada
  • 00:47:37
    Quando que você faz essa migração né
  • 00:47:39
    essa virada de chave de reg para fine
  • 00:47:42
    tun o primeiro ponto eu diria que não é
  • 00:47:44
    o principal mas ele tá ali no top três é
  • 00:47:46
    o desempenho e a consistência o fine
  • 00:47:48
    tuning ele tende a oferecer respostas
  • 00:47:51
    mais confiáveis e especializadas que são
  • 00:47:54
    geralmente cruciais para tarefas
  • 00:47:56
    específicas o segundo ponto a latência
  • 00:47:58
    reduzida modelos geralmente que são fine
  • 00:48:01
    tuned eles respondem mais rápido do que
  • 00:48:04
    soluções rag e terceiro ponto aqui é uma
  • 00:48:07
    personalização mais avançada como vocês
  • 00:48:08
    viram o fine tuning ele permite com que
  • 00:48:11
    eu adapte ou Ajuste o meu modelo para
  • 00:48:14
    refletir não só a voz da minha marca
  • 00:48:17
    caso eu queira Mas que ele responda de
  • 00:48:18
    forma condizente com o meu domínio
  • 00:48:21
    específico Então isso é muito
  • 00:48:22
    interessante como a data Bricks ela
  • 00:48:24
    fornece ou ela dá braço para que você
  • 00:48:26
    vocês consigam executar essa tarefa hoje
  • 00:48:29
    dentro da nossa aba de machine learning
  • 00:48:32
    Quando você vai criar um experimento
  • 00:48:33
    você pode hoje criar um fine tuning ou
  • 00:48:36
    um pretraining que eu já explico mais à
  • 00:48:38
    frente para vocês o que é isso tá gated
  • 00:48:40
    Public preview Então se vocês não
  • 00:48:41
    tiverem isso habilitado dentro da
  • 00:48:43
    workspace de vocês entre em contato com
  • 00:48:45
    o nosso time que a gente inscreve vocês
  • 00:48:47
    e faz essa habilitação o processo de
  • 00:48:49
    fine tuning Hoje ele é muito semelhante
  • 00:48:50
    ao processo de aeml Então você vai criar
  • 00:48:53
    um experimento Ali vai selecionar o fine
  • 00:48:54
    tuning as máquinas vão ser provisionadas
  • 00:48:57
    de forma servas para que você utilize e
  • 00:49:00
    posteriormente você vai ter um modelo
  • 00:49:01
    sendo registrado no Unit catalog com
  • 00:49:04
    rastreamento sendo feito com mlflow que
  • 00:49:07
    depois você consegue registrar e fazer a
  • 00:49:09
    implementação desse modelo utilizando
  • 00:49:11
    Model serving veja que aqui e você passa
  • 00:49:14
    por algumas etapas né você vai escolher
  • 00:49:16
    a arquitetura do seu modelo nesse caso
  • 00:49:18
    do fine tuning você precisa trazer os
  • 00:49:19
    seus dados de Treinamento personalizado
  • 00:49:22
    para ir sim fazer o fine tuning
  • 00:49:24
    acontecer e depois finalmente
  • 00:49:25
    disponibilizar isso num Model serving né
  • 00:49:28
    num endp de modelo para que a sua
  • 00:49:30
    aplicação possa consumir esse recurso
  • 00:49:33
    outra etapa que a gente tem e aqui a
  • 00:49:35
    gente chega no maior nível de
  • 00:49:36
    complexidade na jornada de genen é o
  • 00:49:39
    nível mais sofisticado possível é o
  • 00:49:41
    nível de pretraining confesso que eu não
  • 00:49:43
    conheço ainda nenhum cliente no Brasil
  • 00:49:45
    que esteja nesse nível bem e com caso
  • 00:49:48
    público para falar conosco ou falar
  • 00:49:50
    Enfim no mercado aqui a gente tá falando
  • 00:49:53
    de treinar um modelo de genen do zero
  • 00:49:56
    para um domínio ou um contexto
  • 00:49:58
    específico ou seja é um treinamento de
  • 00:50:00
    um modelo fundacional a gente vai
  • 00:50:03
    precisar aqui de alguns milhões bilhões
  • 00:50:06
    trilhões de tokens para fazer o
  • 00:50:08
    treinamento desse modelo ah Vitor isso
  • 00:50:10
    daí é rápido cara a gente não tá falando
  • 00:50:13
    de poucos dias a gente tá falando de
  • 00:50:14
    muitas semanas talvez alguns meses para
  • 00:50:17
    conseguir executar isso e finalmente
  • 00:50:19
    chegar na obra ali da Ópera final né da
  • 00:50:22
    da arte final com sucesso vantagens
  • 00:50:25
    controle completo é é um modelo seu você
  • 00:50:28
    criou esse modelo então é um modelo que
  • 00:50:30
    ninguém mais no mercado nunca vai ter
  • 00:50:32
    nada parecido com o que você tem
  • 00:50:34
    considerações é um processo complexo
  • 00:50:36
    então pode ser extremamente Custoso
  • 00:50:39
    fazer isso do zero quem hoje tá
  • 00:50:41
    aplicando isso muito bem e fazendo com
  • 00:50:43
    sucesso e esse é um ponto que eu queria
  • 00:50:45
    compartilhar com vocês acho que o caso
  • 00:50:47
    mais legal para ser compartilhado com
  • 00:50:48
    vocês é o caso da Bloomberg a Bloomberg
  • 00:50:51
    ela criou ali eh em cima dos dados de 40
  • 00:50:55
    anos de do setor financeiro né dados
  • 00:50:57
    financeiros que eles tinham para criar o
  • 00:50:59
    que eles chamam de Bloomberg GPT que é
  • 00:51:02
    basicamente um assistente que sabe
  • 00:51:04
    responder qualquer pergunta relacionada
  • 00:51:06
    ao mundo financeiro aí vocês devem estar
  • 00:51:09
    falando pô Vitor mas demorou mesmo para
  • 00:51:11
    fazer esse Bloomberg GPT ess assistente
  • 00:51:13
    da Bloomberg só para vocês terem ideia a
  • 00:51:15
    gente tá falando de
  • 00:51:17
    aproximadamente 700 bilhões de tokens
  • 00:51:20
    para treinamento vocês lembram quando a
  • 00:51:23
    Aninha apresentou os fundamentos pra
  • 00:51:24
    gente que o token era uma palavra um
  • 00:51:26
    conjunto de palavras imagina 700 bilhões
  • 00:51:30
    de tokens quantos documentos e quantas
  • 00:51:32
    análises de texto não foram feitas aí
  • 00:51:35
    vocês devem se perguntar Ah vctor esse
  • 00:51:36
    modelo da Bloomberg quantos dias demorou
  • 00:51:38
    para eles treinarem esse modelo e chegar
  • 00:51:40
    na obra da arte final foram 48 dias sem
  • 00:51:45
    a máquina desligar em nenhum momento
  • 00:51:47
    então Imaginem aqui a complexidade e a
  • 00:51:50
    sofisticação que um processo desse tem
  • 00:51:53
    demonstração né como vocês podem
  • 00:51:55
    alcançar esse sucesso dentro da
  • 00:51:57
    plataforma datab Bricks é bem simples na
  • 00:51:59
    workspace dentro da aba de machine
  • 00:52:01
    learning você tem ali Os experimentos
  • 00:52:03
    pra galera que tá acostumada a modelar
  • 00:52:04
    aqui não tem muito segredo e ali dentro
  • 00:52:06
    vocês têm a opção né lá em cima do lado
  • 00:52:09
    de aut Emil mosaic ai Model Training
  • 00:52:11
    quando vocês clicam nessa opção vocês
  • 00:52:13
    vão ver que vocês TM duas opções aqui
  • 00:52:15
    via interface do usuário tudo isso é
  • 00:52:17
    replicável via código também você
  • 00:52:19
    seleciona se você quer fazer um fine
  • 00:52:21
    tunning ou se você gostaria de fazer um
  • 00:52:23
    pretraining e dali você consegue iniciar
  • 00:52:26
    sua jornada se você tá nessa fase da
  • 00:52:28
    jornada de genen e tem mais interesse em
  • 00:52:31
    conhecer mais profundamente os materiais
  • 00:52:33
    que a gente tem entra em contato conosco
  • 00:52:35
    assim que acabar o webinar e a gente
  • 00:52:37
    pode sentar e fazer um Deep diive em
  • 00:52:39
    cima dentro desses dois tópicos para que
  • 00:52:41
    vocês conheçam de fato tudo que a gente
  • 00:52:43
    tem debaixo do capô do carro dito isso
  • 00:52:45
    Promessa é dívida né a gente tem aqui
  • 00:52:47
    mais alguns minutos antes de encerrar o
  • 00:52:48
    webinar a gente tem agora o grande caso
  • 00:52:50
    de uso de sucesso e que é público que
  • 00:52:53
    nós aqui time data Breaks temos muito
  • 00:52:55
    orgulho e gostaríamos de apresentar para
  • 00:52:57
    vocês vou passar a palavra pra Ana e a
  • 00:52:58
    Ana vai apresentar Quem é esse fatídico
  • 00:53:01
    cliente para vocês então vamos lá
  • 00:53:03
    pitinho muito legal né a gente saber
  • 00:53:06
    onde a gente pode chegar na jornada de
  • 00:53:08
    Jen né então trabalhando com dat Break
  • 00:53:11
    Vocês conseguem trabalhar desde do do
  • 00:53:13
    prompt Engineering trabalhar com reg e
  • 00:53:16
    se um dia vocês precisarem né trabalhar
  • 00:53:17
    com f tan PR Training vocês sabem que
  • 00:53:20
    tem uma plataforma completa para isso e
  • 00:53:22
    não só isso né utilizar também qualquer
  • 00:53:24
    modelo que vocês precisarem mas agora
  • 00:53:26
    orora vamos ver na prática como nossos
  • 00:53:28
    clientes estão tendo sucesso com essas
  • 00:53:30
    soluções né e o cliente tão esperado que
  • 00:53:32
    a gente trouxe aqui para vocês é a arezo
  • 00:53:35
    en co né Então primeiramente eu gostaria
  • 00:53:38
    de agradecer tanto o Guilherme quanto o
  • 00:53:40
    Murilo por terem compartilhado esse
  • 00:53:42
    super casa de uso no nosso evento em
  • 00:53:44
    agosto desse ano né o dat en Tour São
  • 00:53:46
    Paulo e agradecer também por permitirem
  • 00:53:49
    que a gente apresentasse hoje aqui para
  • 00:53:51
    vocês e também parabenizar todos
  • 00:53:53
    envolvidos nesse caso de sucesso tanto o
  • 00:53:55
    time do data Bricks quanto o Tim da Arez
  • 00:53:57
    enc né E esse caso né da Arez enc né que
  • 00:54:01
    inclusive eu sou super fã deles né eu
  • 00:54:03
    tenho vários produtos da marca mas para
  • 00:54:06
    quem não conhece a Ares é uma das
  • 00:54:08
    maiores House of brands do Brasil ela
  • 00:54:10
    tem mais de 17 marcas e quase 6 milhões
  • 00:54:13
    de clientes né então é uma empresa super
  • 00:54:16
    grande e a marca escolhida para ser
  • 00:54:19
    trabalhada nesse projeto justamente foi
  • 00:54:21
    a arezo né a grande marca de calçados e
  • 00:54:23
    acessórios femininos com milhares de l
  • 00:54:26
    lojas pelo Brasil né e qual que foi né
  • 00:54:29
    esse caso de uso né hoje já narzo todas
  • 00:54:32
    as vendedoras já tem na palma da sua mão
  • 00:54:35
    o zzp né que ele é um aplicativo que
  • 00:54:38
    elas usam para se comunicar com as
  • 00:54:39
    clientes onde por trás tem vários vários
  • 00:54:43
    modelos de a né que traz um diferencial
  • 00:54:45
    pra sua cliente porque consegue tanto
  • 00:54:48
    trazer um atendimento personalizado e
  • 00:54:50
    até mesmo várias recomendações Com base
  • 00:54:53
    no uso e no gosto delas né E aí para
  • 00:54:56
    para elevar essa experiência do cliente
  • 00:54:58
    em um novo patamar eles adicionaram uma
  • 00:55:00
    funcionalidade muito bacana que foi
  • 00:55:03
    desenvolvida justamente para atender os
  • 00:55:05
    clientes que acabam chegando na loja né
  • 00:55:08
    com a foto de algum calçado que gostaram
  • 00:55:11
    isso até já aconteceu comigo e até mesmo
  • 00:55:14
    né ou até mesmo vira um produto ali na
  • 00:55:16
    loja e não tinha um produto no seu
  • 00:55:19
    número então qual que é a ideia é a
  • 00:55:21
    vendedora pegar esse sapato que a
  • 00:55:23
    cliente gostou e não tem o número dela
  • 00:55:25
    ela tira essa essa foto e na hora que
  • 00:55:27
    essa foto é tirada já faz uma busca em
  • 00:55:30
    todo o seu estoque para encontrar os
  • 00:55:33
    sapatos mais semelhantes com aquele que
  • 00:55:35
    a cliente Gostou né então isso foi muito
  • 00:55:39
    legal porque foi implementado ali
  • 00:55:41
    modelos utilizando o Model serving com
  • 00:55:44
    conexão com Open ai e essas imagens
  • 00:55:47
    foram indexadas utilizando o Vector
  • 00:55:49
    search que a gente falou bastante aqui
  • 00:55:50
    nas apresentações justamente para
  • 00:55:52
    realizar essa busca por similaridade né
  • 00:55:55
    esse produto que a cliente quer com a
  • 00:55:57
    base do estoque né e o que o é legal que
  • 00:56:00
    o resultado foi muito incrível gente
  • 00:56:02
    isso é um produto super novo e a gente
  • 00:56:04
    já consegue ver dados muito expressivos
  • 00:56:07
    né então em teste de 12 meses nas lojas
  • 00:56:10
    participantes Eles já tiveram uma
  • 00:56:12
    receita incremental de quase R 70
  • 00:56:14
    milhões deais diminuíram em 9% o estoque
  • 00:56:18
    médio e a conversão de clientes
  • 00:56:20
    atendidos né Por recomendação que é a
  • 00:56:23
    cliente entrar na loja e comprar o
  • 00:56:25
    produto foi já de quase 4% a mais né
  • 00:56:29
    então a gente vê que a ia generativa ela
  • 00:56:32
    é um Case são cases muito legais que
  • 00:56:34
    atendem tanto o cliente final quanto a
  • 00:56:37
    empresa né a gente vê Olha esses números
  • 00:56:39
    que impactantes né Então esse é só um
  • 00:56:41
    dos casos que a gente já tem diversos ao
  • 00:56:44
    redor do mundo então Caso vocês tenham
  • 00:56:46
    curiosidade de saber outros casos de uso
  • 00:56:49
    na prática que estão acontecendo com os
  • 00:56:51
    nossos clientes a gente vai deixar aqui
  • 00:56:53
    um Carry code né esse primeiro Carry
  • 00:56:55
    code na esquerda então lá Vocês
  • 00:56:57
    conseguem ver vários casos de uso com i
  • 00:56:59
    generativa para quem quiser se
  • 00:57:00
    especializar Ah eu gostei dessa área é
  • 00:57:03
    isso que eu quero seguir entrem nesse
  • 00:57:05
    site O que é genen aqui do dat Bricks
  • 00:57:08
    que tem toda a explicação que a gente
  • 00:57:09
    deu aqui no material de forma mais
  • 00:57:11
    aprofundada com diversos links links
  • 00:57:13
    para curso do Academy links para
  • 00:57:15
    certificação né para tirar acreditação e
  • 00:57:18
    também quem quiser já fazer algum
  • 00:57:20
    tutoriais a gente tem esse outro Carry
  • 00:57:22
    code para vocês fazerem tutoriais e já
  • 00:57:24
    começarem colocar a mão na massa tá e
  • 00:57:27
    pessoal um ponto muito importante né
  • 00:57:29
    então Caso vocês tenham algum caso de
  • 00:57:31
    uso né que vocês não sabem como começar
  • 00:57:34
    gostariam do apoio da det Bricks tanto
  • 00:57:36
    na questão de arquitetura na questão de
  • 00:57:39
    orientação quando vocês saírem do
  • 00:57:41
    webinar vai aparecer algumas perguntas
  • 00:57:44
    bem pouquinhas coloquem lá as
  • 00:57:46
    informações Caso vocês tenham algum caso
  • 00:57:48
    de uso que precisem da nossa ajuda
  • 00:57:49
    porque a gente vai entrar em contato com
  • 00:57:51
    vocês para fazer vocês também se
  • 00:57:53
    tornarem um caso de sucesso e aparecer
  • 00:57:55
    aqui nos próximos abinar também então
  • 00:57:57
    contem com a gente nessa jornada pessoal
  • 00:58:00
    muito obrigada pela participação de
  • 00:58:02
    todos não se esqueçam de inscrever se
  • 00:58:04
    inscrever nos próximos webinares e
  • 00:58:06
    contem com a gente nessa jornada
  • 00:58:08
    Obrigada pessoal Tenha um bom dia valeu
  • 00:58:11
    pessoal boa quarta-feira para vocês
  • 00:58:13
    tchau tchau
Tags
  • webinar
  • Databricks
  • inteligência artificial
  • machine learning
  • LLM
  • Lakehouse
  • ai generativa