Do ZERO ao GenAI: Databricks como seu atalho para o futuro

00:58:16
https://www.youtube.com/watch?v=wr-j2HyMwvU

Resumen

TLDRO webinar 'Do Zero ao Genen' foi realizado para apresentar a jornada de adoção de inteligência artificial e machine learning utilizando a plataforma Databricks. Ana Sanchez e Vitinho conduziram a sessão, que foi gravada para posterior revisão dos participantes. Durante o evento, abordaram-se temas como IA generativa e o papel dos modelos LLM (Large Language Models), destacando aplicações práticas em diversos setores. A Databricks foi introduzida como uma empresa de tecnologia com uma década de atividade, conhecida por criar conceitos como Lakehouse e ter uma receita de mais de 1.5 bilhões de dólares. O webinar também explicou conceitos e técnicas de IA, como machine learning e deep learning, além de discutir ferramentas específicas disponíveis na plataforma Databricks para desenvolvimento de soluções de IA.

Para llevar

  • 📅 O evento foi gravado e terá material de revisão.
  • 🖥️ Participantes aprenderam sobre IA generativa no Databricks.
  • 👥 A equipe de apresentação incluiu Ana Sanchez e Vitinho.
  • 📊 Databricks: mais de 10 anos e inovação tecnológica.
  • 🧠 Explicação de fundamentos de IA e machine learning.
  • 🔍 Exploração de potenciais de IA generativa.
  • 🤔 Sessões de perguntas e respostas durante o evento.
  • 💡 Introdução ao conceito de Lakehouse da Databricks.
  • 🚀 Discussão sobre o uso prático do LLM e seus potenciais.
  • 📚 Material educativo e exemplos práticos compartilhados.

Cronología

  • 00:00:00 - 00:05:00

    Início do webinar 'Do Zero ao GNNI', introduzindo a equipe e a importância da interação do público. Explicação sobre a Data Bricks, empresa fundada em 2013, conhecida por criar o conceito de Lake House e outras inovações tecnológicas. Apresentação da agenda que cobre desde fundamentos de IA até um caso de sucesso de IA generativa.

  • 00:05:00 - 00:10:00

    Ana Sanchez inicia a introdução sobre os fundamentos de inteligência artificial, machine learning e deep learning. Explicações sobre exemplos comuns de IA, como visão computacional e processamento de linguagem natural. A evolução da IA e como machine learning e deep learning contribuem para o desenvolvimento de técnicas mais complexas.

  • 00:10:00 - 00:15:00

    Discussão sobre IA generativa e os fatores que possibilitam a prática atual da IA, como a existência de grandes datasets e maior poder computacional. O surgimento de inovações em deep learning, como Transformers e Reinforcement Learning, que permitem processamento complexo.

  • 00:15:00 - 00:20:00

    Detallhamento sobre os modelos LLMs e fundacionais, com foco no processamento de linguagem de grandes conjuntos de dados. Explicação sobre a diferença entre LLMs focados em linguagem de texto e modelos fundacionais que cobrem outras áreas além da linguagem, como o DALL-E para imagens.

  • 00:20:00 - 00:25:00

    O processo de funcionamento dos LLMs inclui o codificador, modelo Transformer e decodificador. A importância do entendimento dos conceitos de tokenização e embedding para a busca eficiente de informações. Explicações sobre como LLMs são treinados para fornecer respostas mais precisas.

  • 00:25:00 - 00:30:00

    Introdução ao conceito de 'Prompt Engineering' como o ponto de partida mais simples para trabalhar com LLMs. Importância de definir claramente para o modelo como deve se comportar para fornecer respostas adequadas. Explicações sobre casos de uso de sucesso e a jornada para aplicá-lo dentro das empresas.

  • 00:30:00 - 00:35:00

    O conceito de 'RAG' (Retrieval-Augmented Generation) como uma solução intermediária que melhora a precisão e atualização das informações fornecidas por LLMs. A integração de uma base de dados para gerar respostas mais contextualizadas e dinâmicas.

  • 00:35:00 - 00:40:00

    Explicação de como soluções RAG são orquestradas através de bibliotecas de chain, permitindo a recuperação e aumento do prompt com dados relevantes para fornecer respostas mais precisas. Demostrada a prática de identificar e buscar informações não estruturadas através do data warehouse e vector search.

  • 00:40:00 - 00:45:00

    Como realizar o fine-tuning e eventual pretraining de modelos para adaptá-los a tarefas específicas ou contextos. Comparação entre quando usar RAG versus fine-tuning, com foco na personalização mais avançada e maior controle na resposta dos modelos.

  • 00:45:00 - 00:50:00

    Casos de uso reais onde o pretraining é aplicado; mencionado exemplo da Bloomberg que treinou modelo especializado no mundo financeiro. Etapas e complexidade do treinamento de um modelo de forma robusta e personalizada para domínio específico.

  • 00:50:00 - 00:58:16

    Encerramento do webinar com apresentação do caso de sucesso da Arezzo Co que usou AI generativa para melhorar experiência de cliente e eficiência operacional. Anúncio de materials adicionais e incentivos para participantes aplicarem IA nas suas empresas com apoio da Data Bricks.

Ver más

Mapa mental

Mind Map

Preguntas frecuentes

  • O que é um webinar?

    É um seminário online onde informações são apresentadas ao vivo e interativas para uma audiência via internet.

  • Quem são os apresentadores do webinar?

    Os apresentadores são Ana Sanchez e Vitinho.

  • Para que serve a plataforma Databricks?

    A Databricks serve para ajudar na jornada de uso de inteligência artificial e machine learning em empresas.

  • Como é classificada a Databricks no mercado?

    A Databricks é classificada como uma empresa moderna que tem mais de 10 anos de mercado e é pioneira no conceito de Lakehouse.

  • Quantos funcionários a Databricks possui?

    A Databricks possui mais de 8.000 funcionários em todo o mundo.

  • Qual é a receita da Databricks?

    A receita da Databricks é superior a 1.5 bilhões de dólares.

  • Qual é o foco principal da inteligência artificial?

    O foco principal da inteligência artificial é permitir que computadores imitem o comportamento humano.

  • Quais são alguns exemplos de uso de IA na vida diária?

    Exemplos incluem reconhecimento de fala e linguagem natural, como assistentes virtuais tipo Alexa e Siri.

  • Quem são os fundadores do conceito Lakehouse?

    Os fundadores da Databricks são os inventores do conceito de Lakehouse.

  • O que são LLMS?

    LLMs são modelos de aprendizado de máquina de linguagem que processam tarefas linguísticas.

Ver más resúmenes de vídeos

Obtén acceso instantáneo a resúmenes gratuitos de vídeos de YouTube gracias a la IA.
Subtítulos
pt
Desplazamiento automático:
  • 00:00:00
    bom são
  • 00:00:01
    10:3 Então a gente vai iniciar agora o
  • 00:00:04
    webinar do zero ao genen antes da gente
  • 00:00:07
    começar o webinar eu queria salientar
  • 00:00:10
    alguns pontos que são importantes de
  • 00:00:12
    serem compartilhados com todos vocês o
  • 00:00:14
    primeiro deles é que essa sessão ela vai
  • 00:00:16
    ser gravada ela já está sendo gravada
  • 00:00:19
    então posteriormente vocês vão receber
  • 00:00:21
    não só o material que foi apresentado
  • 00:00:22
    mas a gravação para vocês poderem
  • 00:00:24
    revisitar o conteúdo que tá sendo
  • 00:00:27
    compartilhado existe aqui no na no
  • 00:00:30
    botton do zoom aqui no fundo do zoom na
  • 00:00:32
    parte inferior da tela alguns botões que
  • 00:00:35
    vocês conseguem utilizar ao longo desse
  • 00:00:37
    webinar então se vocês tiverem algumas
  • 00:00:39
    perguntas que surgirem no meio da
  • 00:00:41
    apresentação não hesitem em entrar em
  • 00:00:43
    contato conosco através desse botão q en
  • 00:00:46
    que é question and answer pergunta e
  • 00:00:47
    resposta para que vocês possam falar com
  • 00:00:49
    a gente e ao longo da apresentação
  • 00:00:51
    também pra gente poder aqui sentir o
  • 00:00:54
    calor de vocês mesmo a gente estando
  • 00:00:55
    online reajam e interajam principalmente
  • 00:00:58
    aqui comigo que você eu apresent ador
  • 00:01:00
    hoje a Ana Sanchez que também vai estar
  • 00:01:02
    apresentando o webinar comigo e também
  • 00:01:04
    deixem aí o agradecimento para todo o
  • 00:01:06
    pessoal que tá no backend mandem
  • 00:01:08
    coraçãozinho o Lucas rampin o Marcelo
  • 00:01:10
    winer o Caio que vão estar conosco nos
  • 00:01:12
    ajudando a a sair aqui com as respostas
  • 00:01:16
    de todas as perguntas que vocês fizerem
  • 00:01:18
    Bom vamos lá do zero a genen a ideia
  • 00:01:20
    Hoje é a gente conseguir apresentar essa
  • 00:01:22
    jornada para vocês bem como a plataforma
  • 00:01:24
    data Breaks pode abraçar vocês ao longo
  • 00:01:27
    dessa jornada a equipe da data Break que
  • 00:01:30
    tá presente hoje aqui ela é composta
  • 00:01:31
    pela Ana e por mim no qual seremos os
  • 00:01:34
    apresentadores dessa sessão hoje e a
  • 00:01:36
    gente tem um time de peso é bem grande
  • 00:01:39
    aqui para perguntas e respostas que é
  • 00:01:40
    formado pelo Caio pelo Lucas e pelo
  • 00:01:43
    Marcelo então mandem aí bastante
  • 00:01:44
    coraçãozinho para esse pessoal que a
  • 00:01:46
    gente tá com um pessoal bem bom aqui
  • 00:01:48
    dentro da dat Bricks uma galera camisa
  • 00:01:50
    10 que vai ajudar bastante a gente hoje
  • 00:01:52
    ao longo dessa jornada bom para aqueles
  • 00:01:55
    que não conhecem a data Bricks Eu
  • 00:01:57
    imagino que a maioria das pessoas que
  • 00:01:58
    estão aqui hoje já conhecem a data
  • 00:01:59
    Bricks eh mas para aqueles que não
  • 00:02:02
    conhecem é uma oportunidade de conhecer
  • 00:02:03
    ela é uma empresa que foi fundada em
  • 00:02:05
    2013 Então temos um pouco mais de 10
  • 00:02:07
    anos de vida hoje somos mais de 8.000
  • 00:02:09
    empregados ao redor do mundo temos uma
  • 00:02:12
    receita superior a 1.5 Bilhões de
  • 00:02:14
    Dólares tivemos já algumas rodadas de
  • 00:02:17
    investimento no passado onde grandes
  • 00:02:19
    empresas fizeram aporte aqui de dinheiro
  • 00:02:21
    né dentro do nosso negócio e somos os
  • 00:02:24
    inventores do conceito Lake House um
  • 00:02:26
    conceito muito difundido no mercado hoje
  • 00:02:28
    utilizado por várias as outras
  • 00:02:30
    companhias que fazem parte desse
  • 00:02:32
    ecossistema de tecnologia também e não
  • 00:02:34
    só isso ah os fundadores da dat Break
  • 00:02:36
    são também os fundadores do Delta Lake
  • 00:02:38
    do mlflow do Spark e de alguns outros
  • 00:02:41
    elementos aí que fazem parte do nosso
  • 00:02:43
    dia a dia no que tange esse processo de
  • 00:02:45
    codificação de workloads de Pipe de
  • 00:02:48
    dados a nossa agenda hoje ela é uma
  • 00:02:50
    agenda bem direta a gente vai como a
  • 00:02:52
    proposta do webinar é ser do zero ao
  • 00:02:55
    genen a gente não pode partir do zero
  • 00:02:57
    sem a gente ter uma base sólida e saber
  • 00:02:59
    sabermos os fundamentos de Inteligência
  • 00:03:02
    Artificial ciência de dados machine
  • 00:03:04
    learning E por aí vai então a gente vai
  • 00:03:06
    passar por todos esses fundamentos até
  • 00:03:08
    chegarmos de fato no que é um l llm
  • 00:03:10
    perdão para que todos nós fiquemos na
  • 00:03:12
    mesma página depois disso a gente vai
  • 00:03:15
    comentar sobre os potenciais da ia
  • 00:03:17
    generativa então o que eu consigo
  • 00:03:19
    alcançar dentro da minha empresa quando
  • 00:03:21
    eu coloco Live um caso de uso de a
  • 00:03:24
    generativa e a partir do momento que a
  • 00:03:26
    gente entendeu o potencial que a gente
  • 00:03:28
    tem com a e generativa Qual é a jornada
  • 00:03:31
    que eu tenho do início ao fim para
  • 00:03:33
    construir casos de uso de sucesso dentro
  • 00:03:36
    da minha empresa com ia generativo Então
  • 00:03:38
    a gente vai passar por toda a jornada de
  • 00:03:40
    A do nível mais simples Até o nível mais
  • 00:03:44
    sofisticado com demonstrações práticas
  • 00:03:46
    para vocês verem como a gente consegue
  • 00:03:48
    fazer isso dentro da plataforma datab
  • 00:03:50
    Breaks e por fim mas não menos
  • 00:03:51
    importante a gente vai trazer um caso de
  • 00:03:53
    sucesso eu não vou falar o nome do
  • 00:03:55
    cliente ainda não vou dar esse spoiler
  • 00:03:57
    mas a gente vai trazer um caso de
  • 00:03:58
    sucesso de um cliente real onde ele
  • 00:04:00
    aplica já no dia a dia dele e a
  • 00:04:02
    generativa com a plataforma dat Breaks
  • 00:04:05
    dito isso a gente vai agora começar com
  • 00:04:07
    a parte de fundamentos e eu passo a
  • 00:04:08
    palavra pra minha colega de time Ana
  • 00:04:10
    Aninha com você Bom dia pessoal Vitinho
  • 00:04:14
    muito obrigada pela super introdução e
  • 00:04:16
    agora vamos começar né Vamos começar a
  • 00:04:19
    falar de fundamentos por pra gente
  • 00:04:21
    realmente sair do zero e colocar todo
  • 00:04:23
    mundo na mesma página como o Vitinho
  • 00:04:25
    falou a gente vai passar para alguns
  • 00:04:27
    fundamentos bem importantes pra gente
  • 00:04:29
    conseguir conseguir trabalhar com ia
  • 00:04:30
    generativa então pra gente começar a
  • 00:04:33
    gente vai introduzir a inteligência
  • 00:04:34
    artificial né E para introduzir a
  • 00:04:37
    inteligência artificial o primeiro ponto
  • 00:04:40
    é justamente explicar o que é né o Tão o
  • 00:04:44
    Tão famoso tal da Inteligência
  • 00:04:45
    Artificial né então basicamente o que
  • 00:04:47
    que ela é né Ela é basicamente qualquer
  • 00:04:49
    técnica que permita aos computadores
  • 00:04:52
    imitar o comportamento humano né então
  • 00:04:54
    como por exemplo né a gente tem a visão
  • 00:04:58
    né então por exemplo lá quando a gente
  • 00:05:01
    quando as pessoas tomam alguma multa por
  • 00:05:03
    exemplo né e tira foto da placa e ele já
  • 00:05:06
    sabe reconhecer Quais que são os
  • 00:05:08
    caracteres ali daquela placa justamente
  • 00:05:11
    é um formato de Inteligência Artificial
  • 00:05:13
    de visão né outro exemplo muito usado
  • 00:05:16
    hoje em dia é caso da fala né então
  • 00:05:19
    várias pessoas né eu sei que tem Alexa
  • 00:05:21
    né Fala com a Siri também então a gente
  • 00:05:25
    falar né com a Alexa e ela nos responder
  • 00:05:28
    é um outro Campo da da Inteligência
  • 00:05:31
    Artificial te fala e a linguagem é um
  • 00:05:34
    campo muito importante também porque
  • 00:05:35
    para ela entender né O que que a gente
  • 00:05:38
    tá falando e conseguir trazer a resposta
  • 00:05:40
    correta é o campo de linguagem né então
  • 00:05:43
    além desses você pode vocês podem
  • 00:05:45
    reparar que o quê esse conceito ele é um
  • 00:05:48
    conceito super antigo né ele surgiu lá
  • 00:05:50
    nos anos 50 mas a gente só vê a
  • 00:05:53
    inteligência artificial em prática
  • 00:05:55
    realmente bem mais paraa frente isso
  • 00:05:57
    porque para Iá tornar uma real idade a
  • 00:06:00
    gente precisa utilizar técnicas que
  • 00:06:02
    consigam gerar esse resultado né como o
  • 00:06:05
    machine learning que a gente tá vendo
  • 00:06:07
    aqui na tela né então machine learning é
  • 00:06:10
    um exemplo de como a gente consegue
  • 00:06:11
    tornar ia uma realidade né justamente
  • 00:06:14
    por ele é um subconjunto de técnicas e
  • 00:06:17
    algoritmos que usam métodos estatísticos
  • 00:06:19
    pra gente permitir com que as máquinas
  • 00:06:21
    aprendam com base nos dados de entrada
  • 00:06:24
    né E quais técnicas que a gente tem de
  • 00:06:27
    exemplo né de machine learning Então a
  • 00:06:29
    gente tem por exemplo a técnica de
  • 00:06:30
    regressão né então quando eu quero
  • 00:06:32
    prever um número né então ah eu vou
  • 00:06:34
    prever o valor das ações amanhã né então
  • 00:06:37
    isso é uma técnica de regressão né
  • 00:06:40
    quando eu quero classificar né algum
  • 00:06:43
    rótulo né então por exemplo Ah eu quero
  • 00:06:45
    saber se esse meil é Spa ou não né a
  • 00:06:48
    gente utiliza as técnicas de
  • 00:06:50
    classificação outra técnica que a gente
  • 00:06:52
    tem aqui de exemplo é claster iação
  • 00:06:54
    quando eu quero agrupar os dados pelas
  • 00:06:56
    suas características semelhantes para
  • 00:06:58
    tirar algum site né Outra técnica muito
  • 00:07:02
    utilizada hoje em dia que surgiu um
  • 00:07:04
    pouquinho mais paraa frente né um pouco
  • 00:07:06
    depois do machine learning é justamente
  • 00:07:08
    o Deep learning né então o Deep learning
  • 00:07:12
    ele já é uma técnica mais avançada que
  • 00:07:14
    machine learning que permite que os
  • 00:07:16
    computadores aprendam e tomam decisões
  • 00:07:19
    no como se fosse nosso cérebro humano né
  • 00:07:22
    E com isso acaba tendo capacidades de
  • 00:07:24
    lidar com dados muito mais complexos do
  • 00:07:26
    que o machine learning né E
  • 00:07:28
    principalmente dados não estruturados
  • 00:07:30
    como imagem audio texto por exemplo né e
  • 00:07:33
    alguns exemplos de Deep learning são
  • 00:07:35
    justamente os casos de nlp né natural
  • 00:07:39
    language processing né então
  • 00:07:41
    processamento de linguagem natural
  • 00:07:43
    justamente para entender por exemplo lá
  • 00:07:44
    num texto Qual é o sentimento que a
  • 00:07:47
    pessoa que escreveu esse texto trazendo
  • 00:07:50
    né negativo positivo é neutro né um
  • 00:07:53
    outro exemplo que usa bastante das
  • 00:07:55
    técnicas Deep learning é a visão
  • 00:07:57
    computacional também né então um outro
  • 00:07:59
    exemplo de visão computacional é quando
  • 00:08:01
    a gente precisa desbloquear o nosso
  • 00:08:03
    celular né e a gente consegue
  • 00:08:05
    desbloquear hoje através do nosso rosto
  • 00:08:07
    isso é uma são utilizadas técnicas de
  • 00:08:10
    Deep learning para conseguir fazer esse
  • 00:08:12
    reconhecimento eh facial tá e a técnica
  • 00:08:15
    queridinha do momento né a técnica que
  • 00:08:18
    vocês vieram aqui para ouvir mais sobre
  • 00:08:20
    é justamente a ia generativa né então
  • 00:08:24
    mais uma década depois agora aqui nos
  • 00:08:26
    anos 2020 né que chegou essa queridinha
  • 00:08:29
    do momento que é justamente a a
  • 00:08:31
    generativa né e o foco dela é criar um
  • 00:08:34
    conteúdo original inovador né e
  • 00:08:37
    conteúdos como textos imagens vídeos e
  • 00:08:40
    códigos né e a par tudo isso a partir de
  • 00:08:44
    padrões apreendidos em grandes conjuntos
  • 00:08:47
    de dados né e alguns exemplos que a
  • 00:08:50
    gente tem aqui são os llms que a gente
  • 00:08:52
    vai se aprofundar um pouco mais paraa
  • 00:08:54
    frente né para trabalhar com dados
  • 00:08:56
    criação de dados mais focados em texto e
  • 00:08:59
    também os difusão models né os modelos
  • 00:09:01
    de difusão para focar mais em dados de
  • 00:09:03
    imagem tá mas assim né Por só agora né a
  • 00:09:09
    gente tá vendo a a i não só a i
  • 00:09:13
    generativa né mas a própria a bombando
  • 00:09:16
    né Então quais foram os fatores que
  • 00:09:18
    fizeram que com que a ia fosse uma
  • 00:09:21
    realidade hoje e não lá nos anos 50
  • 00:09:23
    quando ela foi criada né então o
  • 00:09:25
    primeiro fator é justamente os grandes
  • 00:09:28
    datasets né então o que que acontece a
  • 00:09:30
    gente tem um estudo né que diz o quê que
  • 00:09:33
    não é muitas vezes não é o melhor
  • 00:09:35
    algoritmo que gera o melhor modelo de a
  • 00:09:39
    e sim o o algoritmo que trabalha com a
  • 00:09:42
    maior quantidade de dados né e não só a
  • 00:09:45
    maior quantidade de dados mas com dados
  • 00:09:47
    com qualidade e hoje a gente vê que a
  • 00:09:49
    gente tem diversos datasets muito
  • 00:09:52
    grandes com muita qualidade disponível
  • 00:09:54
    né inclusive no mundo open source a
  • 00:09:56
    gente tem plataformas que consigam lidar
  • 00:09:58
    com essas quantidade de dados né Como o
  • 00:10:00
    próprio dat Bricks Então tudo isso
  • 00:10:02
    possibilita que a gente tenha essa
  • 00:10:05
    tecnologia na prática no nosso dia a dia
  • 00:10:08
    um Outro fator super importante é
  • 00:10:10
    justamente o poder computacional porque
  • 00:10:13
    pra gente conseguir treinar esses
  • 00:10:15
    modelos a gente precisa desse poder
  • 00:10:17
    computacional e antigamente esse poder
  • 00:10:19
    computacional ele era muito caro né
  • 00:10:21
    então acabava tornando inviável essas
  • 00:10:23
    soluções e hoje como a gente tem né um
  • 00:10:26
    poder computacional com valor muito mais
  • 00:10:29
    eh muito mais aquisitivo né muito mais
  • 00:10:32
    eh barato a gente consegue trabalhar com
  • 00:10:34
    esses modelos também né e o último ponto
  • 00:10:37
    né super importante também a gente ter
  • 00:10:40
    justamente esses algoritmos Deep
  • 00:10:42
    learning inovadores né então ter
  • 00:10:44
    tecnologias como as gus os Transformers
  • 00:10:47
    né e o reinforcement learning eh também
  • 00:10:50
    são muito importantes porque eles têm a
  • 00:10:52
    capacidade de processar informações de
  • 00:10:54
    forma muito eficiente né E eles têm uma
  • 00:10:58
    capacidade muito boa de responder como
  • 00:11:00
    os humanos né E além disso com o poder
  • 00:11:02
    de de processamento que a gente tem hoje
  • 00:11:05
    super melhorado né esses modelos são
  • 00:11:07
    capazes de atingir resultados cada vez
  • 00:11:10
    mais significantes tá bom então agora
  • 00:11:13
    vamos mergulhar um pouquinho no mundo do
  • 00:11:15
    llm né que é uma sigla que a gente ouve
  • 00:11:18
    muito no nosso dia a dia e muitas vezes
  • 00:11:20
    a gente não sabe o que significa então
  • 00:11:22
    basicamente né llm ele tá dentro ali do
  • 00:11:27
    conceito justamente de agen
  • 00:11:29
    né então a gente tem tantos os modelos
  • 00:11:32
    de llm e os modelos fundacionais os dois
  • 00:11:35
    eles são treinados com grandes conjuntos
  • 00:11:38
    de dados né grandes mesmos viu gente e
  • 00:11:40
    eles são baseados como a gente comentou
  • 00:11:42
    anteriormente em RS neurais de Deep
  • 00:11:44
    learning né como arquitetura Transformer
  • 00:11:46
    por exemplo E no caso do llm
  • 00:11:48
    especificamente o foco é trabalhar com
  • 00:11:51
    tarefas de processamento de linguagem né
  • 00:11:53
    então basicamente trabalhar com terços
  • 00:11:55
    então aqui embaixo a gente tem alguns
  • 00:11:57
    exemplos já os modelos fundacionais eles
  • 00:12:00
    são modelos que também T outros focos
  • 00:12:02
    além de linguagem né então por exemplo o
  • 00:12:05
    gpt3 que tá nesse exemplo ele é um llm e
  • 00:12:09
    ele também é um modelo fundacional porém
  • 00:12:11
    a gente tem outros modelos fundacionais
  • 00:12:13
    que tem outros focos além da linguagem
  • 00:12:16
    né então a gente pode ver que aqui na
  • 00:12:17
    caixinha Verde a caixinha que tá aqui
  • 00:12:20
    abaixo a gente tem na segunda linha
  • 00:12:22
    outros modelos de exemplo né então a
  • 00:12:25
    gente tem como modelo fundacional o Doli
  • 00:12:27
    né que trabalha para criar novas imagens
  • 00:12:30
    e o Whisper que ele consegue trabalhar
  • 00:12:32
    com áudio né então basicamente Essa é a
  • 00:12:34
    diferença entre os llms e os modelos
  • 00:12:37
    fundacionais tá então quem tinha essa
  • 00:12:39
    dúvida eu espero que agora esteja
  • 00:12:41
    esclarecida tá se não tiver V mandando
  • 00:12:43
    ali no k Enem e Mas como que funciona
  • 00:12:46
    por trás né então qual é o processo pra
  • 00:12:50
    gente conseguir né justamente criar
  • 00:12:52
    esses modelos né então ele trabalha
  • 00:12:55
    basicamente em algumas etapas né Então
  • 00:12:58
    primeiramente ele tem três componentes
  • 00:13:00
    principais né então a gente tem o
  • 00:13:02
    codificador no meio a gente tem o modelo
  • 00:13:04
    Transformer E no fim a gente tem o
  • 00:13:06
    decodificador né então basicamente o
  • 00:13:09
    quantificador ele converte grandes
  • 00:13:12
    entradas né então como pdfs de livros
  • 00:13:15
    htmls por exemplo de da Wikipedia por
  • 00:13:17
    exemplo e entradas de texto em tokens
  • 00:13:21
    que basicamente é o quê é a quebra desse
  • 00:13:23
    texto em partes menores né que ele pode
  • 00:13:26
    ser quebras em palavras e em subpav ras
  • 00:13:30
    ou até mesmo em caracteres tá E aí após
  • 00:13:33
    essa quebra o que que vai acontecer a
  • 00:13:35
    gente vai para essa fase de tokenização
  • 00:13:37
    que a gente vai transformar esses esses
  • 00:13:40
    tokens em valores numéricos depois disso
  • 00:13:43
    Qual é a etapa né dentro de codificação
  • 00:13:46
    é justamente converter esses tokens em
  • 00:13:50
    edgings né e o que que é eding né um
  • 00:13:52
    conceito que a gente fala muito também
  • 00:13:53
    em a generativa é justamente a
  • 00:13:56
    representação matemática dessas inform
  • 00:13:59
    ações em um espaço vetorial e ele serve
  • 00:14:02
    para quê justamente pra gente agrupar
  • 00:14:04
    esses tokens semelhantes né então por
  • 00:14:07
    exemplo se a gente for ver nessa imagem
  • 00:14:09
    que tá aqui dentro de codificação tem um
  • 00:14:12
    exemplo né então a palavra dog e pup
  • 00:14:15
    eles estão muito próximos no espaço
  • 00:14:17
    vetorial Já a palavra vem e Car eles
  • 00:14:21
    estão próximas entre elas mas um
  • 00:14:24
    pouquinho distante ali de dog pup Então
  • 00:14:27
    essa que é a ideia pra gente quebrar
  • 00:14:29
    essas palavras em toking depois em
  • 00:14:32
    badings justamente pra gente aproximar
  • 00:14:34
    elas né Beleza feito isso Qual que é a
  • 00:14:37
    próxima etapa então esses tokens eles
  • 00:14:39
    são usados né dentro de um modelo
  • 00:14:42
    Transformer pré treinado né dependendo
  • 00:14:44
    da arquitetura específica do llm pode
  • 00:14:46
    até haver uma etapa que a gente consegue
  • 00:14:49
    envolver ali um feedback humano paraa
  • 00:14:51
    gente conseguir orientar o modelo na
  • 00:14:54
    geração da saída justamente para tarefas
  • 00:14:56
    mais específicas né então se token
  • 00:14:58
    Passou aqui pro modelo Transformer PR
  • 00:15:01
    treinado E aí depois a gente vai ter um
  • 00:15:03
    resultado né e qual que vai ser o
  • 00:15:05
    resultado então o resultado ele vai ter
  • 00:15:07
    ali um texto de saída né que ele traz
  • 00:15:10
    esse texto de saída né justamente né no
  • 00:15:13
    formato aqui eh numérico e tudo mais
  • 00:15:16
    então a gente tem um decodificador para
  • 00:15:18
    quê paraa gente não trazer pro usuário
  • 00:15:20
    final somente esses números senão ele
  • 00:15:21
    não vai entender nada né então a gente
  • 00:15:23
    usa o decodificador para traduzir de
  • 00:15:26
    volta esses números em texto e uso o
  • 00:15:29
    final ter a resposta ali do seu llm Tá
  • 00:15:31
    bom então basicamente Esse é o processo
  • 00:15:34
    mais utilizado ali mais encontrado nos
  • 00:15:36
    llms
  • 00:15:38
    atuais E agora se vocês estiverem já
  • 00:15:41
    pensando Nossa legal quero usar um llm
  • 00:15:43
    já entendo como funciona por trás mas
  • 00:15:46
    uma das primeiras perguntas que vocês
  • 00:15:48
    podem se fazer é Qual modelo eu devo
  • 00:15:50
    usar né porque existe milhares de
  • 00:15:52
    modelos então a primeira etapa para
  • 00:15:54
    decidir qual modelo usar é entender
  • 00:15:56
    essas duas opções principais né a
  • 00:15:59
    primeira dela é justamente os modelos de
  • 00:16:01
    código aberto e esses modelos eles podem
  • 00:16:04
    ser usados do jeito que eles estão ou ou
  • 00:16:07
    ajustados de acordo com as suas
  • 00:16:09
    necessidades né o Vitinho vai falar um
  • 00:16:11
    pouquinho mais paraa frente como fazer
  • 00:16:12
    um fine tunning como ajustar o modelo
  • 00:16:15
    focado na sua necessidade e esses
  • 00:16:17
    modelos de código aberto permitem isso
  • 00:16:19
    né então eles oferecem justamente essa
  • 00:16:21
    flexibilidade paraa personalização e
  • 00:16:24
    geralmente são de menores tamanhos né
  • 00:16:26
    então isso é bem importante porque ajuda
  • 00:16:29
    muito a reduzir custos né um out e um
  • 00:16:31
    outro tipo de modelo também que tá sendo
  • 00:16:33
    muito utilizado hoje no mercado é
  • 00:16:35
    justamente os modelos proprietários né
  • 00:16:38
    então esses modelos eles são treinados
  • 00:16:40
    também com grandes com conjuntos muito
  • 00:16:43
    grandes de dados né e geralmente eles
  • 00:16:45
    são oferecidos como soluções llm as a
  • 00:16:49
    service né então acredito que vocês
  • 00:16:51
    muitos muita gente já testou né o GPT
  • 00:16:54
    tanto da Open ai quanto do eure openi
  • 00:16:56
    Por Exemplo antropic né também é um
  • 00:16:59
    exemplo de modelo proprietário então
  • 00:17:01
    eles são servidos dessa forma né E só
  • 00:17:04
    que ele tem um ponto que normalmente as
  • 00:17:05
    licenças para esses modelos geralmente
  • 00:17:08
    tem restrição de uso e modificação né
  • 00:17:11
    então é um ponto a se analisar né e cada
  • 00:17:14
    opção tem as suas próprias considerações
  • 00:17:16
    então a escolha de cada um desses
  • 00:17:18
    modelos vai depender de diversos fatores
  • 00:17:21
    né justamente como orçamento requisitos
  • 00:17:23
    de personalizações e também restrições
  • 00:17:25
    de licenciamento né e o que que é legal
  • 00:17:28
    a a gente tem vários modelos hoje né
  • 00:17:31
    então a depender do seu US Case você
  • 00:17:34
    pode usar um modelo diferente você não
  • 00:17:36
    precisa ter um modelo único para usar
  • 00:17:37
    para todos os casos né E essa planilha
  • 00:17:40
    ela é muito legal a gente vai mandar
  • 00:17:41
    depois esse material para vocês porque
  • 00:17:43
    ele tem diversos exemplos né de modelos
  • 00:17:47
    tanto proprietários quanto open source
  • 00:17:49
    né tem algumas explicações ali bem legal
  • 00:17:52
    para até ajudar vocês a definir e tem um
  • 00:17:54
    link mais embaixo com uma lista
  • 00:17:56
    atualizada dos modelos mais recentes que
  • 00:17:58
    a databricks vem trabalhando justamente
  • 00:18:01
    para orientar o cliente né então em cada
  • 00:18:03
    caso de uso Qual o melhor modelo né ou
  • 00:18:06
    os melhores modelos né que eu posso
  • 00:18:08
    testar para eu decidir então a lista é
  • 00:18:10
    bem grande então é bem legal acompanhar
  • 00:18:12
    esse link para vocês estarem sempre
  • 00:18:14
    atualizados nos novos modelos que vão
  • 00:18:16
    surgindo Tá bom então agora gostaria de
  • 00:18:19
    chamar o Vitinho aqui novamente para
  • 00:18:21
    falar Vista tudo isso né Quais são os
  • 00:18:24
    potenciais da ia generativa legal
  • 00:18:26
    obrigado Aninha agora acho que tá tudo
  • 00:18:28
    mundo na mesma página né a gente passou
  • 00:18:30
    pelos fundamentos entendemos O que é o
  • 00:18:32
    llm agora onde a gente consegue chegar
  • 00:18:35
    né Vamos pensar aqui numa casa
  • 00:18:37
    construída as pessoas que hoje TM
  • 00:18:39
    maturidade tão
  • 00:18:42
    produtizar generativa aonde elas estão
  • 00:18:45
    aplicando isso o que que elas estão
  • 00:18:47
    melhorando no dia a dia delas e é um
  • 00:18:49
    pouco dessa percepção que eu gostaria de
  • 00:18:51
    compartilhar com vocês hoje a data
  • 00:18:53
    Bricks ela fez uma pesquisa interna
  • 00:18:55
    dentro dos seus diferentes clientes e
  • 00:18:56
    indústrias no qual temos hoje hoje e a
  • 00:18:59
    gente chegou hoje nesse resultado que
  • 00:19:03
    90% dos casos de uso inicial de llm São
  • 00:19:07
    para eficiência operacional Eu imagino
  • 00:19:10
    que aqui a gente tá com quase 450
  • 00:19:12
    pessoas participando quem aqui hoje usa
  • 00:19:15
    de alguma forma e a generativa para te
  • 00:19:17
    ajudar no dia a dia com tarefas e
  • 00:19:19
    dúvidas que surgem Eu imagino que a
  • 00:19:22
    maioria das pessoas que está aqui
  • 00:19:23
    utilizam dessa forma Ó Chuva de joinha
  • 00:19:26
    Por quê a gente tá tornando o nosso dia
  • 00:19:28
    mais eficiente então no final do dia a
  • 00:19:30
    gente trabalha ali com eficiência
  • 00:19:32
    operacional também e a generativa no
  • 00:19:34
    nosso dia a dia não é muito diferente os
  • 00:19:36
    clientes hoje que já tem casos de uso
  • 00:19:38
    eh de fato Live né produtizar dentro da
  • 00:19:42
    sua empresa inclusive o caso de uso de
  • 00:19:44
    sucesso que a gente vai apresentar lá no
  • 00:19:45
    final é um desses casos que trouxe não
  • 00:19:47
    só eficiência operacional perdão mas
  • 00:19:50
    trouxe também um retorno de investimento
  • 00:19:52
    pra empresa e hoje esses casos de uso
  • 00:19:55
    eles estão separados em vários pilares
  • 00:19:57
    engajamento do cliente busca de
  • 00:19:59
    conhecimento sumarização e geração de
  • 00:20:01
    conteúdo migração de código então a
  • 00:20:04
    gente tem aqui diferentes clientes
  • 00:20:05
    utilizando aí generativa para
  • 00:20:07
    suportá-los em diferentes tópicos também
  • 00:20:10
    às vezes vocês podem se pegar um pouco
  • 00:20:12
    perdido ah Vitor eu trabalho hoje no
  • 00:20:14
    segmento de seguradoras ah eu tô no
  • 00:20:17
    setor público ah eu tô no segmento de
  • 00:20:19
    varejo como que a i generativa pode me
  • 00:20:21
    ajudar pensando nisso a dat Bricks
  • 00:20:24
    construiu um eBook que ela explica
  • 00:20:26
    exatamente com 52 possíveis casos de uso
  • 00:20:29
    para diferentes segmentos da indústria
  • 00:20:32
    então varejo bens de consumo manufatura
  • 00:20:35
    comunicação setor público saúde serviços
  • 00:20:38
    financeiros enfim você vai encontrar ali
  • 00:20:40
    dentro como a ia generativa pode te
  • 00:20:42
    suportar no dia a dia Imagino que os
  • 00:20:45
    casos de uso vão fazer muito sentido
  • 00:20:46
    para vocês e a gente pode pensar aqui em
  • 00:20:49
    produtizar em colocar isso no chão de
  • 00:20:50
    fábrica e fazer acontecer dentro da sua
  • 00:20:53
    empresa e aí vocês devem estar se
  • 00:20:55
    perguntando agora por onde começar a a
  • 00:20:58
    jornada de genen ela tem etapas né e
  • 00:21:01
    vejam que aqui eu tenho quatro grandes
  • 00:21:03
    Pilares eu vou do prompt Engineering até
  • 00:21:06
    o pretraining e essa corzinha aqui não é
  • 00:21:08
    para deixar o slide bonito é Porque de
  • 00:21:11
    fato a gente tem aqui uma sofisticação e
  • 00:21:14
    um nível de complexidade que vai ser
  • 00:21:16
    adicionado à medida que a gente for
  • 00:21:19
    caminhando para esse lado direito então
  • 00:21:21
    hoje quando eu falo assim ah por onde eu
  • 00:21:23
    começo a nossa sugestão É vamos começar
  • 00:21:26
    pelo prompt Engineering por quê é o é a
  • 00:21:29
    maneira mais simples da gente embarcar e
  • 00:21:32
    iniciar uma jornada com a a ia
  • 00:21:34
    generativa à medida que a gente ganhar
  • 00:21:36
    maturidade eu ganhar maturidade nos
  • 00:21:38
    fundamentos nos conceitos a gente vai
  • 00:21:40
    subindo um degrau dessa escada Então a
  • 00:21:43
    gente vai passar pelo reg pelo fine
  • 00:21:44
    tuning finalmente chegar no PR trining
  • 00:21:46
    caso seja necessário mas para isso é
  • 00:21:49
    muito importante a gente entender o que
  • 00:21:50
    é o prompt Engineering Então qual que é
  • 00:21:53
    a definição de prompt Engineering é a
  • 00:21:55
    criação de prompts especializados para
  • 00:21:58
    guiar as respostas do llm llm agora todo
  • 00:22:01
    mundo já sabe o que significa então eu
  • 00:22:02
    não preciso me preocupar veja que para
  • 00:22:05
    fazer um prompt Engineering eu não
  • 00:22:07
    preciso disponibilizar dados para ia
  • 00:22:10
    generativa ou seja eu não preciso pegar
  • 00:22:12
    um histórico de dados meu uma tabela de
  • 00:22:14
    dados minha para fazer com que o prompt
  • 00:22:16
    Engineering seja capaz de responder a
  • 00:22:19
    pergunta que eu tô fazendo vantagem aqui
  • 00:22:21
    é uma customização extremamente rápida
  • 00:22:24
    então aqui eu tenho um exemplo para
  • 00:22:25
    vocês de prompt Engineering imagina que
  • 00:22:27
    eu queira ionar ali as respostas das
  • 00:22:30
    perguntas que vão ser feitas em cima de
  • 00:22:32
    um assistente então eu vou ali e faço
  • 00:22:34
    uma pergunta do tipo como eu faço para
  • 00:22:36
    desligar um cluster veja que eu tô
  • 00:22:38
    utilizando aqui no meu backend um modelo
  • 00:22:40
    fundacional que foi treinado com milhões
  • 00:22:42
    e milhões talvez bilhões de parâmetros
  • 00:22:45
    de dados provenientes da internet gente
  • 00:22:48
    cluster pode ser uma palavra que
  • 00:22:50
    endereça várias situações e esse é o
  • 00:22:53
    caso eu gostaria que ele tivesse me
  • 00:22:54
    respondido olhando pro mundo dat Bricks
  • 00:22:57
    mas não ele me responde de maneira
  • 00:22:59
    genérica pensando que eu tô falando de
  • 00:23:01
    um cluster ali talvez dentro de um cnet
  • 00:23:03
    e não é o caso então o que que acontece
  • 00:23:05
    você
  • 00:23:06
    precisa dizer pro seu llm como ele deve
  • 00:23:10
    se comportar e aí a gente consegue
  • 00:23:11
    colocar um um prompt de sistema por
  • 00:23:14
    exemplo eu consigo ir ali e declarar
  • 00:23:16
    você é um assistente do databricks que
  • 00:23:19
    está ajudando usuários a utilizar os
  • 00:23:20
    recursos do databricks Responda de
  • 00:23:23
    maneira objetiva cordial e sempre em
  • 00:23:25
    português veja que se eu replicar a
  • 00:23:28
    pergunta nesse momento como faço para
  • 00:23:30
    desligar um cluster ele vai levar em
  • 00:23:32
    consideração que ele é um assistente do
  • 00:23:34
    dat Bricks e ele vai me trazer a
  • 00:23:35
    resposta certa de como eu devo seguir
  • 00:23:38
    ali no final do dia para ter sucesso
  • 00:23:40
    nessa minha tarefa por trás existe um
  • 00:23:44
    conceito muito interessante que faz tudo
  • 00:23:46
    isso acontecer que é o conceito de eu
  • 00:23:48
    servir o meu modelo para eu conseguir
  • 00:23:50
    criar uma aplicação como essa que vocês
  • 00:23:52
    estão vendo aqui hoje eu preciso ter um
  • 00:23:54
    modelo fundacional a Aninha já explicou
  • 00:23:56
    né Open sece ou proprietário mas eu
  • 00:23:59
    preciso ter um lugar de onde eu possa
  • 00:24:01
    plugar naquele modelo para consumir ele
  • 00:24:04
    e hoje dentro da dat Bricks como a gente
  • 00:24:06
    suporta os nossos clientes com essa
  • 00:24:07
    jornada através do que a gente chama
  • 00:24:10
    hoje de Model serving Model serving o
  • 00:24:12
    nome é muito intuitivo né servir modelos
  • 00:24:15
    e ali dentro eu posso servir modelos
  • 00:24:16
    tradicionais tem gente que não gosta
  • 00:24:18
    dessa nomenclatura Me desculpa se você
  • 00:24:20
    não gosta mas quando eu falo
  • 00:24:21
    tradicionais os modelos ali de ch os
  • 00:24:24
    modelos de regressão enfim os modelos
  • 00:24:25
    que a gente tá acostumado a falar já tem
  • 00:24:27
    bons anos mas a gente consegue também
  • 00:24:29
    hoje servir modelos fundacionais modelos
  • 00:24:32
    externos que são os modelos
  • 00:24:33
    proprietários como Aninha trouxe aqui né
  • 00:24:35
    antropic Ager Open ey Open ey enfim e
  • 00:24:38
    entre outros então a gente tem essa
  • 00:24:40
    capacidade hoje que abraça o dat Breaks
  • 00:24:43
    Além disso eu imagino que aqui nessas
  • 00:24:45
    450 pessoas que a gente tem hoje dentro
  • 00:24:47
    da sessão Existem várias que já T uma
  • 00:24:49
    subscrição ativa com algum tipo de
  • 00:24:51
    modelo proprietário se você tem um
  • 00:24:53
    modelo proprietário você poderia
  • 00:24:55
    servi-lo utilizando dat Breaks também a
  • 00:24:58
    através do que a gente chama de ai
  • 00:24:59
    Gateway Qual que é o grande benefício do
  • 00:25:01
    ai Gateway é você controlar é como se
  • 00:25:04
    fosse um portão literalmente e você
  • 00:25:07
    controla tudo que tá acontecendo com
  • 00:25:09
    aquela api do seu modelo então permissão
  • 00:25:12
    e limitação de taxa para controlar quem
  • 00:25:14
    tem acesso e quanto de acesso aquela
  • 00:25:16
    pessoa deveria ter registro de payload
  • 00:25:18
    rastreamento de uso caso eu precise
  • 00:25:21
    depois auditar né quais dados estão
  • 00:25:24
    sendo enviados paraas apis de modelo e
  • 00:25:26
    quem tá fazendo esse request nessa api
  • 00:25:29
    eu posso definir aqui também ai guard
  • 00:25:31
    rails né ou seja Vitor tenho uma
  • 00:25:33
    preocupação muito grande de Security no
  • 00:25:34
    meu time com vazamento de dados como eu
  • 00:25:36
    trabalho isso a gente consegue limitar
  • 00:25:38
    aqui essa questão do ai guard rails
  • 00:25:41
    também na prática pra gente ver vamos
  • 00:25:43
    passar agora por essa questão do Model
  • 00:25:45
    serving do ai Gateway para vocês
  • 00:25:47
    conseguirem Navegar junto comigo na
  • 00:25:48
    plataforma datab Breaks e conhecerem
  • 00:25:50
    mais profundamente o que a gente tem lá
  • 00:25:52
    dentro da plataforma datab Bricks no
  • 00:25:54
    canto esquerdo você tem vários tópicos e
  • 00:25:56
    ali dentro lá embaixo dentro do tópico
  • 00:25:58
    de machine learning você tem a parte de
  • 00:26:00
    serving nessa parte de serving você vai
  • 00:26:02
    encontrar um monte de modelo Open sece
  • 00:26:04
    através de paper token Onde você
  • 00:26:06
    consegue utilizar ou você pode servir o
  • 00:26:08
    seu próprio modelo se você escolher a
  • 00:26:10
    opção de servir o próprio modelo você
  • 00:26:12
    pode criar o seu próprio endp seja para
  • 00:26:14
    servir um modelo open source seja para
  • 00:26:17
    servir um modelo externo aqui utilizando
  • 00:26:19
    a ideia do a Gateway que a gente
  • 00:26:21
    comentou um ponto muito interessante
  • 00:26:23
    também é que você pode usar o unit
  • 00:26:25
    catler com modelo registrado ali dentro
  • 00:26:27
    ou seja você você garante toda a
  • 00:26:29
    governabilidade em cima dos ativos que
  • 00:26:32
    tangem o assunto de modelagem indo pra
  • 00:26:34
    prática eu vou pegar um modelo da Open
  • 00:26:36
    ey agora e eu vou mostrar para vocês o
  • 00:26:38
    que a gente tem ali dentro quando eu tô
  • 00:26:39
    trabalhando com modelo externo veja que
  • 00:26:41
    eu consigo trabalhar com permissões eu
  • 00:26:43
    consigo definir quem pode usar esse
  • 00:26:45
    endpoint quem pode só visualizar quem
  • 00:26:48
    pode gerenciar esse endpoint então eu
  • 00:26:50
    consigo configurar essas permissões E
  • 00:26:53
    além disso eu tenho a possibilidade aqui
  • 00:26:55
    também do ai Gateway Onde eu consigo
  • 00:26:57
    configurar todo todos os pontos que Eu
  • 00:26:58
    mencionei para vocês o o o rastreamento
  • 00:27:01
    de uso tabelas de inferência o guard
  • 00:27:03
    reio ji para segurança enfim eu consigo
  • 00:27:05
    definir tudo isso ali dentro também a
  • 00:27:08
    partir do momento que você seleciona
  • 00:27:10
    qual é o modelo que você quer utilizar
  • 00:27:12
    ou quer testar um ótimo lugar para você
  • 00:27:14
    testar o prompt Engineering é dentro do
  • 00:27:16
    playground Então vem Navegar comigo
  • 00:27:18
    dentro do playground lá dentro a gente
  • 00:27:20
    pode selecionar diferentes modelos de
  • 00:27:22
    novo sejam modelos open source sejam
  • 00:27:25
    modelos proprietários você escolhe qual
  • 00:27:27
    é o modelo que você quer trabalhar e o
  • 00:27:29
    que é legal aqui você consegue testar os
  • 00:27:32
    três modelos ao mesmo tempo então
  • 00:27:33
    imagina que eu sou um assistente de
  • 00:27:35
    contratos do imposto de renda e eu
  • 00:27:37
    coloco ali posso declarar minha sogra
  • 00:27:39
    como dependente eu tô vendo aqui que
  • 00:27:41
    deve ter uma galera que não quer
  • 00:27:42
    declarar a sogra de jeito nenhum né
  • 00:27:44
    vamos ver se a gente pode declarar ou
  • 00:27:45
    não a sogra e aí a gente vê aqui que o
  • 00:27:48
    liama ele traz algumas informações que
  • 00:27:51
    parecem ser pertinentes o dbx me
  • 00:27:54
    responde em inglês e passa longe e o
  • 00:27:56
    open Eye ali ele dá ali um ol eu não
  • 00:27:58
    posso muito fornecer informações mas
  • 00:28:00
    ainda me dá um texto veja que aqui eu
  • 00:28:02
    consigo já avaliar como um modelo
  • 00:28:05
    fundacional tá se comportando diante da
  • 00:28:08
    pergunta que eu fiz agora imagina um
  • 00:28:10
    cenário diferente aqui eu não tenho
  • 00:28:11
    nenhum prompt de sistema mas eu quero eu
  • 00:28:13
    quero definir um prompt de sistema
  • 00:28:15
    dentro dessa situação então eu vou lá e
  • 00:28:18
    crio esse prompt de sistema falando o
  • 00:28:20
    seguinte Olha você vai ser um assistente
  • 00:28:23
    da Receita Federal do Brasil e responda
  • 00:28:25
    sempre as perguntas em português eu vou
  • 00:28:27
    lá e replico com a minha pergunta posso
  • 00:28:29
    declarar a minha sogra como dependente
  • 00:28:31
    para ver agora se os modelos vão
  • 00:28:32
    performar de forma equalitário ou se vai
  • 00:28:34
    alterar muito o que eu já tinha aqui
  • 00:28:36
    dentro veja que o dbx ele agora consegue
  • 00:28:39
    me trazer uma resposta talvez não tão
  • 00:28:40
    aderente quanto eu gostaria mas ele
  • 00:28:42
    consegue ali me trazer um pouco de
  • 00:28:44
    contexto isso é prompt Engineering veja
  • 00:28:47
    que não tem muita dificuldade aqui a
  • 00:28:48
    gente ainda foi numa numa fase bem
  • 00:28:51
    simples né da jornada de prompt
  • 00:28:52
    Engineering mas aqui já é o primeiro
  • 00:28:54
    passo para vocês começarem a utilizar eh
  • 00:28:57
    e a generativa na prática óbvio que
  • 00:28:59
    existem steps e o próximo step agora
  • 00:29:02
    depois que prompt Engineering não te
  • 00:29:03
    atende mais é você trabalhar com o
  • 00:29:05
    conceito de reg e para falar de reg a
  • 00:29:07
    Aninha vai apresentar pra gente Esse
  • 00:29:10
    conceito Obrigada Vitinho muito
  • 00:29:13
    interessante a gente ver o quanto é
  • 00:29:14
    simples né trabalhar com llm né com o
  • 00:29:17
    próprio prompt Engineering só que em
  • 00:29:19
    muitos casos a gente não tem informação
  • 00:29:21
    mais atualizada né então como vocês
  • 00:29:23
    viram a gente em cada um dos modelos o
  • 00:29:26
    primeiro modelo ele foi o mais mais
  • 00:29:28
    próximo de trazer a resposta correta
  • 00:29:30
    porém ele trouxe uma resposta
  • 00:29:32
    desatualizada né então ele trouxe uma
  • 00:29:34
    resposta do ano anterior do Imposto de
  • 00:29:36
    Renda né falando que o teto ali do o
  • 00:29:40
    teto dos recursos da sogra teria que ser
  • 00:29:42
    25.000 e na verdade não é esse valor né
  • 00:29:45
    então como a gente poderia solucionar
  • 00:29:47
    esse problema né pensando na nossa
  • 00:29:48
    empresa muitas vezes a gente vai
  • 00:29:50
    precisar ter ali um chat para fazer
  • 00:29:52
    perguntas sobre documentos vivos né que
  • 00:29:55
    chegam não uma vez por ano como na
  • 00:29:57
    Receita Federal né nesse caso do Imposto
  • 00:29:59
    de Renda mas sim documentos diários
  • 00:30:01
    documentos semanais se a gente
  • 00:30:04
    precisasse retreinar esse modelo do zero
  • 00:30:06
    toda semana todos os dias daria um
  • 00:30:08
    trabalhão né então por isso que a gente
  • 00:30:10
    tem a solução de reg justamente para
  • 00:30:14
    simplificar esse processo e a gente ter
  • 00:30:16
    os nossos chats com respostas muito mais
  • 00:30:18
    acuradas né E como que funciona então
  • 00:30:21
    esse tal de reg né então a sigl
  • 00:30:24
    significa retriever retrieval sorry
  • 00:30:27
    aument Generation e qual é a definição
  • 00:30:30
    então basicamente é a gente combinar o
  • 00:30:32
    nosso llm com um prompt e principalmente
  • 00:30:37
    com uma base de dados que é onde vai ter
  • 00:30:39
    essas informações mais atualizadas né
  • 00:30:41
    então o requerimento de dados é
  • 00:30:43
    justamente a gente ter essa base pra
  • 00:30:45
    gente acoplar aí nessa solução né o
  • 00:30:48
    tempo de treino ele é moderado porque a
  • 00:30:50
    única coisa que a gente vai precisar
  • 00:30:51
    fazer na questão mais de treinamento é a
  • 00:30:54
    gente converter os os nossos textos os
  • 00:30:57
    nossos documentos
  • 00:30:58
    beding né que eu expliquei para vocês
  • 00:31:00
    anteriormente para ele localizar
  • 00:31:02
    justamente o conteúdo correto do
  • 00:31:04
    documento as vantagens é justamente que
  • 00:31:06
    a gente vai ter esse contexto super
  • 00:31:08
    atualizado e dinâmico né e as
  • 00:31:10
    considerações a gente acaba aumentando o
  • 00:31:13
    prompt Porque além do prompt a gente
  • 00:31:15
    adiciona as informações encontradas no
  • 00:31:17
    documento e aí tem um pouquinho mais de
  • 00:31:19
    computação necessária porém a gente tem
  • 00:31:22
    um resultado muito mais acurado e muito
  • 00:31:24
    mais atualizado Tá então vamos ver como
  • 00:31:28
    funciona o processo fim a fim para
  • 00:31:30
    trabalhar no cenários de reg então
  • 00:31:33
    voltando a pensar nesse nosso caso de
  • 00:31:35
    uso né no assistente de Imposto de Renda
  • 00:31:37
    vamos ver como seria esse processo por
  • 00:31:39
    debaixo dos panos trabalhando com reg né
  • 00:31:42
    O que que mudaria ali do processo de
  • 00:31:44
    somente prompt Engineering Então a
  • 00:31:46
    primeira etapa né a gente vai ter
  • 00:31:49
    justamente o o usuário mandando a
  • 00:31:52
    pergunta se ele pode declarar a sogra
  • 00:31:54
    como dependente e a partir daí a
  • 00:31:57
    primeira fase vai ser justamente enviar
  • 00:32:00
    essa pergunta que o usuário fez para um
  • 00:32:03
    embed llm Para quê Para ele justamente
  • 00:32:07
    transformar essa pergunta em um vetor de
  • 00:32:09
    números aí na segunda etapa o que que a
  • 00:32:12
    gente vai fazer nessa segunda etapa ele
  • 00:32:16
    vai buscar né no na nossa base vetorial
  • 00:32:21
    Qual é a parte do texto né Qual é aonde
  • 00:32:24
    tá nesse documento a resposta mais
  • 00:32:28
    próxima dessa pergunta que o usuário fez
  • 00:32:31
    né por isso que a gente transforma ali
  • 00:32:32
    em vetorial depois disso qual que vai
  • 00:32:35
    ser a etapa a gente vai ter o Retorno
  • 00:32:38
    dos desse conteúdo que ele vai ser
  • 00:32:41
    acoplado ao nosso prompt né então o
  • 00:32:43
    nosso prompt basicamente é responda a p
  • 00:32:47
    que é a pergunta do usuário baseado em C
  • 00:32:51
    né então c é o conteúdo relevante que a
  • 00:32:53
    gente trouxe dessa base de dados e aí a
  • 00:32:56
    gente vai empacotar tá todo esse esse
  • 00:32:59
    texto e vai mandar ali pro nosso llm que
  • 00:33:02
    pode ser qualquer um daqueles modelos
  • 00:33:03
    que a gente apresentou lá no início e aí
  • 00:33:06
    ele vai trazer a resposta pro usuário né
  • 00:33:09
    então ele vai explicar Quais são as
  • 00:33:11
    regras para declarar a sogra como
  • 00:33:14
    dependente tá E aí vocês podem ver né a
  • 00:33:16
    sigla retrieval retrieval aent
  • 00:33:19
    Generation é justamente isso retrieval é
  • 00:33:22
    justamente essa essa parte de buscar o
  • 00:33:25
    dado na minha base de dados aument é
  • 00:33:29
    justamente pra gente aumentar ali o
  • 00:33:31
    nosso prompt com esses dados né a gente
  • 00:33:34
    adicionar mais informações nesse prompt
  • 00:33:36
    e o Generation é gerar o resultado final
  • 00:33:39
    pro usuário tá então agora o que que a
  • 00:33:42
    gente vai fazer vamos ver na prática
  • 00:33:44
    como que a dat Bricks te ajuda nesse
  • 00:33:46
    processo todo né como a dat Bricks
  • 00:33:48
    simplifica que a gente consiga criar é
  • 00:33:51
    soluções reg mas para isso antes disso a
  • 00:33:54
    gente tem que pensar num passo muito
  • 00:33:55
    importante que justamente é etapa de
  • 00:33:58
    qual tipo de base de dados que eu vou
  • 00:34:01
    utilizar pra minha solução né então a
  • 00:34:03
    gente tem dois tipos de base de dados
  • 00:34:05
    que a gente pode usar nesse cenário a
  • 00:34:07
    primeira quando a gente tá trabalhando
  • 00:34:09
    justamente nesse caso de uso que são
  • 00:34:11
    documentos né então grandes textos ali
  • 00:34:14
    de documentos que a gente precisa
  • 00:34:16
    encontrar através de similaridade o
  • 00:34:19
    Vector search é uma solução que
  • 00:34:21
    simplifica muito esse processo né e o
  • 00:34:24
    Vector se da det Bricks ele é muito
  • 00:34:26
    legal por quê Porque basicamente a gente
  • 00:34:28
    consegue sincronizar qualquer tabela
  • 00:34:30
    Delta com esse Vector search e não
  • 00:34:33
    precisa criar um pipeline de dados extra
  • 00:34:36
    para fazer sincronização não é um uma
  • 00:34:38
    forma muito visual de fazer e muito
  • 00:34:40
    simplificada que vocês vão ver daqui a
  • 00:34:42
    pouco na demo né mas agora se por
  • 00:34:44
    exemplo né eu tenho dados ali
  • 00:34:46
    estruturados né Eu tenho um ID do meu
  • 00:34:49
    cliente né que tá logado ali nesse meu
  • 00:34:51
    chatbot e eu preciso encontrar além de
  • 00:34:54
    informações ali de documentos né tirar
  • 00:34:57
    dúvida ali sobre imposto de renda eu o
  • 00:34:59
    cliente quer saber também quanto foi o
  • 00:35:02
    valor restituído na sua última
  • 00:35:04
    declaração nesse caso a gente poderia
  • 00:35:07
    utilizar uma outra base adicional né que
  • 00:35:10
    chama feature serving ou online tables
  • 00:35:13
    né que ele é justamente para quê com
  • 00:35:15
    base nesse ID do meu cliente eu vou
  • 00:35:18
    encontrar essa informação nessa tabela E
  • 00:35:20
    aí eu vou trazer esse valor desse esse
  • 00:35:22
    valor restituído do cliente no chatbot
  • 00:35:25
    né então ele é bem legal porque na
  • 00:35:26
    solução r eu posso trabalhar tanto com
  • 00:35:28
    os dados não estruturados de documento
  • 00:35:30
    usando Vector search quanto valores
  • 00:35:32
    estruturados com feature server ou com
  • 00:35:34
    os dois na mesmo bot tá então é bem
  • 00:35:37
    legal e a gente vai mandar depois o link
  • 00:35:39
    para vocês de um exemplo com esses dados
  • 00:35:41
    estruturados porque na demo hoje tá mais
  • 00:35:43
    focada com os dados de documentos tá
  • 00:35:46
    então pra próxima etapa né qual que vai
  • 00:35:49
    ser então depois que a gente decidiu né
  • 00:35:50
    então no nosso caso de uso a gente tá
  • 00:35:53
    trabalhando aqui com documentos a gente
  • 00:35:55
    vai usar o Vector search como a gente
  • 00:35:58
    faz para orquestrar né então a gente viu
  • 00:36:00
    lá que a gente tem o nosso orquestrador
  • 00:36:02
    né então o nosso orquestrador que a
  • 00:36:04
    gente pode utilizar aqui no data Bricks
  • 00:36:06
    né e até em outras plataformas é
  • 00:36:08
    justamente as cadeias né que a gente
  • 00:36:10
    chama de chin né que ela basicamente faz
  • 00:36:12
    o quê né então elas são bibliotecas que
  • 00:36:16
    fazem justamente essa etapa né então a
  • 00:36:18
    gente aponta Qual é a base que a gente
  • 00:36:21
    vai buscar essa informação depois a
  • 00:36:23
    gente coloca o nosso prompt e aponta
  • 00:36:26
    Qual que é o nosso l m para trazer o
  • 00:36:28
    resultado né então basicamente a gente
  • 00:36:31
    segue essas etapas depois a gente vai
  • 00:36:33
    Compartilhar esse material para vocês
  • 00:36:34
    verem alguns exemplos de código e por
  • 00:36:36
    fim a gente precisa registrar esse
  • 00:36:39
    modelo né justamente pra gente garantir
  • 00:36:41
    a governança a a linhagem entender todo
  • 00:36:45
    esse processo né do nosso do nossos
  • 00:36:48
    modelos a gente consegue integrar com o
  • 00:36:50
    Emil Flow simplesmente com alguns
  • 00:36:52
    comandos como mostra aqui na tela né
  • 00:36:54
    então a gente tem toda a integração a
  • 00:36:56
    diversos tipos de cadeia né como leng
  • 00:36:58
    Chin que é o mais utilizado hoje
  • 00:37:00
    diretamente com a mflow tá então ele é
  • 00:37:03
    super legal então agora a gente vai pra
  • 00:37:05
    demo e é um ponto importante por conta
  • 00:37:07
    do tempo a gente não vai conseguir
  • 00:37:08
    mostrar todo o código por trás né mas
  • 00:37:11
    quem tiver curiosidade pessoal fique
  • 00:37:13
    super a vontade em procurar o time de
  • 00:37:15
    conta de vocês para disponibilizar esse
  • 00:37:17
    código e para quem não souber quem é o
  • 00:37:20
    seu time de conta fiquem à vontade para
  • 00:37:22
    nos procurar que a gente ajuda vocês a
  • 00:37:24
    descobrir e a Compartilhar esse material
  • 00:37:26
    então vamos lá então Então vamos agora
  • 00:37:28
    pra prática Então a primeira coisa que a
  • 00:37:30
    gente fez foi justamente pegar o
  • 00:37:32
    material PDF mais atualizado da Receita
  • 00:37:34
    Federal sobre o Imposto de Renda dali
  • 00:37:37
    que a gente já pesquisou as informações
  • 00:37:39
    sobre a sogra e viu que o modelo que a
  • 00:37:42
    gente foi testar anteriormente no prompt
  • 00:37:44
    Engineering não tinha trago a informação
  • 00:37:46
    correta Né tava trazendo ali que a
  • 00:37:48
    isenção era no anual no máximo de 25.000
  • 00:37:52
    e pouco e na verdade diminuiu né 24.500
  • 00:37:57
    a pessoa usasse ali aquele bote e
  • 00:38:00
    colocasse ali a informação eh uma esse
  • 00:38:03
    valor ele ia ter alguns problemas com a
  • 00:38:05
    Receita Federal né então visto isso a
  • 00:38:09
    gente baixou né esse documento PDF então
  • 00:38:12
    a gente acessou o nosso catálogo dali a
  • 00:38:14
    gente procurou o nosso esquema da nossa
  • 00:38:16
    demonstração e dali a gente foi em
  • 00:38:18
    volumes né então como é um dado não
  • 00:38:21
    estruturado a gente acaba colocando essa
  • 00:38:23
    informação em volumes então a gente
  • 00:38:25
    criou uma pastinha eo subiu esse PDF lá
  • 00:38:29
    em volumes depois disso qual que foi a
  • 00:38:31
    próxima parte né então basicamente é a
  • 00:38:34
    gente pegar esse documento quebrar ele
  • 00:38:37
    no que a gente chama de chunks né então
  • 00:38:39
    são pedacinhos menores de textos para
  • 00:38:42
    quê para ficar mais fácil do Vector
  • 00:38:45
    search encontrar informação então foi
  • 00:38:47
    isso que a gente fez por trás Então
  • 00:38:49
    feito isso que que a gente vai fazer
  • 00:38:51
    agora então agora a gente vai acessar
  • 00:38:54
    essa tabela que a gente quebrou esses
  • 00:38:56
    dados do PDF né então é uma tabela Delta
  • 00:38:59
    comum e aí a gente criou Super simples
  • 00:39:02
    dois Campos um campo de ID e um campo
  • 00:39:05
    que tem a pergunta e a resposta agrupada
  • 00:39:08
    ali nessa linha né Então feito isso a
  • 00:39:12
    gente colocou todas as perguntas e
  • 00:39:14
    respostas do documento nessa tabela
  • 00:39:16
    Delta e a partir daí a gente já consegue
  • 00:39:19
    criar um Vector search com alguns
  • 00:39:21
    cliques né a gente também consegue fazer
  • 00:39:23
    por código né mas para quem prefere de
  • 00:39:26
    forma visual a a gente vem ali em Create
  • 00:39:28
    Vector search Vector search index coloca
  • 00:39:31
    o nome desse Vector search então
  • 00:39:33
    coloquei esse nome aqui depois
  • 00:39:35
    selecionei a minha chave primária depois
  • 00:39:38
    eu vou selecionar um end Point de Vector
  • 00:39:40
    search previamente criado também a gente
  • 00:39:43
    consegue criar com alguns cliques as
  • 00:39:45
    colunas que a gente vai sincronizar né
  • 00:39:48
    automaticamente da tabela Delta para as
  • 00:39:50
    tabela de Vector search né Depois de se
  • 00:39:53
    a gente colocar em branco ele vai pegar
  • 00:39:55
    todas depois disso eu vou selecionar
  • 00:39:58
    Qual é o llm de embedding que eu vou
  • 00:40:00
    utilizar né para converter essas
  • 00:40:03
    perguntas em respostas em edgings néz
  • 00:40:07
    fiz isso cliquei em Sink aqui para
  • 00:40:09
    salvar em uma outra tabela Delta mas
  • 00:40:11
    para ter rastreabilidade e por fim eu
  • 00:40:14
    posso selecionar triggered para rodar
  • 00:40:16
    isso uma vez por dia uma vez por semana
  • 00:40:19
    ou se é uma informação viva né que vem o
  • 00:40:22
    tempo todo eu posso clicar continu que
  • 00:40:25
    ela já vai ser uma uma operação em
  • 00:40:28
    streaming né então toda vez que chegar
  • 00:40:30
    um novo documento né na e a gente tiver
  • 00:40:33
    isso na tabela Delta automaticamente ele
  • 00:40:35
    vai ser sincronizado com o nosso endp
  • 00:40:38
    agora a gente pode fazer um teste né
  • 00:40:41
    então depois que eu criei o meu Vector
  • 00:40:42
    search eu posso já testar então eu posso
  • 00:40:44
    mandar posso declarar minha sogra como
  • 00:40:46
    dependente E aí ele vai trazer
  • 00:40:49
    Justamente a parte do documento que tem
  • 00:40:51
    essa resposta então show de bola nosso
  • 00:40:53
    Vector search Tá funcionando então agora
  • 00:40:56
    a gente pode criar a nossa cadeia
  • 00:41:02
    rec mas para isso para facilitar também
  • 00:41:06
    todo esse processo como essa parte a
  • 00:41:07
    gente tem que né acabar programando o
  • 00:41:09
    nosso agente O que que a gente precisa o
  • 00:41:11
    que a gente pode fazer né o dat Bricks
  • 00:41:13
    Ele criou o mosaic a ag gente Framework
  • 00:41:16
    que ele é um Framework que simplifica
  • 00:41:18
    muito essas etapas né e além de
  • 00:41:20
    simplificar ele traz funcionalidades que
  • 00:41:23
    ajudam muito nesse processo né então ele
  • 00:41:26
    ajuda muito toda a parte de integração
  • 00:41:28
    com m Flow que eu falei com vocês
  • 00:41:30
    anteriormente toda a parte de
  • 00:41:32
    monitoração a parte de avaliação que é
  • 00:41:34
    um ponto muito importante né quando a
  • 00:41:36
    gente cria esse produto a gente tem que
  • 00:41:38
    deixar os nossos stakeholders o nosso
  • 00:41:40
    cliente final testar né então antes de
  • 00:41:44
    colocar isso em produção então também a
  • 00:41:46
    gente consegue criar um app super visual
  • 00:41:48
    pros usuários testarem e inclusive fazer
  • 00:41:51
    avaliações através de outras llms
  • 00:41:54
    automatizadas pra gente ver se ela tá
  • 00:41:56
    respondo Endo corretamente ou não então
  • 00:41:58
    são recursos muito
  • 00:42:00
    legais e agora a gente vai ver né como
  • 00:42:04
    que vai ficar o resultado então agora a
  • 00:42:06
    gente usou o mosaic Agent ai Framework
  • 00:42:10
    né para criar essa cadeia né que nem eu
  • 00:42:12
    comentei o código depois a gente
  • 00:42:13
    compartilha com vocês e gerou esse
  • 00:42:15
    agente então agora o que que a gente vai
  • 00:42:17
    fazer a gente vai voltar lá naquela demo
  • 00:42:19
    do Vitinho né que ele fez somente ali
  • 00:42:21
    com os llms e o prompt Engineering aí a
  • 00:42:24
    gente vai comparar com o nosso Agent
  • 00:42:27
    criado aqui de com a solução reg então
  • 00:42:30
    Vitinho vamos
  • 00:42:31
    lá legal então aqui na nossa
  • 00:42:34
    demonstração Então a gente tem o Lhama
  • 00:42:36
    novamente o d brx e o nosso agente então
  • 00:42:39
    eu pergunto novamente se eu posso
  • 00:42:40
    declarar minha sogra como dependente e a
  • 00:42:43
    gente vê agora o lama mandou outro valor
  • 00:42:46
    um valor de 28.000 e a gente vê que o
  • 00:42:49
    único correto com a informação
  • 00:42:50
    atualizada é justamente o nosso agente
  • 00:42:54
    que a gente criou utilizando ali o
  • 00:42:56
    Vector sech que ele traz Justamente que
  • 00:42:59
    o limite no máximo é 24.000 o que que é
  • 00:43:01
    legal eu posso clicar também para ver
  • 00:43:04
    cada etapa do processo quanto tempo tá
  • 00:43:06
    levando isso é muito legal porque às
  • 00:43:08
    vezes Ah tem uma etapa que tá demorando
  • 00:43:11
    muito mais que a outra que etapa é essa
  • 00:43:13
    é o Vector search ou não é a parte que
  • 00:43:16
    eu chamo o meu llm se for a parte que eu
  • 00:43:18
    chamo o meu llm por exemplo eu posso
  • 00:43:21
    trocar de modelo falar não esse modelo
  • 00:43:23
    tá muito lento pro meu caso de uso vou
  • 00:43:25
    testar com outro modelo e a assim vai
  • 00:43:27
    todo o meu processo de desenvolvimento
  • 00:43:29
    né então pro desenvolvedor fica muito
  • 00:43:31
    mais simples para avaliar seus
  • 00:43:33
    resultados só que agora não só o
  • 00:43:36
    desenvolvedor precisa avaliar né então a
  • 00:43:38
    gente precisa ter alguns usuários que
  • 00:43:41
    avaliem esse produto né então para isso
  • 00:43:43
    a gente tem o review app que a gente
  • 00:43:45
    cria com simples comando do e Agent
  • 00:43:48
    Framework e ele gera toda uma interface
  • 00:43:50
    visual pra gente tá então o que que a
  • 00:43:52
    gente vai fazer a gente vai acessar o
  • 00:43:53
    nosso modelo né que a gente criou
  • 00:43:55
    registrou ali no un etiquet log a gente
  • 00:43:58
    consegue acompanhar todas as versões
  • 00:44:00
    desse modelo quando que foi registrado
  • 00:44:03
    quem registrou a gente consegue ver ali
  • 00:44:06
    informações mais detalhadas né Inclusive
  • 00:44:09
    a gente consegue ver detalhe daquela
  • 00:44:12
    execução né então qual foi o Notebook
  • 00:44:14
    que gerou esse modelo reg Qual foi o
  • 00:44:18
    tipo de cadeia que foi utilizada os
  • 00:44:20
    artefatos gerados para eu reproduzir até
  • 00:44:22
    em outros lugares né então é muito legal
  • 00:44:25
    quando a gente registra esse modelo aqui
  • 00:44:27
    com o emow E aí o que que a gente pode
  • 00:44:30
    fazer depois documentar né esse esse
  • 00:44:32
    agente colocar ali uma descrição para
  • 00:44:34
    que que ele serve e justamente colocar o
  • 00:44:37
    link desse review app para já ficar tudo
  • 00:44:40
    registrado em um único local e esse link
  • 00:44:43
    pode ser compartilhado com esses
  • 00:44:44
    clientes para fazer o teste ali a gente
  • 00:44:46
    consegue colocar algumas instruções para
  • 00:44:48
    ele fazer esse teste variar as perguntas
  • 00:44:52
    dar o feedback em cada resposta revisar
  • 00:44:55
    os documentos devolvidos para ver se tá
  • 00:44:57
    tudo certo pra gente conseguir avaliar
  • 00:44:59
    para pôr em produção então aí o usuário
  • 00:45:02
    vai vir novamente com a mesma pergunta
  • 00:45:04
    né vai perguntar se pode declarar a
  • 00:45:06
    sogra aqui como dependente E aí ele
  • 00:45:09
    mandando esse resultado ele vai aparecer
  • 00:45:11
    novos botões diferentes do playground né
  • 00:45:14
    justamente pra gente fazer a avaliação
  • 00:45:16
    legal ele tá com a resposta certa mas se
  • 00:45:18
    ele não tivesse né então o que que eu
  • 00:45:20
    poderia fazer então esse usuário que tá
  • 00:45:22
    avaliando ele poderia editar a resposta
  • 00:45:25
    né pra gente ter esse retorno de qual
  • 00:45:28
    seria a resposta certa a gente poderia
  • 00:45:30
    colocar itens de avaliação de feedback
  • 00:45:33
    né que a resposta foi boa ela foi
  • 00:45:35
    acurada relevante profissional poderia
  • 00:45:39
    colocar feedbacks a mais também né
  • 00:45:42
    depois disso eu já consigo ver qual foi
  • 00:45:44
    o documento que ele trouxe né que trouxe
  • 00:45:46
    essa resposta então eu poderia avaliar
  • 00:45:48
    isso também e confirmar né se tá correto
  • 00:45:51
    se não tá depois disso O que que eu
  • 00:45:54
    poderia fazer né então viria ali os
  • 00:45:57
    desenvolvedores analisaria esse teste e
  • 00:46:00
    veria se tá pronto já paraa produção ou
  • 00:46:02
    não né então simplifica todo o processo
  • 00:46:05
    né desde desenvolvimento até mesmo aos
  • 00:46:09
    testes finais antes de entrar em
  • 00:46:13
    produção e agora para vocês conhecerem
  • 00:46:16
    mais duas técnicas muito interessantes
  • 00:46:18
    Vou chamar o Vitinho aqui para falar
  • 00:46:19
    sobre fine tunning e pre-training valeu
  • 00:46:22
    Obrigado Aninha bom a Aninha deu um show
  • 00:46:24
    né gente falando de reg acho que eh uma
  • 00:46:28
    solução como essa ela pode ser aplicada
  • 00:46:31
    em vários contextos dentro da sua
  • 00:46:33
    empresa e eu imagino que isso resolveria
  • 00:46:37
    boa parte do dos problemas que vocês têm
  • 00:46:39
    Talvez hoje e imagino que vocês
  • 00:46:41
    concordem comigo só que a jornada de
  • 00:46:43
    genen ela não para em reg ela continua
  • 00:46:46
    eu diria que reg a gente tá chegando ali
  • 00:46:47
    na metade do caminho né a gente pode
  • 00:46:50
    sofisticar ainda mais essa jornada caso
  • 00:46:53
    seja necessário então a gente viu prompt
  • 00:46:56
    engeneering entendeu muito bem que reg
  • 00:46:58
    traz ali já documentos específicos para
  • 00:47:01
    uma resposta mais acurada só que a gente
  • 00:47:03
    tem agora o conceito de fine tunning
  • 00:47:05
    também E aí vocês devem estar se
  • 00:47:07
    perguntando pô Vitor quando que dentro
  • 00:47:09
    do meu contexto no meu dia a dia eu vou
  • 00:47:11
    saber que eu preciso migrar uma solução
  • 00:47:13
    rag para uma solução de fine tuning vou
  • 00:47:16
    responder vocês já sobre isso mas é
  • 00:47:18
    importante a gente entender que fine
  • 00:47:20
    tuning é a adaptação do modelo
  • 00:47:22
    pré-treino a tarefas ou domínios
  • 00:47:25
    específicos ou seja eu quero que esse
  • 00:47:27
    meu modelo ele seja capaz de entender de
  • 00:47:30
    forma granular de forma especialista
  • 00:47:33
    aquela pergunta que tá sendo feita para
  • 00:47:35
    que ele dê uma resposta de fato acurada
  • 00:47:37
    Quando que você faz essa migração né
  • 00:47:39
    essa virada de chave de reg para fine
  • 00:47:42
    tun o primeiro ponto eu diria que não é
  • 00:47:44
    o principal mas ele tá ali no top três é
  • 00:47:46
    o desempenho e a consistência o fine
  • 00:47:48
    tuning ele tende a oferecer respostas
  • 00:47:51
    mais confiáveis e especializadas que são
  • 00:47:54
    geralmente cruciais para tarefas
  • 00:47:56
    específicas o segundo ponto a latência
  • 00:47:58
    reduzida modelos geralmente que são fine
  • 00:48:01
    tuned eles respondem mais rápido do que
  • 00:48:04
    soluções rag e terceiro ponto aqui é uma
  • 00:48:07
    personalização mais avançada como vocês
  • 00:48:08
    viram o fine tuning ele permite com que
  • 00:48:11
    eu adapte ou Ajuste o meu modelo para
  • 00:48:14
    refletir não só a voz da minha marca
  • 00:48:17
    caso eu queira Mas que ele responda de
  • 00:48:18
    forma condizente com o meu domínio
  • 00:48:21
    específico Então isso é muito
  • 00:48:22
    interessante como a data Bricks ela
  • 00:48:24
    fornece ou ela dá braço para que você
  • 00:48:26
    vocês consigam executar essa tarefa hoje
  • 00:48:29
    dentro da nossa aba de machine learning
  • 00:48:32
    Quando você vai criar um experimento
  • 00:48:33
    você pode hoje criar um fine tuning ou
  • 00:48:36
    um pretraining que eu já explico mais à
  • 00:48:38
    frente para vocês o que é isso tá gated
  • 00:48:40
    Public preview Então se vocês não
  • 00:48:41
    tiverem isso habilitado dentro da
  • 00:48:43
    workspace de vocês entre em contato com
  • 00:48:45
    o nosso time que a gente inscreve vocês
  • 00:48:47
    e faz essa habilitação o processo de
  • 00:48:49
    fine tuning Hoje ele é muito semelhante
  • 00:48:50
    ao processo de aeml Então você vai criar
  • 00:48:53
    um experimento Ali vai selecionar o fine
  • 00:48:54
    tuning as máquinas vão ser provisionadas
  • 00:48:57
    de forma servas para que você utilize e
  • 00:49:00
    posteriormente você vai ter um modelo
  • 00:49:01
    sendo registrado no Unit catalog com
  • 00:49:04
    rastreamento sendo feito com mlflow que
  • 00:49:07
    depois você consegue registrar e fazer a
  • 00:49:09
    implementação desse modelo utilizando
  • 00:49:11
    Model serving veja que aqui e você passa
  • 00:49:14
    por algumas etapas né você vai escolher
  • 00:49:16
    a arquitetura do seu modelo nesse caso
  • 00:49:18
    do fine tuning você precisa trazer os
  • 00:49:19
    seus dados de Treinamento personalizado
  • 00:49:22
    para ir sim fazer o fine tuning
  • 00:49:24
    acontecer e depois finalmente
  • 00:49:25
    disponibilizar isso num Model serving né
  • 00:49:28
    num endp de modelo para que a sua
  • 00:49:30
    aplicação possa consumir esse recurso
  • 00:49:33
    outra etapa que a gente tem e aqui a
  • 00:49:35
    gente chega no maior nível de
  • 00:49:36
    complexidade na jornada de genen é o
  • 00:49:39
    nível mais sofisticado possível é o
  • 00:49:41
    nível de pretraining confesso que eu não
  • 00:49:43
    conheço ainda nenhum cliente no Brasil
  • 00:49:45
    que esteja nesse nível bem e com caso
  • 00:49:48
    público para falar conosco ou falar
  • 00:49:50
    Enfim no mercado aqui a gente tá falando
  • 00:49:53
    de treinar um modelo de genen do zero
  • 00:49:56
    para um domínio ou um contexto
  • 00:49:58
    específico ou seja é um treinamento de
  • 00:50:00
    um modelo fundacional a gente vai
  • 00:50:03
    precisar aqui de alguns milhões bilhões
  • 00:50:06
    trilhões de tokens para fazer o
  • 00:50:08
    treinamento desse modelo ah Vitor isso
  • 00:50:10
    daí é rápido cara a gente não tá falando
  • 00:50:13
    de poucos dias a gente tá falando de
  • 00:50:14
    muitas semanas talvez alguns meses para
  • 00:50:17
    conseguir executar isso e finalmente
  • 00:50:19
    chegar na obra ali da Ópera final né da
  • 00:50:22
    da arte final com sucesso vantagens
  • 00:50:25
    controle completo é é um modelo seu você
  • 00:50:28
    criou esse modelo então é um modelo que
  • 00:50:30
    ninguém mais no mercado nunca vai ter
  • 00:50:32
    nada parecido com o que você tem
  • 00:50:34
    considerações é um processo complexo
  • 00:50:36
    então pode ser extremamente Custoso
  • 00:50:39
    fazer isso do zero quem hoje tá
  • 00:50:41
    aplicando isso muito bem e fazendo com
  • 00:50:43
    sucesso e esse é um ponto que eu queria
  • 00:50:45
    compartilhar com vocês acho que o caso
  • 00:50:47
    mais legal para ser compartilhado com
  • 00:50:48
    vocês é o caso da Bloomberg a Bloomberg
  • 00:50:51
    ela criou ali eh em cima dos dados de 40
  • 00:50:55
    anos de do setor financeiro né dados
  • 00:50:57
    financeiros que eles tinham para criar o
  • 00:50:59
    que eles chamam de Bloomberg GPT que é
  • 00:51:02
    basicamente um assistente que sabe
  • 00:51:04
    responder qualquer pergunta relacionada
  • 00:51:06
    ao mundo financeiro aí vocês devem estar
  • 00:51:09
    falando pô Vitor mas demorou mesmo para
  • 00:51:11
    fazer esse Bloomberg GPT ess assistente
  • 00:51:13
    da Bloomberg só para vocês terem ideia a
  • 00:51:15
    gente tá falando de
  • 00:51:17
    aproximadamente 700 bilhões de tokens
  • 00:51:20
    para treinamento vocês lembram quando a
  • 00:51:23
    Aninha apresentou os fundamentos pra
  • 00:51:24
    gente que o token era uma palavra um
  • 00:51:26
    conjunto de palavras imagina 700 bilhões
  • 00:51:30
    de tokens quantos documentos e quantas
  • 00:51:32
    análises de texto não foram feitas aí
  • 00:51:35
    vocês devem se perguntar Ah vctor esse
  • 00:51:36
    modelo da Bloomberg quantos dias demorou
  • 00:51:38
    para eles treinarem esse modelo e chegar
  • 00:51:40
    na obra da arte final foram 48 dias sem
  • 00:51:45
    a máquina desligar em nenhum momento
  • 00:51:47
    então Imaginem aqui a complexidade e a
  • 00:51:50
    sofisticação que um processo desse tem
  • 00:51:53
    demonstração né como vocês podem
  • 00:51:55
    alcançar esse sucesso dentro da
  • 00:51:57
    plataforma datab Bricks é bem simples na
  • 00:51:59
    workspace dentro da aba de machine
  • 00:52:01
    learning você tem ali Os experimentos
  • 00:52:03
    pra galera que tá acostumada a modelar
  • 00:52:04
    aqui não tem muito segredo e ali dentro
  • 00:52:06
    vocês têm a opção né lá em cima do lado
  • 00:52:09
    de aut Emil mosaic ai Model Training
  • 00:52:11
    quando vocês clicam nessa opção vocês
  • 00:52:13
    vão ver que vocês TM duas opções aqui
  • 00:52:15
    via interface do usuário tudo isso é
  • 00:52:17
    replicável via código também você
  • 00:52:19
    seleciona se você quer fazer um fine
  • 00:52:21
    tunning ou se você gostaria de fazer um
  • 00:52:23
    pretraining e dali você consegue iniciar
  • 00:52:26
    sua jornada se você tá nessa fase da
  • 00:52:28
    jornada de genen e tem mais interesse em
  • 00:52:31
    conhecer mais profundamente os materiais
  • 00:52:33
    que a gente tem entra em contato conosco
  • 00:52:35
    assim que acabar o webinar e a gente
  • 00:52:37
    pode sentar e fazer um Deep diive em
  • 00:52:39
    cima dentro desses dois tópicos para que
  • 00:52:41
    vocês conheçam de fato tudo que a gente
  • 00:52:43
    tem debaixo do capô do carro dito isso
  • 00:52:45
    Promessa é dívida né a gente tem aqui
  • 00:52:47
    mais alguns minutos antes de encerrar o
  • 00:52:48
    webinar a gente tem agora o grande caso
  • 00:52:50
    de uso de sucesso e que é público que
  • 00:52:53
    nós aqui time data Breaks temos muito
  • 00:52:55
    orgulho e gostaríamos de apresentar para
  • 00:52:57
    vocês vou passar a palavra pra Ana e a
  • 00:52:58
    Ana vai apresentar Quem é esse fatídico
  • 00:53:01
    cliente para vocês então vamos lá
  • 00:53:03
    pitinho muito legal né a gente saber
  • 00:53:06
    onde a gente pode chegar na jornada de
  • 00:53:08
    Jen né então trabalhando com dat Break
  • 00:53:11
    Vocês conseguem trabalhar desde do do
  • 00:53:13
    prompt Engineering trabalhar com reg e
  • 00:53:16
    se um dia vocês precisarem né trabalhar
  • 00:53:17
    com f tan PR Training vocês sabem que
  • 00:53:20
    tem uma plataforma completa para isso e
  • 00:53:22
    não só isso né utilizar também qualquer
  • 00:53:24
    modelo que vocês precisarem mas agora
  • 00:53:26
    orora vamos ver na prática como nossos
  • 00:53:28
    clientes estão tendo sucesso com essas
  • 00:53:30
    soluções né e o cliente tão esperado que
  • 00:53:32
    a gente trouxe aqui para vocês é a arezo
  • 00:53:35
    en co né Então primeiramente eu gostaria
  • 00:53:38
    de agradecer tanto o Guilherme quanto o
  • 00:53:40
    Murilo por terem compartilhado esse
  • 00:53:42
    super casa de uso no nosso evento em
  • 00:53:44
    agosto desse ano né o dat en Tour São
  • 00:53:46
    Paulo e agradecer também por permitirem
  • 00:53:49
    que a gente apresentasse hoje aqui para
  • 00:53:51
    vocês e também parabenizar todos
  • 00:53:53
    envolvidos nesse caso de sucesso tanto o
  • 00:53:55
    time do data Bricks quanto o Tim da Arez
  • 00:53:57
    enc né E esse caso né da Arez enc né que
  • 00:54:01
    inclusive eu sou super fã deles né eu
  • 00:54:03
    tenho vários produtos da marca mas para
  • 00:54:06
    quem não conhece a Ares é uma das
  • 00:54:08
    maiores House of brands do Brasil ela
  • 00:54:10
    tem mais de 17 marcas e quase 6 milhões
  • 00:54:13
    de clientes né então é uma empresa super
  • 00:54:16
    grande e a marca escolhida para ser
  • 00:54:19
    trabalhada nesse projeto justamente foi
  • 00:54:21
    a arezo né a grande marca de calçados e
  • 00:54:23
    acessórios femininos com milhares de l
  • 00:54:26
    lojas pelo Brasil né e qual que foi né
  • 00:54:29
    esse caso de uso né hoje já narzo todas
  • 00:54:32
    as vendedoras já tem na palma da sua mão
  • 00:54:35
    o zzp né que ele é um aplicativo que
  • 00:54:38
    elas usam para se comunicar com as
  • 00:54:39
    clientes onde por trás tem vários vários
  • 00:54:43
    modelos de a né que traz um diferencial
  • 00:54:45
    pra sua cliente porque consegue tanto
  • 00:54:48
    trazer um atendimento personalizado e
  • 00:54:50
    até mesmo várias recomendações Com base
  • 00:54:53
    no uso e no gosto delas né E aí para
  • 00:54:56
    para elevar essa experiência do cliente
  • 00:54:58
    em um novo patamar eles adicionaram uma
  • 00:55:00
    funcionalidade muito bacana que foi
  • 00:55:03
    desenvolvida justamente para atender os
  • 00:55:05
    clientes que acabam chegando na loja né
  • 00:55:08
    com a foto de algum calçado que gostaram
  • 00:55:11
    isso até já aconteceu comigo e até mesmo
  • 00:55:14
    né ou até mesmo vira um produto ali na
  • 00:55:16
    loja e não tinha um produto no seu
  • 00:55:19
    número então qual que é a ideia é a
  • 00:55:21
    vendedora pegar esse sapato que a
  • 00:55:23
    cliente gostou e não tem o número dela
  • 00:55:25
    ela tira essa essa foto e na hora que
  • 00:55:27
    essa foto é tirada já faz uma busca em
  • 00:55:30
    todo o seu estoque para encontrar os
  • 00:55:33
    sapatos mais semelhantes com aquele que
  • 00:55:35
    a cliente Gostou né então isso foi muito
  • 00:55:39
    legal porque foi implementado ali
  • 00:55:41
    modelos utilizando o Model serving com
  • 00:55:44
    conexão com Open ai e essas imagens
  • 00:55:47
    foram indexadas utilizando o Vector
  • 00:55:49
    search que a gente falou bastante aqui
  • 00:55:50
    nas apresentações justamente para
  • 00:55:52
    realizar essa busca por similaridade né
  • 00:55:55
    esse produto que a cliente quer com a
  • 00:55:57
    base do estoque né e o que o é legal que
  • 00:56:00
    o resultado foi muito incrível gente
  • 00:56:02
    isso é um produto super novo e a gente
  • 00:56:04
    já consegue ver dados muito expressivos
  • 00:56:07
    né então em teste de 12 meses nas lojas
  • 00:56:10
    participantes Eles já tiveram uma
  • 00:56:12
    receita incremental de quase R 70
  • 00:56:14
    milhões deais diminuíram em 9% o estoque
  • 00:56:18
    médio e a conversão de clientes
  • 00:56:20
    atendidos né Por recomendação que é a
  • 00:56:23
    cliente entrar na loja e comprar o
  • 00:56:25
    produto foi já de quase 4% a mais né
  • 00:56:29
    então a gente vê que a ia generativa ela
  • 00:56:32
    é um Case são cases muito legais que
  • 00:56:34
    atendem tanto o cliente final quanto a
  • 00:56:37
    empresa né a gente vê Olha esses números
  • 00:56:39
    que impactantes né Então esse é só um
  • 00:56:41
    dos casos que a gente já tem diversos ao
  • 00:56:44
    redor do mundo então Caso vocês tenham
  • 00:56:46
    curiosidade de saber outros casos de uso
  • 00:56:49
    na prática que estão acontecendo com os
  • 00:56:51
    nossos clientes a gente vai deixar aqui
  • 00:56:53
    um Carry code né esse primeiro Carry
  • 00:56:55
    code na esquerda então lá Vocês
  • 00:56:57
    conseguem ver vários casos de uso com i
  • 00:56:59
    generativa para quem quiser se
  • 00:57:00
    especializar Ah eu gostei dessa área é
  • 00:57:03
    isso que eu quero seguir entrem nesse
  • 00:57:05
    site O que é genen aqui do dat Bricks
  • 00:57:08
    que tem toda a explicação que a gente
  • 00:57:09
    deu aqui no material de forma mais
  • 00:57:11
    aprofundada com diversos links links
  • 00:57:13
    para curso do Academy links para
  • 00:57:15
    certificação né para tirar acreditação e
  • 00:57:18
    também quem quiser já fazer algum
  • 00:57:20
    tutoriais a gente tem esse outro Carry
  • 00:57:22
    code para vocês fazerem tutoriais e já
  • 00:57:24
    começarem colocar a mão na massa tá e
  • 00:57:27
    pessoal um ponto muito importante né
  • 00:57:29
    então Caso vocês tenham algum caso de
  • 00:57:31
    uso né que vocês não sabem como começar
  • 00:57:34
    gostariam do apoio da det Bricks tanto
  • 00:57:36
    na questão de arquitetura na questão de
  • 00:57:39
    orientação quando vocês saírem do
  • 00:57:41
    webinar vai aparecer algumas perguntas
  • 00:57:44
    bem pouquinhas coloquem lá as
  • 00:57:46
    informações Caso vocês tenham algum caso
  • 00:57:48
    de uso que precisem da nossa ajuda
  • 00:57:49
    porque a gente vai entrar em contato com
  • 00:57:51
    vocês para fazer vocês também se
  • 00:57:53
    tornarem um caso de sucesso e aparecer
  • 00:57:55
    aqui nos próximos abinar também então
  • 00:57:57
    contem com a gente nessa jornada pessoal
  • 00:58:00
    muito obrigada pela participação de
  • 00:58:02
    todos não se esqueçam de inscrever se
  • 00:58:04
    inscrever nos próximos webinares e
  • 00:58:06
    contem com a gente nessa jornada
  • 00:58:08
    Obrigada pessoal Tenha um bom dia valeu
  • 00:58:11
    pessoal boa quarta-feira para vocês
  • 00:58:13
    tchau tchau
Etiquetas
  • webinar
  • Databricks
  • inteligência artificial
  • machine learning
  • LLM
  • Lakehouse
  • ai generativa