Introdução ao Synapse Data Warehouse no Microsoft Fabric

00:50:42
https://www.youtube.com/watch?v=CT1tAS-_PMA

الملخص

TLDRO vídeo foca no Microsoft Fabric, especialmente na ferramenta Synapse Data Warehouse, uma evolução do Azure Synapse Analytics. Esta solução oferece uma plataforma de analytics completa, destacando-se pelo uso de computação sem servidor e suporte nativo ao formato de Delta Lake. A apresentação explora a diferença entre o "dedicated Pool", que é uma computação transacional dedicada, e o "serverless Pool", que permite leitura direta do data lake com alta flexibilidade na execução de consultas. O Microsoft Fabric traz avanços significativos em processamento de dados, como a possibilidade de anexar diretamente dados corporativos a ferramentas como Power BI, visando uma análise mais rápida e integrada. Além disso, destaca-se pela simplicidade na configuração e escalabilidade automática, sem a necessidade de ajustes manuais complexos. Todo o processamento é otimizado para leitura e gravação eficiente de grandes volumes de dados, promovendo segurança e governança robustas. A demonstração prática inclui criação e integração de tabelas, execução de queries e uma visão geral das funcionalidades aprimoradas para otimização de performance. As vantagens em termos de eficiência de custos e integração com o ecossistema de dados da Microsoft são enfatizadas, tornando o Fabric uma solução atraente para projetos modernos de data warehousing.

الوجبات الجاهزة

  • 🚀 Microsoft Fabric oferece uma solução completa para Data Warehousing.
  • 🛠️ Suporte nativo ao Delta Lake melhora a eficiência do processamento.
  • 🔄 Computação sem servidor permite escalabilidade automática.
  • 🔒 Segurança e governança integradas em toda a plataforma.
  • 📈 Integração direta com Power BI para análises rápidas.
  • ⚙️ Configuração simplificada elimina ajustes complexos.
  • 💡 Ingestão de dados otimizada com V-Order Write.
  • 🗂️ Capacidade de fazer cross-database querying.
  • 🔍 Monitoramento avançado de queries e performance.
  • 🌐 Suporte a múltiplas ferramentas de gerenciamento.

الجدول الزمني

  • 00:00:00 - 00:05:00

    Introdução sobre o Microsoft Fabric e foco na feature de Synapse Data Warehousing. Explicação sobre os pilares do Microsoft Fabric e a importância do CoPilot de AI.

  • 00:05:00 - 00:10:00

    Explicação sobre o relacionamento do Azure Synapse Analytics como uma solução Platform as a Service (PaaS) e a evolução para o Synapse Data Warehousing. Destaca-se que a Microsoft não pretende descontinuar a versão atual.

  • 00:10:00 - 00:15:00

    Discussão sobre as diferenças entre o Dedicated Pool e o Serverless Pool dentro do Azure Synapse Analytics, incluindo suas especificidades de processamento e limitações.

  • 00:15:00 - 00:20:00

    Mais detalhes sobre o Serverless Pool como uma solução para leitura de dados no Data Lake, destacando sua natureza não transacional e focada em virtualização de dados.

  • 00:20:00 - 00:25:00

    Ênfase nas limitações do Dedicated Pool e as soluções que o Microsoft Fabric traz, com melhorias em escalabilidade e uso do Delta Format.

  • 00:25:00 - 00:30:00

    Apresentação de novos cenários de uso com o Microsoft Fabric, mostrando como ele unifica as funções de processamento e análise de dados, oferecendo uma plataforma completa de analytics.

  • 00:30:00 - 00:35:00

    Foca nas vantagens do Synapse Data Warehousing dentro do Microsoft Fabric, como a computação serverless e a integração com o Delta Format.

  • 00:35:00 - 00:40:00

    Aspectos técnicos do Synapse Data Warehousing como otimização automática, arquitetura Lake-centric e integração nativa com o Power BI.

  • 00:40:00 - 00:45:00

    Demonstração prática da criação e integração de dados no Synapse Data Warehousing através de exemplos de queries e uso de cross query entre data warehouses.

  • 00:45:00 - 00:50:42

    Resumo da vantagem do Synapse Data Warehousing no Microsoft Fabric, destacando sua capacidade de processamento eficiente e integração com outras ferramentas de análise e visualização.

اعرض المزيد

الخريطة الذهنية

Mind Map

الأسئلة الشائعة

  • O que é o Synapse Data Warehouse no Microsoft Fabric?

    É uma evolução do Azure Synapse Analytics, integrado ao Microsoft Fabric para otimizar o armazenamento e processamento de dados.

  • Quais são os principais diferenciais do Microsoft Fabric para Data Warehousing?

    Ele oferece processamento transacional aberto com suporte nativo ao Delta Lake e computação em nuvem sem servidor otimizada.

  • A Microsoft pretende descontinuar o Azure Synapse Analytics?

    Não, a Microsoft não planeja descontinuar o Azure Synapse Analytics, conforme documentado em suas políticas.

  • O que é o 'dedicated Pool' e 'serverless Pool'?

    O 'dedicated Pool' fornece computação dedicada e transacional, enquanto 'serverless Pool' oferece processamento distribuído para consultas em data lakes.

  • Como o Microsoft Fabric melhora o desempenho de Data Warehousing?

    Utiliza computação sem servidor otimizada, suporte nativo a Delta Lake e uma infraestrutura de consulta distribuída.

  • Quais são os principais componentes do Microsoft Fabric para Data Warehousing?

    Incluem computação sem servidor, armazenamento em Delta Lake, governança integrada e soluções end-to-end.

  • O Microsoft Fabric simplifica a configuração de Data Warehousing?

    Sim, elimina a necessidade de configuração complexa, com otimização automática e suporte integrado ao Delta Lake.

  • O que é SQL Serverless no contexto do Microsoft Fabric?

    É uma engine de consulta distribuída que permite leitura direta do armazenamento, escalando automaticamente.

عرض المزيد من ملخصات الفيديو

احصل على وصول فوري إلى ملخصات فيديو YouTube المجانية المدعومة بالذكاء الاصطناعي!
الترجمات
pt
التمرير التلقائي:
  • 00:00:00
    Fala galera como é que vocês estão
  • 00:00:03
    Espero que todos estejam bem né mais uma
  • 00:00:06
    semana aí após o lançamento do meu
  • 00:00:09
    penúltimo vídeo relacionado ao Storage
  • 00:00:13
    do Microsoft Fabric né hoje a gente tá
  • 00:00:15
    aqui para falar sobre uma feature que eu
  • 00:00:18
    ah gosto bastante né até mesmo porque
  • 00:00:21
    ele vem de uma evolução de um outro
  • 00:00:24
    produto no qual eu tenho trabalhado
  • 00:00:27
    bastante desde muito tempo atrás né a
  • 00:00:30
    gente consegue ver isso nos vídeos
  • 00:00:31
    anteriores mas
  • 00:00:33
    eh vamos lá né Vamos lá vamos falar um
  • 00:00:36
    pouquinho aí do sinaps data warehousing
  • 00:00:39
    dentro do Microsoft Fabric né então
  • 00:00:42
    primeiro vídeo a gente fez uma
  • 00:00:44
    introdução rápida ali sobre o Microsoft
  • 00:00:46
    Fabric Quais são os quatro pilares né a
  • 00:00:48
    gente já consegue ver aqui nesses slides
  • 00:00:50
    Quais são os principais Pilares
  • 00:00:52
    principal Pilar que é uma é uma solução
  • 00:00:55
    completa de Analytics uma plataforma
  • 00:00:57
    completa ela é aberta em todas as
  • 00:01:00
    camadas com a ideia de empoderar os
  • 00:01:02
    usuários finais e a gente tem o ai
  • 00:01:05
    CoPilot embarcado ali dentro do produto
  • 00:01:08
    né Então essa é a ideia da gente hoje
  • 00:01:11
    falar do sinaps data warehous um um
  • 00:01:15
    pedaço específico do Microsoft Fabric
  • 00:01:18
    legal então antes da gente começar esse
  • 00:01:20
    vídeo galera eu sempre falo isso para
  • 00:01:22
    vocês por favor soltem um like aí de
  • 00:01:24
    vocês se inscreva no canal se você não é
  • 00:01:27
    inscrito ativa as notificações para que
  • 00:01:29
    você receba a todas as novidades aí
  • 00:01:32
    também você vai ajudar mais pessoas a
  • 00:01:33
    conhecer um pouco desse conteúdo
  • 00:01:35
    conhecer um pouquinho sobre mim né sobre
  • 00:01:38
    o que eu tenho falado aí de Microsoft
  • 00:01:39
    Fabric e eu espero que vocês tenham
  • 00:01:42
    gostado caso não tenham visto ainda o
  • 00:01:43
    primeiro e o segundo vídeo volta lá e
  • 00:01:46
    assiste espera terminar isso aqui depois
  • 00:01:48
    volta lá e assiste tem muita coisa legal
  • 00:01:51
    aí pra gente falar legal então vamos
  • 00:01:54
    começar esse vídeo de hoje aí falando
  • 00:01:56
    sobre o sinaps date Warehouse assim como
  • 00:01:58
    vocês podem ver aqui aqui preparar
  • 00:02:00
    alguns slides aqui para vocês então
  • 00:02:02
    antes de eu falar sobre o sinaps de
  • 00:02:04
    Warehouse Deixa eu voltar um pouquinho
  • 00:02:06
    deixa eu voltar um pouquinho aqui nos
  • 00:02:08
    meus slides vamos falar aqui qual que é
  • 00:02:11
    a versão atual que a gente tem de
  • 00:02:14
    sinapse datare house né então falei
  • 00:02:18
    bastante isso lá no meu aqui dentro aqui
  • 00:02:20
    no meu canal do YouTube tá lá na tá lá
  • 00:02:23
    na na nos vídeos anteriores de sinaps
  • 00:02:25
    Analytics né lembrando galera o que que
  • 00:02:27
    é o Microsoft Fabric é uma solução P
  • 00:02:31
    legal é perdão é uma solução SAS
  • 00:02:35
    software como serviço desculpa galera
  • 00:02:37
    software como serviço Beleza o que que é
  • 00:02:40
    o azure sinaps Analytics é uma solução
  • 00:02:44
    pass plataforma como serviço por que que
  • 00:02:47
    eu falo que é a versão pass atual do
  • 00:02:50
    sinapse date warehouses legal por quê
  • 00:02:53
    Porque é a versão que ainda existe é a
  • 00:02:55
    versão que ainda vai continuar existindo
  • 00:02:56
    ponto muito importante galera a
  • 00:02:59
    Microsoft não pretende eh descontinuar o
  • 00:03:03
    Azur sinaps Analytics Beleza tem toda
  • 00:03:06
    uma documentação tem toda uma política é
  • 00:03:08
    isso não sou eu que tô falando tá isso
  • 00:03:10
    tá documentado no das documentações
  • 00:03:12
    públicas de de políticas de serviços tá
  • 00:03:16
    então tanto o dedicated pool quanto o
  • 00:03:19
    server são soluções que ainda vão
  • 00:03:21
    continuar existindo beleza para US cases
  • 00:03:24
    específicos cada cada empresa tem seus
  • 00:03:26
    US cases e não vai ser diferente se você
  • 00:03:28
    planeja legal se você planeja ficar
  • 00:03:32
    utilizando ainda o dedicated Pool e o
  • 00:03:34
    seress pool que cada um tem sua
  • 00:03:36
    especificidade legal também hein galera
  • 00:03:38
    então ponto importante a Microsoft não
  • 00:03:42
    planeja e retirar esse produto de linha
  • 00:03:45
    Beleza então vou falar um pouquinho
  • 00:03:47
    desses caras bem rapidamente tá
  • 00:03:49
    dedicated Pool lá atrás ele foi
  • 00:03:52
    conhecido como azu date Ware housee né e
  • 00:03:56
    depois disso a Microsoft fez o rebrand
  • 00:03:59
    para esse esse produto se chamar Azur
  • 00:04:01
    sinaps Analytics então meio que fez uma
  • 00:04:03
    confusão aí no mercado apenas a parte de
  • 00:04:06
    date warehous era conhecido como Azur
  • 00:04:09
    sinaps Analytics e e um pouquinho depois
  • 00:04:12
    pouco dois anos depois a Microsoft veio
  • 00:04:14
    lançou a plataforma Azur sinaps
  • 00:04:17
    Analytics e dentro da plataforma Azur
  • 00:04:20
    synaps Analytics tinha todos os
  • 00:04:22
    workloads para Big Data a parte de date
  • 00:04:25
    Warehouse ficou conhecida como dedicated
  • 00:04:27
    P Pool legal por é um SQL dedicado E aí
  • 00:04:31
    quando a gente fala dedicado ela é uma
  • 00:04:33
    solução que você provisiona a capacidade
  • 00:04:37
    que você quer de computação né O que a
  • 00:04:39
    gente chama ali de dwus né data
  • 00:04:42
    Warehouse units E aí você vai ter o seu
  • 00:04:44
    poder ali de processamento de CPU de
  • 00:04:47
    memória de Storage legal dedicated Pool
  • 00:04:50
    é uma solução de de processamento
  • 00:04:51
    massivo paralelo ele existe Ele tem sua
  • 00:04:54
    própria especificidade para e eh para
  • 00:04:58
    armazenar os dados e tudo mais legal eu
  • 00:05:01
    não vou entrar muito nesse detalhe quer
  • 00:05:02
    saber um pouquinho mais sobre esse cara
  • 00:05:04
    vai lá nos meu vídeos de sinaps
  • 00:05:06
    analíticos Eu tenho um uma trad
  • 00:05:08
    específica de dedicated p Pool Beleza
  • 00:05:11
    então esse aqui é um deware House um
  • 00:05:12
    tipo de deware house muito conhecido
  • 00:05:15
    anteriormente por
  • 00:05:17
    eh se se encaixar muito bem nas
  • 00:05:19
    arquiteturas de Modern date Ware House
  • 00:05:21
    Beleza então ele é fixo ele é
  • 00:05:24
    provisionado ele tem várias
  • 00:05:26
    características de performance de de de
  • 00:05:30
    de armazenamento de dados coluna várias
  • 00:05:33
    coisas tá assim como ele tem vários
  • 00:05:36
    defeitos Beleza então não posso deixar
  • 00:05:38
    de falar aqui quando eu falo defeitos eu
  • 00:05:40
    falo eh situações em que alguns eh eh
  • 00:05:44
    clientes eh sofrem um pouco nas
  • 00:05:47
    configurações legal E aí eu vou pular
  • 00:05:50
    aqui pro server CIC Pool então a medida
  • 00:05:53
    com que o tempo foi a que os workloads
  • 00:05:56
    foram se modernizando galera a microsof
  • 00:05:59
    soft ficou meio que com GAP de uma
  • 00:06:02
    solução que pudesse consultar o datalake
  • 00:06:06
    o dedicated sipu conseguia fazer isso
  • 00:06:08
    Sidney não conseguia consultar direto
  • 00:06:11
    mas conseguia se conectar no dat Lake e
  • 00:06:14
    mandar o dado para dentro do dedicated
  • 00:06:16
    cpol para processar ele utilizando SQL
  • 00:06:19
    né no serverless Pool não serverless
  • 00:06:21
    Pool ele foi a primeira solução
  • 00:06:23
    utilizando o SQL que a Microsoft colocou
  • 00:06:26
    no mercado eh que conseguia ler o
  • 00:06:29
    Storage direto eu eu vou lá dentro do
  • 00:06:32
    arquivo no Storage mando o botão direito
  • 00:06:35
    Quero quero ver as linhas desse arquivo
  • 00:06:38
    pode ser parqu pode ser csv né E aí por
  • 00:06:42
    fim lá no final a Microsoft liberou ele
  • 00:06:44
    para pra leitura de Delta Qual que é o
  • 00:06:48
    grande problema aqui do serverless o
  • 00:06:50
    serverless ele foi feito para uma camada
  • 00:06:53
    de virtualização em cima do storage ou
  • 00:06:56
    seja ele não é transacional ele ele é
  • 00:06:59
    apenas de leitura o dedicated pool não
  • 00:07:02
    dedicated Pool você tem escrita e tem
  • 00:07:04
    leitura mas não tem habilidade de
  • 00:07:06
    consultar o dado no no data Lake tá o
  • 00:07:09
    serverless não o serverless ele já é uma
  • 00:07:11
    camada mais para data virtualization né
  • 00:07:14
    então você cria o seu dataware housee
  • 00:07:17
    dentro do seu dat Lake E cria o server
  • 00:07:20
    as visualizações e as tabelas externas
  • 00:07:23
    ali apontando pro Storage então problema
  • 00:07:26
    que a gente tem aqui eu não consigo
  • 00:07:28
    inserir dados então toda vez que eu
  • 00:07:30
    precisava criar novos dados dentro do
  • 00:07:33
    meu dat Lake eu processava os dados
  • 00:07:35
    dentro do storage eu tinha que dropar e
  • 00:07:37
    recriar a tabela novamente Mas funciona
  • 00:07:39
    muito bem perfeitamente O Outro ponto
  • 00:07:41
    muito importante aqui galera server Pool
  • 00:07:44
    ele não foi feito para um workload
  • 00:07:47
    absurdo assim né para um workload de
  • 00:07:50
    milisegundos de de retorno do dado ali
  • 00:07:53
    para pro Power bi ou então pros usuários
  • 00:07:55
    legal Diferentemente do dedicated SC
  • 00:07:58
    Pool o dedicated cle Pool ele foi foi
  • 00:08:01
    projetado para alta demanda Para para
  • 00:08:05
    que as Sares performe de uma maneira
  • 00:08:07
    muito mais rápido por conta das suas
  • 00:08:08
    características né lembrando dedicated
  • 00:08:11
    Pool é um sistema de massivo paralelo
  • 00:08:13
    processing e o server Pool é um
  • 00:08:16
    distributed query processing Engine
  • 00:08:19
    beleza é uma Engine de processamento de
  • 00:08:21
    query distribuída você manda sua query
  • 00:08:23
    pro control node e e e e eh sua query
  • 00:08:27
    vai ser distribuída nos back end nodes
  • 00:08:29
    ele vai escalar e diminuir
  • 00:08:31
    eh automaticamente vai ler o dado dentro
  • 00:08:35
    do storage e vai devolver o dado pro
  • 00:08:36
    usuário no no dedicated cle Pool já é um
  • 00:08:40
    pouquinho mais diferente você não escala
  • 00:08:42
    e diminui automaticamente você tem um
  • 00:08:45
    único size né E esse único size era um
  • 00:08:48
    problema do outc então se você
  • 00:08:50
    precisasse escalar sua computação que
  • 00:08:52
    era dedicada você não conseguia você
  • 00:08:55
    tinha que Pausar a sua
  • 00:08:56
    informação pausar o seu DW perder todas
  • 00:08:59
    as queries que estavam rolando ali né
  • 00:09:01
    para parar todas as queries e escalar
  • 00:09:03
    pro tamanho que você quer de acordo com
  • 00:09:05
    com o seu processamento né Então
  • 00:09:07
    percebam galera a gente tem um meio que
  • 00:09:09
    um tradeoff aí entre essas duas
  • 00:09:10
    tecnologias né Esse foi um dos motivos
  • 00:09:14
    no qual a Microsoft fez um big upgrade
  • 00:09:17
    no Microsoft Fabric né lembrando
  • 00:09:19
    Microsoft Fabric não atualizou só essas
  • 00:09:21
    duas soluções atualizou todo o
  • 00:09:23
    ecossistema de Big Data da Microsoft
  • 00:09:26
    para soluções mais modernas né então e
  • 00:09:28
    aí e a gente vai começar a falar um
  • 00:09:30
    pouquinho do Microsoft FB só quis fazer
  • 00:09:32
    um resumo bem rápido aqui eu espero que
  • 00:09:34
    vocês tenham entendido qualquer coisa
  • 00:09:36
    volta lá no meus vídeos lá no sinaps
  • 00:09:38
    analítica vocês vão ver tudo sobre esses
  • 00:09:40
    dois caras sensacionais funciona até
  • 00:09:42
    hoje e não vai deixar de existir até a
  • 00:09:45
    onde a Microsoft quiser de acordo com as
  • 00:09:46
    políticas dela tá não tem planos para
  • 00:09:49
    isso vamos avançar então aqui a gente
  • 00:09:51
    tem um cenário mais ah os últimos
  • 00:09:55
    cenários de workloads para esse tipo de
  • 00:09:58
    produto produto né que é o dedicated cle
  • 00:10:00
    Pool e o server cle Pool como vocês
  • 00:10:02
    podem perceber aqui galera a gente tem
  • 00:10:05
    os sistemas de origem a gente vai fazer
  • 00:10:07
    a carga para dentro do nosso Lake House
  • 00:10:09
    aqui a gente já tá falando de
  • 00:10:10
    arquiteturas mais modernas então eu
  • 00:10:12
    carrego o dado ali pra minha camada Roll
  • 00:10:15
    dado bruto eu processo ele utilizando o
  • 00:10:17
    sinaps Spark ou data Bricks de acordo
  • 00:10:20
    com a sua vontade tá eu enriqueço essa
  • 00:10:23
    informação e depois eu crio uma camada
  • 00:10:26
    de dados prontos de dados curados né uma
  • 00:10:28
    vez que dados estão aqui e aí vamos
  • 00:10:31
    vamos colocar aqui que a gente tá
  • 00:10:32
    utilizando o padrão Delta que já é um
  • 00:10:34
    padrão muito utilizado né muito
  • 00:10:36
    utilizado inclusive está dentro por
  • 00:10:39
    padrão dentro do febc né a gente tinha
  • 00:10:41
    dois approaches aqui na hora de ler os
  • 00:10:43
    dados utilizando o SQL eu poderia pegar
  • 00:10:45
    essa informação que está aqui dentro do
  • 00:10:47
    meu dado curado E carregar para dentro
  • 00:10:49
    do meu deic picop existem vários US
  • 00:10:52
    cases no mercado assim galera Mas qual
  • 00:10:55
    que é o ponto aqui interessante o ponto
  • 00:10:57
    é que eu tô duplicando dado então eu já
  • 00:10:59
    tenho uma camada de dados curados que
  • 00:11:01
    foram processados pelo Spark mas só que
  • 00:11:04
    eu não tô escrevendo direto no de de
  • 00:11:05
    picol por por conta de facilidades do
  • 00:11:08
    próprio do próprio Delta e tudo mais eu
  • 00:11:11
    eu duplico o dado dentro do dedicated
  • 00:11:14
    Para quê Para que as engines de consulta
  • 00:11:16
    como Power Bi e os usuários de negócio
  • 00:11:19
    consult esse cara em uma performance bem
  • 00:11:21
    mais rápida tá ou qual é o outro
  • 00:11:24
    approach que eu posso construir eu eu
  • 00:11:27
    crio uma camada de vir ação em cima
  • 00:11:30
    dessa camada curada E aí eu venho com o
  • 00:11:32
    meu seress crio tabelas aqui em cima do
  • 00:11:35
    meu Delta né lembrando o delta Vai
  • 00:11:37
    facilitar na performance do serverless
  • 00:11:40
    cpol mas ele não vai ser tão performante
  • 00:11:43
    quanto o dedicated cpol então percebam
  • 00:11:45
    aqui eu não duplico o dado né só que a
  • 00:11:48
    grande diferença é que aqui eu só estou
  • 00:11:51
    ah virtualizando a informação por
  • 00:11:54
    exemplo uma vez que eu escrevi o dado
  • 00:11:56
    para cá dentro da minha camada curada e
  • 00:11:57
    eu quero atualizar esse informação
  • 00:11:59
    dentro do dedicated CPU eu posso porque
  • 00:12:01
    ele é transacional no serverless não no
  • 00:12:04
    serverless eu preciso dropar a tabela e
  • 00:12:06
    recriar de novo apontando para os novos
  • 00:12:07
    dados tá então cara a gente tem um
  • 00:12:10
    tradeoff aqui beleza e aí a gente vai
  • 00:12:12
    pra próxima esfera Microsoft Fabric do
  • 00:12:15
    Microsoft Fabric vamos falar específico
  • 00:12:18
    do do cnaps zware house uma evolução das
  • 00:12:21
    arquiteturas anteriores que a gente tem
  • 00:12:23
    é o mesmo produto Sydney não é diferente
  • 00:12:26
    legal então eu trago esse slide aqui
  • 00:12:29
    basicamente para falar que ele é a nova
  • 00:12:31
    o FAB que é a nova geração de data e
  • 00:12:33
    Analytics Então a gente tem tudo tudo
  • 00:12:35
    que a gente precisa para para fechar uma
  • 00:12:40
    solução completa de Analytics né e aqui
  • 00:12:42
    eu tô falando especificamente de de date
  • 00:12:45
    Warehouse aí eu vou ter CCD pro date
  • 00:12:47
    Warehouse eu vou ter um tipo só de
  • 00:12:49
    formato eu vou ter governança eu vou ter
  • 00:12:52
    segurança eu vou ter armazenamento de
  • 00:12:54
    dados Então galera é uma plataforma
  • 00:12:56
    completa que vai trabalhar em conjunto
  • 00:12:58
    beleza mas eu trouxe esse slides por quê
  • 00:13:01
    Porque no Microsoft Fabric O que que a
  • 00:13:04
    gente traz pro data Warehouse também uma
  • 00:13:06
    capacidade Universal então em todo o
  • 00:13:10
    Microsoft fbrica a gente tem um tipo de
  • 00:13:12
    computação só máquinas
  • 00:13:15
    rodando máquinas rodando ali por debaixo
  • 00:13:18
    dos panos para executar todos os nossos
  • 00:13:20
    processamentos Diferentemente de quando
  • 00:13:23
    eu tinha o dedicated copol e quando eu
  • 00:13:25
    tinha o serpol quando eu tinha o
  • 00:13:27
    dedicated copol eu tinha um estrutura
  • 00:13:29
    física provisionada né eu precisava
  • 00:13:31
    dizer qual que é o tamanho que eu queria
  • 00:13:33
    e com o serverless pool essa essa
  • 00:13:35
    estrutura essa estrutura ela escalava e
  • 00:13:39
    diminuí automaticamente a gente perdia
  • 00:13:41
    um tempinho ali do War Map dos do
  • 00:13:43
    cluster e ele ele já era uma estrutura
  • 00:13:46
    sim seress mas ele tinha um arm map do
  • 00:13:49
    cluster agora não agora é diferente pro
  • 00:13:51
    deware House agora você rodou sua query
  • 00:13:54
    o dado já roda instantaneamente beleza
  • 00:13:57
    dois pontos principais aqui pro sinaps
  • 00:14:00
    deware House o primeiro ponto galera que
  • 00:14:02
    é o mais diferente de todos ele é o
  • 00:14:05
    primeiro sistema transacional de dware
  • 00:14:08
    house que está embarcando nativamente o
  • 00:14:11
    padrão aberto do Delta Lake Beleza então
  • 00:14:14
    lá no date Ware House lá no sinaps
  • 00:14:16
    analist O que que a gente tinha galera
  • 00:14:18
    Ah um um um um um tipo de armazenamento
  • 00:14:23
    nativo então se eu quisesse migrar os
  • 00:14:25
    meus o meu banco de dados Dent warehous
  • 00:14:27
    para outro local tinha que reescrever
  • 00:14:29
    meu código ou eu tinha que copiar todos
  • 00:14:31
    os dados para lá aqui não aqui a gente
  • 00:14:34
    escreve tudo em Delta Format e eu
  • 00:14:36
    beneficio outras engines de ler e aí eu
  • 00:14:40
    continuo tendo transações por quê Porque
  • 00:14:42
    o delta Format o delta Lake permite esse
  • 00:14:46
    tipo de transações Então a gente tem uma
  • 00:14:48
    camada de datare house em cima de uma
  • 00:14:51
    uma outra camada de de data Lake que é o
  • 00:14:54
    delta Lake beleza outros Pontos
  • 00:14:57
    importantes cara a gente não precisa
  • 00:14:58
    fazer fazer configuração não precisa
  • 00:15:00
    fazer nada de configuração tudo é auto
  • 00:15:03
    auto otimizado a gente não muda nenhuma
  • 00:15:05
    settings legal e a gente continua
  • 00:15:08
    trabalhando ali com SQL primeiro Pilar
  • 00:15:11
    tá E aí no segundo Pilar galera O que
  • 00:15:13
    que a gente faz na parte dos clusters a
  • 00:15:17
    gente remove aqueles clusters dedicados
  • 00:15:19
    que eu acabei de falar para vocês e a
  • 00:15:20
    gente traz tudo para uma estrutura
  • 00:15:22
    computacional celas né então eu não
  • 00:15:25
    tenho mais a computação física na
  • 00:15:27
    verdade a minha computação física ela é
  • 00:15:29
    Ela é assinalada ali pra minha query em
  • 00:15:32
    milissegundos Beleza ela vai escalar e
  • 00:15:34
    diminuir sem eu ter que ficar
  • 00:15:37
    provisionando máquinas por debaixo dos
  • 00:15:39
    panos Isso é uma tecnologia bem
  • 00:15:41
    interessante E aí isso também vai
  • 00:15:43
    impactar e na eficiência do meu produto
  • 00:15:46
    e também vai impactar no preço porque lá
  • 00:15:49
    atrás a gente tinha dois tipos de
  • 00:15:51
    cobrança a primeira cobrança era para a
  • 00:15:55
    primeira cobrança eraa pro dedicado que
  • 00:15:57
    ele tinha a sua especif idade ali para
  • 00:15:59
    tarifar e pro Serv que eu pagava por
  • 00:16:01
    query aqui não eu vou pagar pela
  • 00:16:03
    capacidade total do Microsoft Fabric e
  • 00:16:06
    isso é bem interessante beleza três
  • 00:16:09
    principais pontos aí ele tem que ser
  • 00:16:11
    simples ele tem que ser intuitivo pros
  • 00:16:13
    usuários ele tem que ser baseado em em
  • 00:16:17
    Lake centric né e ele tem que ser pronto
  • 00:16:21
    para um pro negócio uma plataforma
  • 00:16:22
    pronto pro negócio né E aí eu gosto de
  • 00:16:25
    de dar um Highlight dois pontos
  • 00:16:27
    importantes aqui o Prim primeiro ponto é
  • 00:16:29
    agora a gente consegue fazer virtualizar
  • 00:16:33
    outros dataware houses tá e a gente
  • 00:16:35
    consegue fazer cross quering Database no
  • 00:16:37
    mesmo workspace o que a gente não
  • 00:16:39
    conseguia fazer antes nem com serverless
  • 00:16:41
    e nem com dedicated s Pool tá e o outro
  • 00:16:44
    ponto mais interessante é que ele é
  • 00:16:46
    totalmente integrado com a com com o
  • 00:16:49
    semantic layer da do Power bi legal
  • 00:16:53
    então esse é um ponto muito importante
  • 00:16:55
    já vou mostrar para vocês na demo legal
  • 00:16:57
    quando eu falei de leake centro que
  • 00:16:59
    legal ele já está eh trabalhando com o
  • 00:17:02
    formato Delta eu não preciso fazer
  • 00:17:04
    ajustes paraa performance a gente vai
  • 00:17:06
    falar um pouquinho mais disso e eu tenho
  • 00:17:08
    uma fácil recuperação fácil
  • 00:17:10
    gerenciamento dos dados ali através de
  • 00:17:12
    diversas features que eu vou entrando em
  • 00:17:15
    detalhes ao longo do tempo aqui com
  • 00:17:16
    vocês beleza end to end solução uma
  • 00:17:20
    solução fim a fim performance
  • 00:17:22
    visibilidade de tudo governança né
  • 00:17:25
    nativamente dentro desse cara e
  • 00:17:27
    segurança também por padrão Beleza então
  • 00:17:30
    avançando aqui galera eu gosto dessa
  • 00:17:32
    imagem tá essa imagem tá lá na
  • 00:17:34
    documentação da da da do date Ware
  • 00:17:37
    housee tá Então como que funciona a a
  • 00:17:40
    data process Engine percebam que ele
  • 00:17:43
    ainda utiliza as mesmas características
  • 00:17:46
    que a computação seress utilizava lá
  • 00:17:48
    atrás só que ele tem alguns ajustes
  • 00:17:50
    internos vários ajustes internos Para
  • 00:17:53
    quê Para que eu continue utilizando
  • 00:17:55
    computação servas mas eu tenha a
  • 00:17:57
    capacidade de ler e escrever dados e de
  • 00:18:00
    uma maneira muito rápido só que agora a
  • 00:18:02
    gente tem a diferença eu escrevo em
  • 00:18:05
    Delta né uma vez que eu mandei o meu
  • 00:18:07
    insert dentro do meu control node ele
  • 00:18:10
    vai devolver ali pro pro backend node na
  • 00:18:13
    hora que eu escrever o meus dados dentro
  • 00:18:15
    do Lake eu vou escrever a partir do de
  • 00:18:17
    Delta né e assim a leitura também eu
  • 00:18:20
    leio os dados direto por Delta quando eu
  • 00:18:23
    venho paraa minha Engine ali pra Engine
  • 00:18:25
    de de backend de processamento eu vou
  • 00:18:28
    ler essa eu vou fazer o translate pro
  • 00:18:30
    SQL né e vou retornar essa informação
  • 00:18:33
    pro usuário lembrando galera
  • 00:18:35
    eh essa Engine ela é por padrão
  • 00:18:38
    construída em cima do query optimizing
  • 00:18:40
    do SQL server beleza e a gente tá
  • 00:18:43
    utilizando arquitetura de processamento
  • 00:18:45
    que é o distributed query processing o
  • 00:18:47
    mesmo que o sevel utilizava lá atrás
  • 00:18:50
    Então a gente tem uma evolução aqui bem
  • 00:18:53
    bacana bem diferente por debaixo dos
  • 00:18:55
    panos a gente tem muitas coisas legais
  • 00:18:57
    questão de Cash questão de colum Store
  • 00:19:00
    index que é não é muito aberto pro pro
  • 00:19:04
    pros clientes mas é como a Engine
  • 00:19:06
    funciona por debaixo dos panos legal
  • 00:19:09
    então Quais são as opções de ingestão
  • 00:19:11
    então uma vez que eu tenho o meu Dee
  • 00:19:12
    Warehouse eu preciso colocar a
  • 00:19:13
    informação lá dentro Para quê Para que
  • 00:19:15
    eu comece a construir as minhas tabelas
  • 00:19:18
    as minhas dimensões as minhas Fatos e aí
  • 00:19:21
    eu modele o meu workload beleza data
  • 00:19:25
    pipelines vamos falar do do do data
  • 00:19:28
    Factory mais paraa frente nós temos o
  • 00:19:30
    data Flow que a gente consegue carregar
  • 00:19:32
    dentro para dados para dentro do da
  • 00:19:33
    Warehouse também dataflow Gentil solução
  • 00:19:36
    Bem bacana cop Statement Aquela aquele
  • 00:19:40
    aquele tsql basicão que a gente manda o
  • 00:19:43
    dado para dentro do SQL bem Legal
  • 00:19:45
    crossware House ingestion uma feature
  • 00:19:48
    que eu acho muito muito bacana através
  • 00:19:51
    do tsql né então eu posso utilizar o
  • 00:19:53
    insert select select in ou Create table
  • 00:19:56
    é select lembrando galera eu só posso
  • 00:19:59
    consultar dois date warehouses dentro do
  • 00:20:02
    mesmo workspace eu não consigo criar um
  • 00:20:05
    link de conecção com Warehouse em outro
  • 00:20:07
    local tá ponto importante E interessante
  • 00:20:10
    para que vocês entendam aqui e aí eu
  • 00:20:12
    trago um ponto interessante aqui que
  • 00:20:14
    você que eu quero que vocês saibam
  • 00:20:16
    Independente de como você vai fazer em
  • 00:20:18
    gestão dentro do seu dware House com
  • 00:20:21
    qualquer uma dessas informações por
  • 00:20:23
    padrão todos os arquivos parques que são
  • 00:20:26
    produzidos pela pela pela ingestão ele
  • 00:20:29
    vai ser otimizado pelo um carinha
  • 00:20:31
    chamado vorder right optimization Beleza
  • 00:20:35
    então vou falar do vord um pouquinho
  • 00:20:37
    mais pra frente é uma feature que veio
  • 00:20:39
    do Spark e pelo simples fato dela
  • 00:20:41
    trabalhar com Delta tudo tudo
  • 00:20:44
    necessariamente tudo que você faz aqui
  • 00:20:46
    dentro do do deware house toda ingestão
  • 00:20:50
    de dados e leitura também porque eles se
  • 00:20:52
    beneficia da Leitura o vorder tá rodando
  • 00:20:54
    ali por debaixo dos P
  • 00:20:57
    legal forma assim toda vez que eu rodar
  • 00:21:00
    uma query a primeira vez que eu rodar
  • 00:21:01
    uma query no meu deware House a gente
  • 00:21:03
    vai ter ali o que a gente chama de
  • 00:21:05
    execução fria né
  • 00:21:06
    Eh eu vou ler ler os dados e depois eu
  • 00:21:10
    vou carregar ele paraa minha memória
  • 00:21:11
    então pode ser que eu perca um tempo mas
  • 00:21:13
    já na segunda vez que eu for carregar os
  • 00:21:16
    dados para dentro da minha memória esses
  • 00:21:18
    dados já vão ser eh eh comprimidos num
  • 00:21:22
    formato colunar todo mundo sabe que o
  • 00:21:24
    formato colunar é muito bom paraa
  • 00:21:26
    leitura de informações depende dependo
  • 00:21:28
    do tamanho da da dos meus dados eu vou
  • 00:21:30
    também fazer a serialização pro disco
  • 00:21:33
    para o SSD dentro dos compute noes Legal
  • 00:21:36
    então se eu tenho uma consulta rápida eu
  • 00:21:39
    jogo ela pra memória que é uma
  • 00:21:40
    quantidade quantidade de dados pequena
  • 00:21:43
    eu simplesmente jogo ela pra memória e
  • 00:21:44
    retorno pro usuário quando eu tenho uma
  • 00:21:47
    uma uma quantidade de dados maior eu
  • 00:21:49
    faço a serialização entre o disco e o
  • 00:21:52
    Cash beleza estatísticas galera
  • 00:21:55
    interessantíssimo Nós temos dois tipos
  • 00:21:57
    de estat estatísticas estatísticas
  • 00:21:59
    definidas ali pelos usuários e temos
  • 00:22:01
    também estatísticas automáticas né a
  • 00:22:03
    nível de query primeiramente falando de
  • 00:22:06
    estatísticas definidas pelo usuário
  • 00:22:09
    essas estatísticas são manual e elas são
  • 00:22:11
    limitadas por uma única coluna beleza
  • 00:22:14
    nas estatísticas automáticas galera
  • 00:22:17
    Interessante não preciso rodar
  • 00:22:18
    manutenção de estatística mais percebam
  • 00:22:20
    um tanto de coisa que a gente vai
  • 00:22:22
    mudando se você já é um conhecedor das
  • 00:22:24
    outras das outras características tá
  • 00:22:26
    estatísticas automáticas
  • 00:22:28
    toda vez que eu criar a tabela ele vai
  • 00:22:31
    criar a cardinalidade da minha tabela Eu
  • 00:22:34
    tenho um histograma Eu tenho um
  • 00:22:36
    histograma ali criado por cada coluna
  • 00:22:38
    então toda vez que eu
  • 00:22:40
    Eh quero fazer um filtro de uma query
  • 00:22:43
    essa e eu vou captar a a quantidade de
  • 00:22:47
    informações que eu tenho ali daquela
  • 00:22:49
    determinada coluna o tamanho da de
  • 00:22:51
    quantidade de linhas que eu tenho
  • 00:22:52
    daquela coluna Para quê Para que eu
  • 00:22:54
    sempre retorne isso pro usuário isso é
  • 00:22:56
    sempre atualizado a nível de de query ou
  • 00:22:58
    seja todas as vezes que eu tiver
  • 00:23:01
    ah rodar uma query do meu data Lake no
  • 00:23:05
    meu no meu dat Warehouse as estatísticas
  • 00:23:07
    vão ser atualizadas e para o bom
  • 00:23:09
    conhecedor de SQL e sabe que
  • 00:23:11
    estatísticas é basicamente a maneira
  • 00:23:13
    mais fácil você entender a quantidade de
  • 00:23:15
    informação que você tem tá ajuda no no
  • 00:23:18
    no plano de execução das queries e
  • 00:23:20
    várias outras coisas tá E aí por fim
  • 00:23:22
    esqueci de falar que
  • 00:23:24
    ah a gente tem um tipo de estatística
  • 00:23:26
    também para o o tamanho de algumas
  • 00:23:29
    colunas específicas vaixar tá precisa
  • 00:23:31
    saber a quantidade de linhas e o tamanho
  • 00:23:34
    da coluna que a gente tem ali tudo isso
  • 00:23:35
    vai ser criado automaticamente depois eu
  • 00:23:38
    faço uma sessão especificamente de
  • 00:23:40
    estatísticas porque estatísticas
  • 00:23:42
    estatísticas é o coração do SQL
  • 00:23:45
    legal gerenciamento de workload Olha
  • 00:23:49
    isso aqui é uma feature galera que eu
  • 00:23:51
    acho sensacional basicamente você vai
  • 00:23:55
    dividir o seu P em dois pedaços tudo que
  • 00:23:57
    for select né ele vai para uma parte do
  • 00:24:01
    cluster por debaixo dos planos e tudo
  • 00:24:03
    que for em gestão ele vai para uma outra
  • 00:24:05
    parte do custer por debaixo dos panos
  • 00:24:07
    lembrando isso aqui tá documentado
  • 00:24:09
    também tá galera não é nada NDA aqui tá
  • 00:24:12
    então Esso aqui é uma feature muito
  • 00:24:14
    importante para quê para isolamento para
  • 00:24:17
    isolamento de performance a gente sabe
  • 00:24:19
    que a gente mexia bastante em isolamento
  • 00:24:21
    lá no dedicated copu era um parto a
  • 00:24:24
    gente ficar configurando ali tudo na mão
  • 00:24:26
    workload ressource Class aqui não galera
  • 00:24:30
    tudo isso aqui vai ser distribuído e e e
  • 00:24:33
    de acordo com a sua demanda se minhas
  • 00:24:35
    queries estão estão alas elas vão ser
  • 00:24:37
    distribuídas na parte de query se a
  • 00:24:39
    minha ingestão tá alta ela vai ser
  • 00:24:41
    distribuído na parte de digestão e a
  • 00:24:43
    gente não vai conflitar isso aqui é
  • 00:24:45
    muito mas muito interessante também
  • 00:24:47
    depois falo mais um pouquinho desses
  • 00:24:48
    caras para vocês a ideia aqui pessoal é
  • 00:24:51
    basicamente eu fazer um resumão aqui
  • 00:24:53
    para vocês né um resumão de de tudo e
  • 00:24:56
    depois a gente desce de Deep diive nas
  • 00:24:58
    features beleza
  • 00:25:00
    segurança segurança a nível de workspace
  • 00:25:03
    nós temos né Lembrando que agora o
  • 00:25:05
    Storage vai prover pra gente
  • 00:25:07
    possibilidade de segurança então eu
  • 00:25:09
    consigo eh dar permissionamento a nível
  • 00:25:11
    de workspace depois eu vou descendo pros
  • 00:25:14
    itens E aí quando eu falo item eu tô
  • 00:25:16
    falando do date Warehouse do synaps date
  • 00:25:18
    Warehouse né então dentro do date
  • 00:25:20
    Warehouse eu consigo compartilhar esse
  • 00:25:21
    cara eu consigo dar permissionamento a
  • 00:25:24
    nível granular a nível de usuário ali
  • 00:25:26
    nível de objeto né ah h level Security
  • 00:25:30
    colum level Security D dynamic dat mask
  • 00:25:33
    são features que a gente utiliza aí pra
  • 00:25:36
    parte mais de segurança né pra parte
  • 00:25:37
    mais de compli e tudo mais e um ponto
  • 00:25:40
    muito interessante é que a gente tem
  • 00:25:42
    auditoria Bea in tem uma documentação
  • 00:25:45
    bem legal depois a gente vai eu vou
  • 00:25:47
    falar de todos esses caras separado tá
  • 00:25:50
    soluç eh ferramentas que a gente usa o
  • 00:25:52
    bom e velho ssms né SQL server
  • 00:25:56
    Management Studio Azur data Studio quer
  • 00:25:59
    editor do Microsoft Fabric qualquer
  • 00:26:02
    solução que se conecte a um cliente skl
  • 00:26:04
    server qualquer cliente SQL serve né ou
  • 00:26:07
    biblioteca Python qualquer coisa que se
  • 00:26:09
    conecte no protocolo TDS tá e qualquer
  • 00:26:13
    cliente também que se conecte de parque
  • 00:26:16
    e
  • 00:26:17
    eh para bibliotecas de Delta Format tá
  • 00:26:20
    um exemplo é é o Storage g endp e o
  • 00:26:24
    próprio Storage do o próprio de point do
  • 00:26:28
    do One Lake Beleza então essas são as
  • 00:26:31
    soluções que a gente tem ferramentas
  • 00:26:33
    legal
  • 00:26:34
    ah vamos pro próximo monitoramento gosto
  • 00:26:39
    bastante de falar monitoramento percebam
  • 00:26:41
    que eu tô arrastando meu rosto aqui pro
  • 00:26:43
    lado só para não só para não atrapalhar
  • 00:26:46
    na visualização de vocês monitoramento
  • 00:26:48
    gosto bastante boas e velhas dmvs né
  • 00:26:52
    então do lado esquerdo se eu quiser
  • 00:26:54
    monitorar a conexão quem tá conectado
  • 00:26:57
    sessão eu consigo continuar utilizando
  • 00:26:59
    as mesmas dmvs que a gente utilizava
  • 00:27:01
    anteriormente né exec sessions eec
  • 00:27:08
    requests
  • 00:27:10
    connections várias dvs que a gente
  • 00:27:12
    utilizava anteriormente né então a gente
  • 00:27:14
    consegue ainda matar alguma sessão que
  • 00:27:16
    esteja demorando alguma coisa nesse tipo
  • 00:27:18
    tá ponto muito interessante agora nós
  • 00:27:22
    temos por padrão be in dentro do cluster
  • 00:27:26
    e query ins sites Aonde eu consigo ver
  • 00:27:29
    Quais qual o histórico de execução das
  • 00:27:31
    minhas queries Quais são as queries que
  • 00:27:33
    estão mais rodando posso criar um
  • 00:27:34
    dashboard em cima disso Quais são as
  • 00:27:36
    queries que estão demorando mais tempo
  • 00:27:38
    por para que para que eu possa otimizar
  • 00:27:40
    a query né porque lembrando a query não
  • 00:27:42
    se otimiza sozinha Apesar de que o o skl
  • 00:27:46
    server tenha toda essa característica a
  • 00:27:48
    query não vai se otimizar sozinha Beleza
  • 00:27:51
    então por fim a gente tem aí também o
  • 00:27:53
    monitoramento de capacidade né então ele
  • 00:27:56
    é um software um app que você instala
  • 00:27:58
    dentro do Power Bi você consegue
  • 00:28:01
    monitorar toda a capacidade do date
  • 00:28:03
    Warehouse então É bem interessante o que
  • 00:28:05
    que tá sendo consumido O que que tá tá
  • 00:28:08
    deixando de ser consumido é bem legal tá
  • 00:28:10
    depois também vou falar especificamente
  • 00:28:12
    desse cara e finalmente dentro do
  • 00:28:15
    Microsoft fap que nós temos o Hub de
  • 00:28:17
    monitoramento mas ainda não está
  • 00:28:19
    disponível pro pro sinaps date Warehouse
  • 00:28:22
    tá então muito em breve eles devem
  • 00:28:25
    soltar alguma coisa eu não sei Qual é a
  • 00:28:27
    previsão beleza mas a gente já tem todas
  • 00:28:30
    essas ferramentas aqui que a gente
  • 00:28:31
    consegue monitorar o nosso DW né Porque
  • 00:28:34
    por mais que ah ele se autotune a gente
  • 00:28:38
    não consegue prever queries ainda ruins
  • 00:28:43
    né Beleza então vamos aqui arquitetura
  • 00:28:47
    end to end quando eu venho falar de date
  • 00:28:49
    Warehouse né ISO Aqui também tá
  • 00:28:50
    documentado nesse link aí como vocês
  • 00:28:52
    podem ver sempre que eu sempre que eu
  • 00:28:54
    tenho a minha data S Independente se é
  • 00:28:56
    Dad estruturado não estruturados eu
  • 00:28:58
    posso carregar eles para dentro do meu
  • 00:29:00
    Death Warehouse com todos aqueles tipos
  • 00:29:02
    de de de ingestão que eu falei
  • 00:29:04
    anteriormente né e dentro do meu datare
  • 00:29:07
    House eu vou transformar as minhas
  • 00:29:08
    informações por meio de procedures né
  • 00:29:10
    então o Fabric ele te dá a possibilidade
  • 00:29:13
    de trabalhar com a melhor solução que
  • 00:29:16
    você quiser Beleza então no caso do
  • 00:29:18
    dware house a gente vai trabalhar com
  • 00:29:20
    tsql Então como que a gente processa
  • 00:29:22
    dados com tsql Storage procedures para
  • 00:29:25
    que para que eu construa as minhas as
  • 00:29:27
    dimensões construo as minhas fatas e eu
  • 00:29:29
    entrego paraa minha camada de de
  • 00:29:32
    visualização né ou a própria camada de
  • 00:29:34
    consultas adck ali no próprio dhouse né
  • 00:29:37
    lembrando galera tudo que eu escrever
  • 00:29:39
    dentro do Warehouse ele vai ser
  • 00:29:42
    automaticamente eh importado para dentro
  • 00:29:45
    do nosso modelo semântico Para quê Para
  • 00:29:48
    que o Power bi conecte direto no dado
  • 00:29:50
    que está vendo no formato de Delta Lake
  • 00:29:53
    e utiliza feature Direct Lake dentro
  • 00:29:55
    desse dado então isso aqui é é
  • 00:29:57
    sensacional não precisa usar ah Import
  • 00:29:59
    ou ah usa o Direct query não galera isso
  • 00:30:02
    aqui é é diferente Beleza deixa eu ver o
  • 00:30:05
    que que eu tenho mais aqui para falar
  • 00:30:07
    para vocês no futuro isso aqui tá na
  • 00:30:11
    documentação tá galera eh vai ter vai
  • 00:30:14
    ter opções de migração para o dedicated
  • 00:30:16
    picle pool tá isso aqui foi apresentado
  • 00:30:18
    no no último Microsoft build beleza e se
  • 00:30:22
    você quer saber o que que tem de novo
  • 00:30:25
    você pode clicar dentro dessa
  • 00:30:26
    documentação aqui ó o What is the new in
  • 00:30:30
    planet for CS warehousing Microsoft
  • 00:30:33
    Fabric tem algumas coisinhas bem legais
  • 00:30:35
    lá tá
  • 00:30:37
    ã avançando aqui tem alguns recursos
  • 00:30:41
    online mais uma vez falar para vocês
  • 00:30:43
    galera eh se você é uma pessoa curiosa
  • 00:30:46
    lá dentro do Microsoft fabc tem diversos
  • 00:30:50
    links então separei alguns aqui tá Vou
  • 00:30:53
    compartilhar esses slides com vocês num
  • 00:30:55
    link que eu vou deixar aqui no vídeo
  • 00:30:57
    vídeo Beleza então se vocês quiserem eh
  • 00:31:01
    pegar esses slides para vocês foi um
  • 00:31:03
    slide que eu preparei aqui para algumas
  • 00:31:04
    apresentações relacionadas a isso né
  • 00:31:07
    então vamos pra demo né Não adianta eu
  • 00:31:09
    falar aqui 30 minutos vou fazer 10
  • 00:31:11
    minutinhos de demo aí para vocês só pra
  • 00:31:14
    gente não
  • 00:31:15
    eh não ficar sem ver o produto né Então
  • 00:31:19
    deixa eu fechar isso aqui deixa eu abrir
  • 00:31:23
    aqui o meu sinaps deware House então tô
  • 00:31:27
    dentro aqui do meu Microsoft Fabric né
  • 00:31:29
    Ah assim como vocês podem ver deixa eu
  • 00:31:33
    botar meu rostinho para cá legal eu tô
  • 00:31:36
    aqui na minha parte de date Warehouse né
  • 00:31:39
    então ele já vai abrir essa essa telinha
  • 00:31:41
    aqui pra gente do date wareh posso criar
  • 00:31:44
    aqui posso usar um data um dataset de
  • 00:31:47
    exemplo posso criar um pipeliner Posso
  • 00:31:50
    trazer dados aqui utilizando dataflow
  • 00:31:53
    genu mas eu vou criar aqui um dataware
  • 00:31:55
    House bem simples beleza vou chamar esse
  • 00:31:58
    cara aqui de YouTube
  • 00:32:01
    ah
  • 00:32:03
    2024 data w House beleza data Ware House
  • 00:32:08
    legal
  • 00:32:10
    ã por algum motivo eu já tenho esse DW
  • 00:32:14
    aqui eu já sei o que que aconteceu
  • 00:32:16
    provavelmente eu não apaguei esse
  • 00:32:17
    carinha aqui deixa eu só fazer uma coisa
  • 00:32:21
    aqui me deem um
  • 00:32:25
    segundo vamos lá
  • 00:32:27
    ah
  • 00:32:29
    workspaces
  • 00:32:31
    ah deixa eu dar uma renderizada aqui na
  • 00:32:34
    tela porque eu acho que ele tá meio que
  • 00:32:37
    bugando deixa eu dar um refresh aqui na
  • 00:32:39
    tela vamos ver se ele vai reclamar legal
  • 00:32:42
    vou criar um novo dware House vou chamar
  • 00:32:46
    ele aqui de
  • 00:32:50
    YouTube 2024 data
  • 00:32:54
    Warehouse vou criar esse cara beleza
  • 00:32:57
    criou era só porque eu tava com a tela
  • 00:32:58
    aberta eu tava fazendo alguns testes
  • 00:33:00
    aqui antes de gravar esse vídeo E aí ele
  • 00:33:03
    meio que Manteve o Cash ali então é
  • 00:33:05
    sempre bom ISO que uma página Web né
  • 00:33:06
    galera então é sempre bom a gente dar o
  • 00:33:08
    refresh legal então olha só que
  • 00:33:10
    interessante tô criando aqui o meu data
  • 00:33:14
    Warehouse Lembrando que eu já tinha um
  • 00:33:15
    um data Lake House dentro deixa eu
  • 00:33:18
    enquanto ele cria aqui o meu data
  • 00:33:19
    Warehouse é muito rápido tá não demora
  • 00:33:21
    tá galera eu
  • 00:33:23
    vou eu vou voltar aqui deixa eu só fazer
  • 00:33:27
    uma coisa aqui que tá me
  • 00:33:32
    atrapalhando só fazer uma coisa aqui que
  • 00:33:34
    está me atrapalhando Ah legal tá
  • 00:33:37
    atrapalhando minha visualização percebam
  • 00:33:39
    ele já criou o deware house rapidão tá
  • 00:33:42
    Não precisei provisionar Não precisei
  • 00:33:43
    dizer qual o tamanho do cluster que eu
  • 00:33:45
    quero eu não digo nada eu só digo qual o
  • 00:33:47
    date Warehouse que eu quero e aí ele já
  • 00:33:49
    traz aqui pra gente ó os esquemas a
  • 00:33:51
    parte de segurança a parte de queries E
  • 00:33:54
    aí eu vou criar o meu Day House aqui a
  • 00:33:56
    parte de tsql Beleza então como que eu
  • 00:34:00
    vou criar esse cara vou criar a partir
  • 00:34:01
    de tsql então ele já vai abrir aqui para
  • 00:34:04
    mim ele já abre a opçãoincorreta
  • 00:34:27
    da Microsoft PR de vendas e tudo mais
  • 00:34:30
    vou criar duas tabelinhas aqui a minha
  • 00:34:32
    tabela de Fato e a minha tabela dimensão
  • 00:34:37
    beleza dimensão de cidades tenho duas
  • 00:34:39
    tabelas dentro do meu date Ware housee
  • 00:34:41
    tô criando esse cara
  • 00:34:43
    ah beleza deixa eu ver aqui do que que
  • 00:34:46
    ele tá reclamando o o esima deve estar
  • 00:34:50
    tal tal tal Ah beleza deixa eu só criar
  • 00:34:52
    meu esquema
  • 00:34:54
    aqui deixa eu comentar esse código e
  • 00:34:59
    deixa eu rodar todas as minha as minhas
  • 00:35:03
    duas tabelas
  • 00:35:05
    novamente legal rodou ele já vai
  • 00:35:08
    renderizar o meu esquema aqui eu criei
  • 00:35:09
    um esquema chamado WWI eu já tenho duas
  • 00:35:12
    tabelinhas aqui pra gente começar a
  • 00:35:14
    nossa brincadeira né Se eu der um
  • 00:35:17
    refresh vamos lá ele deve est
  • 00:35:19
    atualizando os metadados por debaixo dos
  • 00:35:21
    panos Beleza já atualizou então ele
  • 00:35:23
    mostra aquela mensagem de erro ali só
  • 00:35:25
    porque ele não deu tempo de Render a
  • 00:35:27
    tela aqui tá galera porque eu já cliquei
  • 00:35:28
    muito rápido Beleza então tá aqui ó
  • 00:35:30
    minhas duas tabelas elas estão vazias e
  • 00:35:33
    eu posso simplesmente vir aqui na minha
  • 00:35:35
    query galera uma feature interessante e
  • 00:35:37
    renomear posso chamar esse cara aqui de
  • 00:35:39
    Create table por exemplo Create table
  • 00:35:43
    vamos lá que eu não quero perder muito
  • 00:35:45
    tempo aqui com vocês não beleza uma vez
  • 00:35:47
    que minhas tabelas estão criadas que que
  • 00:35:49
    eu preciso fazer galera preciso Popular
  • 00:35:51
    essas tabelas Então posso Popular elas
  • 00:35:53
    de qualquer outras maneira de qualquer
  • 00:35:55
    maneira utilizando data inj
  • 00:35:58
    aqui eu vou utizar o
  • 00:36:00
    c tabela tal pegando diretamente de um
  • 00:36:04
    Storage que está remoto aí na internet
  • 00:36:07
    Beleza vou executar aqui minha
  • 00:36:10
    query ele vai copiar os dados para cá
  • 00:36:13
    para dentro da minha
  • 00:36:25
    tabela muito beleza tá copiando aí
  • 00:36:30
    copiando a as nossas tabelas né tabela
  • 00:36:34
    fato e tabela dimensão percebam aqui
  • 00:36:37
    galera que a gente tem um um um um uma
  • 00:36:42
    interface gráfica bem user friendly né
  • 00:36:44
    onde eu tenho minhas queries onde eu
  • 00:36:46
    tenho uma parte de segurança como se
  • 00:36:48
    fosse um ssms né então e ele tá
  • 00:36:53
    demorando um pouquinho aqui para inserir
  • 00:36:54
    todos esses dados não são não é muita
  • 00:36:56
    informação provavelmente esse Storage
  • 00:36:58
    deve est separado aí do do meu workspace
  • 00:37:02
    que está aqui no Brasil beleza mas já já
  • 00:37:04
    eles termina não creio que deve passar
  • 00:37:06
    de mais de um minuto aí beleza enquanto
  • 00:37:10
    isso que que eu vou fazer uma vez que eu
  • 00:37:12
    tiver as minhas tabelas criadas galera o
  • 00:37:15
    que que eu posso fazer eu Posso
  • 00:37:17
    processar a informação agregar os dados
  • 00:37:20
    eu posso trabalhar o processamento dessa
  • 00:37:22
    informação eu já tenho duas tabelas
  • 00:37:24
    criadas o que que eu vou fazer eu vou
  • 00:37:26
    criar um história de procedur aqui para
  • 00:37:28
    fazer um processamento simples pra gente
  • 00:37:31
    então eu quero criar uma tabela agregada
  • 00:37:34
    ah de vendas por cidade basicamente eu
  • 00:37:38
    vou criar uma tabela vendas por cidade
  • 00:37:41
    né bem simples e depois vou fazer um
  • 00:37:44
    insert nessa tabela fazendo um um um
  • 00:37:47
    join entre a minha Fato né A minha fato
  • 00:37:51
    de vendas e a minha dimensão de cidade
  • 00:37:54
    agrupada e tal agrupado por por cidade
  • 00:37:57
    agrupado por província né então tô
  • 00:38:00
    criando essa procedure Lembrando aqui
  • 00:38:02
    Opa deixa eu ver o que que eu cliquei de
  • 00:38:04
    errado aqui beleza só porque eu tava
  • 00:38:06
    clicado ali em cima do em cima do
  • 00:38:10
    a do artefato ali então beleza criei
  • 00:38:13
    minha procedur legal
  • 00:38:16
    ã deixa eu dar um refresh aqui na parte
  • 00:38:19
    de Storage proceder lembrando isso aqui
  • 00:38:21
    é um date Warehouse normal consigo criar
  • 00:38:23
    View consigo criar procedes consigo
  • 00:38:25
    criar usuários consigo fazer várias
  • 00:38:27
    coisas aqui dentro tá então ó minha
  • 00:38:29
    procedur já está aqui vamos ver se ele
  • 00:38:32
    terminou deixa eu deixa eu renomear esse
  • 00:38:34
    cara aqui
  • 00:38:38
    eh Create
  • 00:38:41
    a Grey Gate proceder Vou Chamar esse
  • 00:38:46
    cara assim a Grey Gate legal e deixa eu
  • 00:38:50
    voltar aqui paraa minha query e ele
  • 00:38:51
    finalizou a carga ó Demorou 1 minuto aí
  • 00:38:54
    e 51 segundos quase 2 minutos para fazer
  • 00:38:57
    a carga de dados aqui Provavelmente
  • 00:38:59
    porque o dado Tá longe do meu Storage
  • 00:39:01
    Beleza vou renomear esse cara aqui
  • 00:39:02
    também já para para eu manter o
  • 00:39:04
    histórico das minhas queries Vou Chamar
  • 00:39:06
    esse cara aqui
  • 00:39:08
    de data load E aí depois galera se vocês
  • 00:39:12
    quiserem esses scripts eu mando todos
  • 00:39:13
    eles para vocês Beleza então fiz aqui o
  • 00:39:16
    meu data load show de bola se eu clicar
  • 00:39:19
    aqui na minha tabela ele ele vai me
  • 00:39:22
    mostrar graficamente aqui vai renderizar
  • 00:39:24
    a tabela e vai me mostrar aqui as
  • 00:39:26
    informações estão dentro dessa tabela de
  • 00:39:28
    dimensão de cidade tá dimensões e fatos
  • 00:39:30
    date Ware housee e a gente tem aqui a
  • 00:39:33
    minha Fata Eu Posso rodar aqui um select
  • 00:39:36
    top eu posso fazer o clone dessa tabela
  • 00:39:38
    É bem interessante tá já e e e vou falar
  • 00:39:42
    um pouquinho de clone também aqui legal
  • 00:39:45
    então beleza galera eu tenho duas duas
  • 00:39:48
    tabelas o que que eu quero fazer galera
  • 00:39:51
    eu quero incluir uma informação externa
  • 00:39:54
    para que eu consiga processar junto com
  • 00:39:56
    com essas minhas duas tabelas então eu
  • 00:39:58
    quero buscar uma dimensão de clientes
  • 00:40:00
    que está onde tá dentro do Lake House
  • 00:40:04
    Deixa eu só fechar aqui aqui em cima a
  • 00:40:07
    gente tem um botão para que a gente
  • 00:40:08
    consiga adicionar os Day to house né
  • 00:40:10
    então uma vez que eu adiciono tudo que
  • 00:40:12
    tiver dentro do meu workspace ele vai
  • 00:40:14
    listar aqui para mim então lembra lá da
  • 00:40:16
    última aula onde a gente tem um um um
  • 00:40:19
    Lake House com algumas informações de
  • 00:40:22
    clientes Então vou selecionar esse cara
  • 00:40:24
    vou confirmar ess Essa é a feature que
  • 00:40:27
    faz com que a gente consiga fazer o
  • 00:40:29
    cross query dware House Beleza então Ó
  • 00:40:32
    que que ele fez aqui para mim mais para
  • 00:40:33
    baixo ele adicionou o meu outro Lake
  • 00:40:37
    house né E aí depois vou falar qual que
  • 00:40:39
    é a diferença entre dware House e Lake
  • 00:40:41
    House e ele tem aqui os os meus esquemas
  • 00:40:44
    ó Então dentro do meu esquema
  • 00:40:46
    debo eu tenho aqui a minha tabela de
  • 00:40:48
    clientes Agora eu quero fazer um um um
  • 00:40:50
    Cross join entre essas essas duas
  • 00:40:54
    databases então eu vou rodar um novo
  • 00:40:55
    script aqui eu já tenho basicamente um
  • 00:40:59
    script pronto aqui né deixa eu pegar
  • 00:41:03
    esse cara aonde o que eu consigo fazer
  • 00:41:05
    galera eu consigo fazer um select fazer
  • 00:41:09
    uma uma soma aqui na quantidade de
  • 00:41:11
    vendas né da minha tabela fato com o
  • 00:41:14
    join na minha dimensão de clientes então
  • 00:41:17
    basicamente o que que ele pega aqui ele
  • 00:41:18
    pega Qual que é o Lake House Qual que é
  • 00:41:21
    o esquema e qual que é o a tabela
  • 00:41:24
    destino Beleza vou agrupar aqui por por
  • 00:41:26
    item por descrição e por cliente beleza
  • 00:41:29
    rodei essa query lembrando falando de
  • 00:41:32
    performance galera ele tá rodando o Code
  • 00:41:34
    aqui por que que ele tá rodando code
  • 00:41:35
    porque é a primeira vez que eu tô
  • 00:41:37
    executando essa query por debaixo dos
  • 00:41:39
    panos as minhas estatísticas estão sendo
  • 00:41:42
    criadas e estão sendo executadas
  • 00:41:45
    lembrando eu tô agregando duas tabelas
  • 00:41:48
    estão em dware houses diferentes uma
  • 00:41:52
    está dentro do Lake House e a outra está
  • 00:41:54
    aqui dentro do meu deware House demorou
  • 00:41:56
    ali aproximadamente 25 segundos para me
  • 00:41:58
    retornar uma informação interessante
  • 00:42:00
    Primeira opção legal aqui a opção da
  • 00:42:02
    gente fazer o cross join e entre dware
  • 00:42:05
    houses e Lake House isso aqui é bem
  • 00:42:07
    interessante se eu rodar esse cara de
  • 00:42:09
    novo percebam 25 segundos Esse cara tem
  • 00:42:11
    que tá lá dentro da memória ele tem que
  • 00:42:13
    ele tem que devolver a informação muito
  • 00:42:15
    mais rápido 3 segundos segunda execução
  • 00:42:17
    foi pra memória uma quantidade de dados
  • 00:42:19
    pequeno ficou só em memória rodei de
  • 00:42:21
    novo vamos lá 3 segundos ele eu acho
  • 00:42:26
    acho que ele não consegue otimizar mais
  • 00:42:27
    do que isso não beleza 3 segundos boa
  • 00:42:31
    então galera uma vez que eu fiz isso em
  • 00:42:33
    vez como esse dado está lá no meu Lake
  • 00:42:36
    House eu posso querer utilizar aqui ele
  • 00:42:37
    dentro do meu dware house né então o que
  • 00:42:40
    que eu posso fazer antes de eu fazer
  • 00:42:42
    algo aqui eu vou só renomear esse cara
  • 00:42:44
    para cross query Cross data Warehouse
  • 00:42:48
    query beleza Cross data we House query
  • 00:42:55
    vocês me peçam depois essas queries vou
  • 00:42:57
    vou compartilhar todas elas com vocês e
  • 00:42:59
    aí por fim galera a última coisa que eu
  • 00:43:01
    queria mostrar aqui para vocês de
  • 00:43:02
    interessante é que legal o dado tá lá
  • 00:43:05
    dentro do Lake House como que eu trago
  • 00:43:07
    ele para cá porque o dware house eu tô
  • 00:43:10
    inserindo as informações dentro do do
  • 00:43:12
    meu dware house no Lake House a
  • 00:43:14
    informação fica só na camada de Lake
  • 00:43:16
    lembrando eu tô consultando uma tabela
  • 00:43:18
    que foi criada lá no Lake House Beleza
  • 00:43:21
    então eu quero que essa tabela faça
  • 00:43:23
    parte do meu datare House então o que
  • 00:43:25
    que eu posso fazer aqui galera eu posso
  • 00:43:27
    criar uma
  • 00:43:29
    tabela a partir de um select então eu
  • 00:43:32
    posso utilizar o comando que a gente
  • 00:43:33
    chama de setas Create table as select
  • 00:43:37
    então eu tô trazendo uma informação de
  • 00:43:39
    lá de dentro do meu Lake House para cá
  • 00:43:42
    para dentro da minha para cá para dentro
  • 00:43:44
    do meu dware House a YouTube 2024 Beleza
  • 00:43:48
    então setas é um comando bem rápido aí
  • 00:43:52
    para se executar Isso aqui é uma
  • 00:43:53
    dimensão que não é muito grande então
  • 00:43:55
    Basic eu tô tirando o dado do Lake House
  • 00:43:57
    e levando ele para dentro do meu deware
  • 00:43:59
    House Beleza então um outro ponto
  • 00:44:02
    interessante aqui que eu queria trazer
  • 00:44:04
    para vocês galera é sobre aquela aquela
  • 00:44:07
    Storage proced que eu criei né Deixa eu
  • 00:44:11
    só renomear esse cara vou chamar ele
  • 00:44:13
    aqui de setas vou renomear e vou criar a
  • 00:44:18
    última query aqui para quê para executar
  • 00:44:21
    aquela procedur que eu tinha criado né E
  • 00:44:23
    depois o que que eu posso fazer galera
  • 00:44:26
    isso aqui tudo com o data Factory tá E
  • 00:44:28
    aí eu posso mostrar isso aqui
  • 00:44:29
    automatizado para vocês posteriormente
  • 00:44:31
    quando a gente for falar de data Factory
  • 00:44:33
    na hora de for construir o nosso DW
  • 00:44:35
    então rodei aqui a minha proc ele vai
  • 00:44:38
    executar o meu select Popular a minha
  • 00:44:41
    tabela de de agregadas por por por
  • 00:44:44
    cidade né então ele tá rodando aí a
  • 00:44:48
    minha setas rodou também se eu voltar
  • 00:44:50
    para cá para dentro do meu dat Warehouse
  • 00:44:53
    a minha tabela já tá aqui ó beleza rodou
  • 00:44:57
    executou Se eu olhar aqui a minha
  • 00:45:00
    tabelinha que que ele fo que que ele fez
  • 00:45:02
    ele criou uma tabela mais e essa tabela
  • 00:45:05
    Mais qual que é é a minha tabela
  • 00:45:07
    agregada de vendas por cidade beleza
  • 00:45:10
    cliquei aqui dentro desse cara ele vai
  • 00:45:11
    me mostrar todo o histórico de vendas
  • 00:45:13
    por cidade Quem foi o cliente que que
  • 00:45:15
    vendeu mais qual foi a cidade na verdade
  • 00:45:18
    a venda por cidade não por cliente né
  • 00:45:20
    Qual foi a cidade que vendeu mais então
  • 00:45:23
    última coisa aqui galera acho que esse
  • 00:45:25
    vídeo já foi bem grande espero que vocês
  • 00:45:27
    tenham paciência que não dá para falar
  • 00:45:28
    tudo assim eh
  • 00:45:30
    eh sem ter uma sequência de de de de
  • 00:45:34
    pensamento uma sequência lógica né então
  • 00:45:37
    venho aqui no meu modelo então lembra
  • 00:45:39
    que eu falei para vocês tudo que eu
  • 00:45:41
    criar dentro do meu date Ware housee o
  • 00:45:43
    que que ele vai fazer ele vai jogar pro
  • 00:45:46
    meu modelo semântico Então dentro do
  • 00:45:48
    modelo semântico ele já separou aqui as
  • 00:45:50
    minhas dimensões ó dimensão de cidade de
  • 00:45:53
    cliente e eu tenho aqui a minha tabela
  • 00:45:56
    fato vou trazer esses caras para cá E aí
  • 00:45:59
    o que que eu posso fazer para facilitar
  • 00:46:00
    na minha modelagem eu posso pegar aqui a
  • 00:46:03
    minha chave da
  • 00:46:04
    cidade arrastar ela para cá para dentro
  • 00:46:07
    da dimensão de cidade e eu quero
  • 00:46:10
    utilizar a integridade referencial né
  • 00:46:12
    Isso é muito ótimo aí pra performance do
  • 00:46:15
    do nosso modelo né lembrando isso aqui
  • 00:46:17
    cai na prova de certificação beleza
  • 00:46:20
    galera várias coisas que eu falei aqui
  • 00:46:21
    cai na prova de certificação tá e eu
  • 00:46:23
    também vou pegar aqui a chave do cliente
  • 00:46:26
    para fazer
  • 00:46:28
    a o relacionamento com a minha tabela de
  • 00:46:32
    dimensões de clientes Beleza então fiz
  • 00:46:35
    aqui assumir uma integridade referencial
  • 00:46:37
    né Para quê Para facilitar na
  • 00:46:39
    performance e o último passo aqui galera
  • 00:46:42
    vai ser eu criar um report apontando
  • 00:46:45
    para esses dados do meu dware House
  • 00:46:47
    Beleza então vamos lá vou criar um
  • 00:46:50
    report bem rapidão aqui para vocês
  • 00:46:52
    galera Então vou pegar aqui a minha
  • 00:46:53
    tabela de fato você selecionar aqui qual
  • 00:46:57
    foi o lucro Cadê a minha a a meu tá aqui
  • 00:47:03
    lucro e eu quero saber qual foi o lucro
  • 00:47:05
    por por território Então vamos saber
  • 00:47:09
    aqui qual foi o lucro por
  • 00:47:11
    território legal outra coisa que eu
  • 00:47:14
    quero fazer aqui galera eu quero pegar
  • 00:47:17
    deixa eu trazer esse carinha para
  • 00:47:20
    cá deixa eu arrumar esse carinha aqui eu
  • 00:47:23
    não sou um cara de report Tá mas vou
  • 00:47:25
    trazer esse aqui para vocês que é bem
  • 00:47:26
    interessante Então eu quero trazer
  • 00:47:28
    também galera o meu
  • 00:47:32
    lucro
  • 00:47:34
    beleza por território e por província
  • 00:47:39
    excluindo as taxas legal olha lá que
  • 00:47:44
    interessante reporte esse aqui é o meu
  • 00:47:47
    lucro Total posso só reordenar esse cara
  • 00:47:50
    aqui para o
  • 00:47:51
    território beleza aí aqui ele vai me
  • 00:47:54
    mostrar o total e Qual foi o total
  • 00:47:56
    excluir nas taxas e por fim eu posso
  • 00:47:58
    criar um um um mapinha aqui bem
  • 00:48:02
    interessante para mostrar qual foi o meu
  • 00:48:05
    lucro deixa eu ver aqui cadê tal tal tal
  • 00:48:09
    o lucro por território Então vou pegar
  • 00:48:11
    pro província nos Estados Unidos né
  • 00:48:14
    então ele vai renderizar o mapa ali para
  • 00:48:17
    mim deixa eu ver se seesse não eu acho
  • 00:48:19
    que esse mapa aqui não tá legal deixa eu
  • 00:48:21
    pegar um outro tipo de mapa deixa eu
  • 00:48:23
    pegar esse tipo de mapa Ah esse aqui já
  • 00:48:25
    ficou mais interessante aqui pra gente
  • 00:48:26
    ter uma pra gente visualizar as
  • 00:48:29
    informações legal então criei o meu
  • 00:48:31
    report Vou salvar esse cara Vou Chamar
  • 00:48:34
    esse cara aqui de
  • 00:48:35
    Sales anális salvei essa informação
  • 00:48:39
    pronto galera minha solução fim a fim tá
  • 00:48:42
    aí esse dado está essa esse esse
  • 00:48:45
    dashboard está esse relatório está
  • 00:48:48
    consultando as informações que está
  • 00:48:50
    dentro do meu padrão Delta né E um ponto
  • 00:48:53
    interessante aqui galera deixa eu
  • 00:48:54
    mostrar aqui para vocês
  • 00:48:56
    vocês lembram lá do meu un Lake né então
  • 00:49:00
    eu tenho aqui o meu YouTube 2024 un Lake
  • 00:49:03
    data Explorer beleza tenho aqui o meu
  • 00:49:08
    YouTube eu tenho aqui o meu Lake House
  • 00:49:10
    deixa eu clicar aqui nesse cara e pedir
  • 00:49:12
    para ele
  • 00:49:14
    sincronizar vamos
  • 00:49:17
    lá sincron sincronizou já trouxe meu
  • 00:49:20
    deware
  • 00:49:22
    housee vamos lá tem aqui as minhas
  • 00:49:26
    tabelas e dentro das minhas tabelas no
  • 00:49:29
    esquema
  • 00:49:30
    WWI que que eu vou ter todas as minhas
  • 00:49:32
    tabelas com o arquivo Delta beleza e o e
  • 00:49:37
    o arquivo Parque aqui dentro também
  • 00:49:39
    legal então galera falei demais Esse
  • 00:49:41
    vídeo foi longo longo longo foi bem foi
  • 00:49:45
    bem longo espero que vocês tenham
  • 00:49:47
    gostado dier que eu dei um overview
  • 00:49:49
    Geral do Day to a house eu espero que
  • 00:49:51
    vocês estejam aqui até o final desse
  • 00:49:53
    vídeo né Espero que vocês tenham gostado
  • 00:49:56
    Ah vou começar a falar de cada features
  • 00:49:59
    separado Você viu que a gente eu dei um
  • 00:50:01
    overview bem geralzão então se gostou
  • 00:50:04
    galera solta o like aí e deixa nos
  • 00:50:07
    comentários aí tudo que vocês querem
  • 00:50:09
    saber sobre esse produto um produto
  • 00:50:11
    sensacional performance aqui vai ser eh
  • 00:50:15
    coisa de outro mundo vamos dizer assim
  • 00:50:17
    né porque a gente tem uma solução Bem
  • 00:50:20
    interessante para trabalhar com date
  • 00:50:21
    Warehouse dentro do Microsoft Fabric
  • 00:50:24
    legal deixa seu like se não é inscrito
  • 00:50:26
    se inscreve no canal e compartilha esse
  • 00:50:29
    vídeo aí com seus amigos galera muito em
  • 00:50:31
    breve a gente tá falando de mais coisas
  • 00:50:33
    aí do Microsoft Fabric Bacana Então
  • 00:50:36
    muito obrigado por estarem todos aqui
  • 00:50:38
    vejo vocês na próxima um abraço a todos
الوسوم
  • Data Warehousing
  • Microsoft Fabric
  • Synapse Analytics
  • Delta Lake
  • Computação Sem Servidor
  • Azure
  • SQL
  • Análise de Dados