Introdução ao Synapse Data Warehouse no Microsoft Fabric

00:50:42
https://www.youtube.com/watch?v=CT1tAS-_PMA

Resumen

TLDRO vídeo foca no Microsoft Fabric, especialmente na ferramenta Synapse Data Warehouse, uma evolução do Azure Synapse Analytics. Esta solução oferece uma plataforma de analytics completa, destacando-se pelo uso de computação sem servidor e suporte nativo ao formato de Delta Lake. A apresentação explora a diferença entre o "dedicated Pool", que é uma computação transacional dedicada, e o "serverless Pool", que permite leitura direta do data lake com alta flexibilidade na execução de consultas. O Microsoft Fabric traz avanços significativos em processamento de dados, como a possibilidade de anexar diretamente dados corporativos a ferramentas como Power BI, visando uma análise mais rápida e integrada. Além disso, destaca-se pela simplicidade na configuração e escalabilidade automática, sem a necessidade de ajustes manuais complexos. Todo o processamento é otimizado para leitura e gravação eficiente de grandes volumes de dados, promovendo segurança e governança robustas. A demonstração prática inclui criação e integração de tabelas, execução de queries e uma visão geral das funcionalidades aprimoradas para otimização de performance. As vantagens em termos de eficiência de custos e integração com o ecossistema de dados da Microsoft são enfatizadas, tornando o Fabric uma solução atraente para projetos modernos de data warehousing.

Para llevar

  • 🚀 Microsoft Fabric oferece uma solução completa para Data Warehousing.
  • 🛠️ Suporte nativo ao Delta Lake melhora a eficiência do processamento.
  • 🔄 Computação sem servidor permite escalabilidade automática.
  • 🔒 Segurança e governança integradas em toda a plataforma.
  • 📈 Integração direta com Power BI para análises rápidas.
  • ⚙️ Configuração simplificada elimina ajustes complexos.
  • 💡 Ingestão de dados otimizada com V-Order Write.
  • 🗂️ Capacidade de fazer cross-database querying.
  • 🔍 Monitoramento avançado de queries e performance.
  • 🌐 Suporte a múltiplas ferramentas de gerenciamento.

Cronología

  • 00:00:00 - 00:05:00

    Introdução sobre o Microsoft Fabric e foco na feature de Synapse Data Warehousing. Explicação sobre os pilares do Microsoft Fabric e a importância do CoPilot de AI.

  • 00:05:00 - 00:10:00

    Explicação sobre o relacionamento do Azure Synapse Analytics como uma solução Platform as a Service (PaaS) e a evolução para o Synapse Data Warehousing. Destaca-se que a Microsoft não pretende descontinuar a versão atual.

  • 00:10:00 - 00:15:00

    Discussão sobre as diferenças entre o Dedicated Pool e o Serverless Pool dentro do Azure Synapse Analytics, incluindo suas especificidades de processamento e limitações.

  • 00:15:00 - 00:20:00

    Mais detalhes sobre o Serverless Pool como uma solução para leitura de dados no Data Lake, destacando sua natureza não transacional e focada em virtualização de dados.

  • 00:20:00 - 00:25:00

    Ênfase nas limitações do Dedicated Pool e as soluções que o Microsoft Fabric traz, com melhorias em escalabilidade e uso do Delta Format.

  • 00:25:00 - 00:30:00

    Apresentação de novos cenários de uso com o Microsoft Fabric, mostrando como ele unifica as funções de processamento e análise de dados, oferecendo uma plataforma completa de analytics.

  • 00:30:00 - 00:35:00

    Foca nas vantagens do Synapse Data Warehousing dentro do Microsoft Fabric, como a computação serverless e a integração com o Delta Format.

  • 00:35:00 - 00:40:00

    Aspectos técnicos do Synapse Data Warehousing como otimização automática, arquitetura Lake-centric e integração nativa com o Power BI.

  • 00:40:00 - 00:45:00

    Demonstração prática da criação e integração de dados no Synapse Data Warehousing através de exemplos de queries e uso de cross query entre data warehouses.

  • 00:45:00 - 00:50:42

    Resumo da vantagem do Synapse Data Warehousing no Microsoft Fabric, destacando sua capacidade de processamento eficiente e integração com outras ferramentas de análise e visualização.

Ver más

Mapa mental

Mind Map

Preguntas frecuentes

  • O que é o Synapse Data Warehouse no Microsoft Fabric?

    É uma evolução do Azure Synapse Analytics, integrado ao Microsoft Fabric para otimizar o armazenamento e processamento de dados.

  • Quais são os principais diferenciais do Microsoft Fabric para Data Warehousing?

    Ele oferece processamento transacional aberto com suporte nativo ao Delta Lake e computação em nuvem sem servidor otimizada.

  • A Microsoft pretende descontinuar o Azure Synapse Analytics?

    Não, a Microsoft não planeja descontinuar o Azure Synapse Analytics, conforme documentado em suas políticas.

  • O que é o 'dedicated Pool' e 'serverless Pool'?

    O 'dedicated Pool' fornece computação dedicada e transacional, enquanto 'serverless Pool' oferece processamento distribuído para consultas em data lakes.

  • Como o Microsoft Fabric melhora o desempenho de Data Warehousing?

    Utiliza computação sem servidor otimizada, suporte nativo a Delta Lake e uma infraestrutura de consulta distribuída.

  • Quais são os principais componentes do Microsoft Fabric para Data Warehousing?

    Incluem computação sem servidor, armazenamento em Delta Lake, governança integrada e soluções end-to-end.

  • O Microsoft Fabric simplifica a configuração de Data Warehousing?

    Sim, elimina a necessidade de configuração complexa, com otimização automática e suporte integrado ao Delta Lake.

  • O que é SQL Serverless no contexto do Microsoft Fabric?

    É uma engine de consulta distribuída que permite leitura direta do armazenamento, escalando automaticamente.

Ver más resúmenes de vídeos

Obtén acceso instantáneo a resúmenes gratuitos de vídeos de YouTube gracias a la IA.
Subtítulos
pt
Desplazamiento automático:
  • 00:00:00
    Fala galera como é que vocês estão
  • 00:00:03
    Espero que todos estejam bem né mais uma
  • 00:00:06
    semana aí após o lançamento do meu
  • 00:00:09
    penúltimo vídeo relacionado ao Storage
  • 00:00:13
    do Microsoft Fabric né hoje a gente tá
  • 00:00:15
    aqui para falar sobre uma feature que eu
  • 00:00:18
    ah gosto bastante né até mesmo porque
  • 00:00:21
    ele vem de uma evolução de um outro
  • 00:00:24
    produto no qual eu tenho trabalhado
  • 00:00:27
    bastante desde muito tempo atrás né a
  • 00:00:30
    gente consegue ver isso nos vídeos
  • 00:00:31
    anteriores mas
  • 00:00:33
    eh vamos lá né Vamos lá vamos falar um
  • 00:00:36
    pouquinho aí do sinaps data warehousing
  • 00:00:39
    dentro do Microsoft Fabric né então
  • 00:00:42
    primeiro vídeo a gente fez uma
  • 00:00:44
    introdução rápida ali sobre o Microsoft
  • 00:00:46
    Fabric Quais são os quatro pilares né a
  • 00:00:48
    gente já consegue ver aqui nesses slides
  • 00:00:50
    Quais são os principais Pilares
  • 00:00:52
    principal Pilar que é uma é uma solução
  • 00:00:55
    completa de Analytics uma plataforma
  • 00:00:57
    completa ela é aberta em todas as
  • 00:01:00
    camadas com a ideia de empoderar os
  • 00:01:02
    usuários finais e a gente tem o ai
  • 00:01:05
    CoPilot embarcado ali dentro do produto
  • 00:01:08
    né Então essa é a ideia da gente hoje
  • 00:01:11
    falar do sinaps data warehous um um
  • 00:01:15
    pedaço específico do Microsoft Fabric
  • 00:01:18
    legal então antes da gente começar esse
  • 00:01:20
    vídeo galera eu sempre falo isso para
  • 00:01:22
    vocês por favor soltem um like aí de
  • 00:01:24
    vocês se inscreva no canal se você não é
  • 00:01:27
    inscrito ativa as notificações para que
  • 00:01:29
    você receba a todas as novidades aí
  • 00:01:32
    também você vai ajudar mais pessoas a
  • 00:01:33
    conhecer um pouco desse conteúdo
  • 00:01:35
    conhecer um pouquinho sobre mim né sobre
  • 00:01:38
    o que eu tenho falado aí de Microsoft
  • 00:01:39
    Fabric e eu espero que vocês tenham
  • 00:01:42
    gostado caso não tenham visto ainda o
  • 00:01:43
    primeiro e o segundo vídeo volta lá e
  • 00:01:46
    assiste espera terminar isso aqui depois
  • 00:01:48
    volta lá e assiste tem muita coisa legal
  • 00:01:51
    aí pra gente falar legal então vamos
  • 00:01:54
    começar esse vídeo de hoje aí falando
  • 00:01:56
    sobre o sinaps date Warehouse assim como
  • 00:01:58
    vocês podem ver aqui aqui preparar
  • 00:02:00
    alguns slides aqui para vocês então
  • 00:02:02
    antes de eu falar sobre o sinaps de
  • 00:02:04
    Warehouse Deixa eu voltar um pouquinho
  • 00:02:06
    deixa eu voltar um pouquinho aqui nos
  • 00:02:08
    meus slides vamos falar aqui qual que é
  • 00:02:11
    a versão atual que a gente tem de
  • 00:02:14
    sinapse datare house né então falei
  • 00:02:18
    bastante isso lá no meu aqui dentro aqui
  • 00:02:20
    no meu canal do YouTube tá lá na tá lá
  • 00:02:23
    na na nos vídeos anteriores de sinaps
  • 00:02:25
    Analytics né lembrando galera o que que
  • 00:02:27
    é o Microsoft Fabric é uma solução P
  • 00:02:31
    legal é perdão é uma solução SAS
  • 00:02:35
    software como serviço desculpa galera
  • 00:02:37
    software como serviço Beleza o que que é
  • 00:02:40
    o azure sinaps Analytics é uma solução
  • 00:02:44
    pass plataforma como serviço por que que
  • 00:02:47
    eu falo que é a versão pass atual do
  • 00:02:50
    sinapse date warehouses legal por quê
  • 00:02:53
    Porque é a versão que ainda existe é a
  • 00:02:55
    versão que ainda vai continuar existindo
  • 00:02:56
    ponto muito importante galera a
  • 00:02:59
    Microsoft não pretende eh descontinuar o
  • 00:03:03
    Azur sinaps Analytics Beleza tem toda
  • 00:03:06
    uma documentação tem toda uma política é
  • 00:03:08
    isso não sou eu que tô falando tá isso
  • 00:03:10
    tá documentado no das documentações
  • 00:03:12
    públicas de de políticas de serviços tá
  • 00:03:16
    então tanto o dedicated pool quanto o
  • 00:03:19
    server são soluções que ainda vão
  • 00:03:21
    continuar existindo beleza para US cases
  • 00:03:24
    específicos cada cada empresa tem seus
  • 00:03:26
    US cases e não vai ser diferente se você
  • 00:03:28
    planeja legal se você planeja ficar
  • 00:03:32
    utilizando ainda o dedicated Pool e o
  • 00:03:34
    seress pool que cada um tem sua
  • 00:03:36
    especificidade legal também hein galera
  • 00:03:38
    então ponto importante a Microsoft não
  • 00:03:42
    planeja e retirar esse produto de linha
  • 00:03:45
    Beleza então vou falar um pouquinho
  • 00:03:47
    desses caras bem rapidamente tá
  • 00:03:49
    dedicated Pool lá atrás ele foi
  • 00:03:52
    conhecido como azu date Ware housee né e
  • 00:03:56
    depois disso a Microsoft fez o rebrand
  • 00:03:59
    para esse esse produto se chamar Azur
  • 00:04:01
    sinaps Analytics então meio que fez uma
  • 00:04:03
    confusão aí no mercado apenas a parte de
  • 00:04:06
    date warehous era conhecido como Azur
  • 00:04:09
    sinaps Analytics e e um pouquinho depois
  • 00:04:12
    pouco dois anos depois a Microsoft veio
  • 00:04:14
    lançou a plataforma Azur sinaps
  • 00:04:17
    Analytics e dentro da plataforma Azur
  • 00:04:20
    synaps Analytics tinha todos os
  • 00:04:22
    workloads para Big Data a parte de date
  • 00:04:25
    Warehouse ficou conhecida como dedicated
  • 00:04:27
    P Pool legal por é um SQL dedicado E aí
  • 00:04:31
    quando a gente fala dedicado ela é uma
  • 00:04:33
    solução que você provisiona a capacidade
  • 00:04:37
    que você quer de computação né O que a
  • 00:04:39
    gente chama ali de dwus né data
  • 00:04:42
    Warehouse units E aí você vai ter o seu
  • 00:04:44
    poder ali de processamento de CPU de
  • 00:04:47
    memória de Storage legal dedicated Pool
  • 00:04:50
    é uma solução de de processamento
  • 00:04:51
    massivo paralelo ele existe Ele tem sua
  • 00:04:54
    própria especificidade para e eh para
  • 00:04:58
    armazenar os dados e tudo mais legal eu
  • 00:05:01
    não vou entrar muito nesse detalhe quer
  • 00:05:02
    saber um pouquinho mais sobre esse cara
  • 00:05:04
    vai lá nos meu vídeos de sinaps
  • 00:05:06
    analíticos Eu tenho um uma trad
  • 00:05:08
    específica de dedicated p Pool Beleza
  • 00:05:11
    então esse aqui é um deware House um
  • 00:05:12
    tipo de deware house muito conhecido
  • 00:05:15
    anteriormente por
  • 00:05:17
    eh se se encaixar muito bem nas
  • 00:05:19
    arquiteturas de Modern date Ware House
  • 00:05:21
    Beleza então ele é fixo ele é
  • 00:05:24
    provisionado ele tem várias
  • 00:05:26
    características de performance de de de
  • 00:05:30
    de armazenamento de dados coluna várias
  • 00:05:33
    coisas tá assim como ele tem vários
  • 00:05:36
    defeitos Beleza então não posso deixar
  • 00:05:38
    de falar aqui quando eu falo defeitos eu
  • 00:05:40
    falo eh situações em que alguns eh eh
  • 00:05:44
    clientes eh sofrem um pouco nas
  • 00:05:47
    configurações legal E aí eu vou pular
  • 00:05:50
    aqui pro server CIC Pool então a medida
  • 00:05:53
    com que o tempo foi a que os workloads
  • 00:05:56
    foram se modernizando galera a microsof
  • 00:05:59
    soft ficou meio que com GAP de uma
  • 00:06:02
    solução que pudesse consultar o datalake
  • 00:06:06
    o dedicated sipu conseguia fazer isso
  • 00:06:08
    Sidney não conseguia consultar direto
  • 00:06:11
    mas conseguia se conectar no dat Lake e
  • 00:06:14
    mandar o dado para dentro do dedicated
  • 00:06:16
    cpol para processar ele utilizando SQL
  • 00:06:19
    né no serverless Pool não serverless
  • 00:06:21
    Pool ele foi a primeira solução
  • 00:06:23
    utilizando o SQL que a Microsoft colocou
  • 00:06:26
    no mercado eh que conseguia ler o
  • 00:06:29
    Storage direto eu eu vou lá dentro do
  • 00:06:32
    arquivo no Storage mando o botão direito
  • 00:06:35
    Quero quero ver as linhas desse arquivo
  • 00:06:38
    pode ser parqu pode ser csv né E aí por
  • 00:06:42
    fim lá no final a Microsoft liberou ele
  • 00:06:44
    para pra leitura de Delta Qual que é o
  • 00:06:48
    grande problema aqui do serverless o
  • 00:06:50
    serverless ele foi feito para uma camada
  • 00:06:53
    de virtualização em cima do storage ou
  • 00:06:56
    seja ele não é transacional ele ele é
  • 00:06:59
    apenas de leitura o dedicated pool não
  • 00:07:02
    dedicated Pool você tem escrita e tem
  • 00:07:04
    leitura mas não tem habilidade de
  • 00:07:06
    consultar o dado no no data Lake tá o
  • 00:07:09
    serverless não o serverless ele já é uma
  • 00:07:11
    camada mais para data virtualization né
  • 00:07:14
    então você cria o seu dataware housee
  • 00:07:17
    dentro do seu dat Lake E cria o server
  • 00:07:20
    as visualizações e as tabelas externas
  • 00:07:23
    ali apontando pro Storage então problema
  • 00:07:26
    que a gente tem aqui eu não consigo
  • 00:07:28
    inserir dados então toda vez que eu
  • 00:07:30
    precisava criar novos dados dentro do
  • 00:07:33
    meu dat Lake eu processava os dados
  • 00:07:35
    dentro do storage eu tinha que dropar e
  • 00:07:37
    recriar a tabela novamente Mas funciona
  • 00:07:39
    muito bem perfeitamente O Outro ponto
  • 00:07:41
    muito importante aqui galera server Pool
  • 00:07:44
    ele não foi feito para um workload
  • 00:07:47
    absurdo assim né para um workload de
  • 00:07:50
    milisegundos de de retorno do dado ali
  • 00:07:53
    para pro Power bi ou então pros usuários
  • 00:07:55
    legal Diferentemente do dedicated SC
  • 00:07:58
    Pool o dedicated cle Pool ele foi foi
  • 00:08:01
    projetado para alta demanda Para para
  • 00:08:05
    que as Sares performe de uma maneira
  • 00:08:07
    muito mais rápido por conta das suas
  • 00:08:08
    características né lembrando dedicated
  • 00:08:11
    Pool é um sistema de massivo paralelo
  • 00:08:13
    processing e o server Pool é um
  • 00:08:16
    distributed query processing Engine
  • 00:08:19
    beleza é uma Engine de processamento de
  • 00:08:21
    query distribuída você manda sua query
  • 00:08:23
    pro control node e e e e eh sua query
  • 00:08:27
    vai ser distribuída nos back end nodes
  • 00:08:29
    ele vai escalar e diminuir
  • 00:08:31
    eh automaticamente vai ler o dado dentro
  • 00:08:35
    do storage e vai devolver o dado pro
  • 00:08:36
    usuário no no dedicated cle Pool já é um
  • 00:08:40
    pouquinho mais diferente você não escala
  • 00:08:42
    e diminui automaticamente você tem um
  • 00:08:45
    único size né E esse único size era um
  • 00:08:48
    problema do outc então se você
  • 00:08:50
    precisasse escalar sua computação que
  • 00:08:52
    era dedicada você não conseguia você
  • 00:08:55
    tinha que Pausar a sua
  • 00:08:56
    informação pausar o seu DW perder todas
  • 00:08:59
    as queries que estavam rolando ali né
  • 00:09:01
    para parar todas as queries e escalar
  • 00:09:03
    pro tamanho que você quer de acordo com
  • 00:09:05
    com o seu processamento né Então
  • 00:09:07
    percebam galera a gente tem um meio que
  • 00:09:09
    um tradeoff aí entre essas duas
  • 00:09:10
    tecnologias né Esse foi um dos motivos
  • 00:09:14
    no qual a Microsoft fez um big upgrade
  • 00:09:17
    no Microsoft Fabric né lembrando
  • 00:09:19
    Microsoft Fabric não atualizou só essas
  • 00:09:21
    duas soluções atualizou todo o
  • 00:09:23
    ecossistema de Big Data da Microsoft
  • 00:09:26
    para soluções mais modernas né então e
  • 00:09:28
    aí e a gente vai começar a falar um
  • 00:09:30
    pouquinho do Microsoft FB só quis fazer
  • 00:09:32
    um resumo bem rápido aqui eu espero que
  • 00:09:34
    vocês tenham entendido qualquer coisa
  • 00:09:36
    volta lá no meus vídeos lá no sinaps
  • 00:09:38
    analítica vocês vão ver tudo sobre esses
  • 00:09:40
    dois caras sensacionais funciona até
  • 00:09:42
    hoje e não vai deixar de existir até a
  • 00:09:45
    onde a Microsoft quiser de acordo com as
  • 00:09:46
    políticas dela tá não tem planos para
  • 00:09:49
    isso vamos avançar então aqui a gente
  • 00:09:51
    tem um cenário mais ah os últimos
  • 00:09:55
    cenários de workloads para esse tipo de
  • 00:09:58
    produto produto né que é o dedicated cle
  • 00:10:00
    Pool e o server cle Pool como vocês
  • 00:10:02
    podem perceber aqui galera a gente tem
  • 00:10:05
    os sistemas de origem a gente vai fazer
  • 00:10:07
    a carga para dentro do nosso Lake House
  • 00:10:09
    aqui a gente já tá falando de
  • 00:10:10
    arquiteturas mais modernas então eu
  • 00:10:12
    carrego o dado ali pra minha camada Roll
  • 00:10:15
    dado bruto eu processo ele utilizando o
  • 00:10:17
    sinaps Spark ou data Bricks de acordo
  • 00:10:20
    com a sua vontade tá eu enriqueço essa
  • 00:10:23
    informação e depois eu crio uma camada
  • 00:10:26
    de dados prontos de dados curados né uma
  • 00:10:28
    vez que dados estão aqui e aí vamos
  • 00:10:31
    vamos colocar aqui que a gente tá
  • 00:10:32
    utilizando o padrão Delta que já é um
  • 00:10:34
    padrão muito utilizado né muito
  • 00:10:36
    utilizado inclusive está dentro por
  • 00:10:39
    padrão dentro do febc né a gente tinha
  • 00:10:41
    dois approaches aqui na hora de ler os
  • 00:10:43
    dados utilizando o SQL eu poderia pegar
  • 00:10:45
    essa informação que está aqui dentro do
  • 00:10:47
    meu dado curado E carregar para dentro
  • 00:10:49
    do meu deic picop existem vários US
  • 00:10:52
    cases no mercado assim galera Mas qual
  • 00:10:55
    que é o ponto aqui interessante o ponto
  • 00:10:57
    é que eu tô duplicando dado então eu já
  • 00:10:59
    tenho uma camada de dados curados que
  • 00:11:01
    foram processados pelo Spark mas só que
  • 00:11:04
    eu não tô escrevendo direto no de de
  • 00:11:05
    picol por por conta de facilidades do
  • 00:11:08
    próprio do próprio Delta e tudo mais eu
  • 00:11:11
    eu duplico o dado dentro do dedicated
  • 00:11:14
    Para quê Para que as engines de consulta
  • 00:11:16
    como Power Bi e os usuários de negócio
  • 00:11:19
    consult esse cara em uma performance bem
  • 00:11:21
    mais rápida tá ou qual é o outro
  • 00:11:24
    approach que eu posso construir eu eu
  • 00:11:27
    crio uma camada de vir ação em cima
  • 00:11:30
    dessa camada curada E aí eu venho com o
  • 00:11:32
    meu seress crio tabelas aqui em cima do
  • 00:11:35
    meu Delta né lembrando o delta Vai
  • 00:11:37
    facilitar na performance do serverless
  • 00:11:40
    cpol mas ele não vai ser tão performante
  • 00:11:43
    quanto o dedicated cpol então percebam
  • 00:11:45
    aqui eu não duplico o dado né só que a
  • 00:11:48
    grande diferença é que aqui eu só estou
  • 00:11:51
    ah virtualizando a informação por
  • 00:11:54
    exemplo uma vez que eu escrevi o dado
  • 00:11:56
    para cá dentro da minha camada curada e
  • 00:11:57
    eu quero atualizar esse informação
  • 00:11:59
    dentro do dedicated CPU eu posso porque
  • 00:12:01
    ele é transacional no serverless não no
  • 00:12:04
    serverless eu preciso dropar a tabela e
  • 00:12:06
    recriar de novo apontando para os novos
  • 00:12:07
    dados tá então cara a gente tem um
  • 00:12:10
    tradeoff aqui beleza e aí a gente vai
  • 00:12:12
    pra próxima esfera Microsoft Fabric do
  • 00:12:15
    Microsoft Fabric vamos falar específico
  • 00:12:18
    do do cnaps zware house uma evolução das
  • 00:12:21
    arquiteturas anteriores que a gente tem
  • 00:12:23
    é o mesmo produto Sydney não é diferente
  • 00:12:26
    legal então eu trago esse slide aqui
  • 00:12:29
    basicamente para falar que ele é a nova
  • 00:12:31
    o FAB que é a nova geração de data e
  • 00:12:33
    Analytics Então a gente tem tudo tudo
  • 00:12:35
    que a gente precisa para para fechar uma
  • 00:12:40
    solução completa de Analytics né e aqui
  • 00:12:42
    eu tô falando especificamente de de date
  • 00:12:45
    Warehouse aí eu vou ter CCD pro date
  • 00:12:47
    Warehouse eu vou ter um tipo só de
  • 00:12:49
    formato eu vou ter governança eu vou ter
  • 00:12:52
    segurança eu vou ter armazenamento de
  • 00:12:54
    dados Então galera é uma plataforma
  • 00:12:56
    completa que vai trabalhar em conjunto
  • 00:12:58
    beleza mas eu trouxe esse slides por quê
  • 00:13:01
    Porque no Microsoft Fabric O que que a
  • 00:13:04
    gente traz pro data Warehouse também uma
  • 00:13:06
    capacidade Universal então em todo o
  • 00:13:10
    Microsoft fbrica a gente tem um tipo de
  • 00:13:12
    computação só máquinas
  • 00:13:15
    rodando máquinas rodando ali por debaixo
  • 00:13:18
    dos panos para executar todos os nossos
  • 00:13:20
    processamentos Diferentemente de quando
  • 00:13:23
    eu tinha o dedicated copol e quando eu
  • 00:13:25
    tinha o serpol quando eu tinha o
  • 00:13:27
    dedicated copol eu tinha um estrutura
  • 00:13:29
    física provisionada né eu precisava
  • 00:13:31
    dizer qual que é o tamanho que eu queria
  • 00:13:33
    e com o serverless pool essa essa
  • 00:13:35
    estrutura essa estrutura ela escalava e
  • 00:13:39
    diminuí automaticamente a gente perdia
  • 00:13:41
    um tempinho ali do War Map dos do
  • 00:13:43
    cluster e ele ele já era uma estrutura
  • 00:13:46
    sim seress mas ele tinha um arm map do
  • 00:13:49
    cluster agora não agora é diferente pro
  • 00:13:51
    deware House agora você rodou sua query
  • 00:13:54
    o dado já roda instantaneamente beleza
  • 00:13:57
    dois pontos principais aqui pro sinaps
  • 00:14:00
    deware House o primeiro ponto galera que
  • 00:14:02
    é o mais diferente de todos ele é o
  • 00:14:05
    primeiro sistema transacional de dware
  • 00:14:08
    house que está embarcando nativamente o
  • 00:14:11
    padrão aberto do Delta Lake Beleza então
  • 00:14:14
    lá no date Ware House lá no sinaps
  • 00:14:16
    analist O que que a gente tinha galera
  • 00:14:18
    Ah um um um um um tipo de armazenamento
  • 00:14:23
    nativo então se eu quisesse migrar os
  • 00:14:25
    meus o meu banco de dados Dent warehous
  • 00:14:27
    para outro local tinha que reescrever
  • 00:14:29
    meu código ou eu tinha que copiar todos
  • 00:14:31
    os dados para lá aqui não aqui a gente
  • 00:14:34
    escreve tudo em Delta Format e eu
  • 00:14:36
    beneficio outras engines de ler e aí eu
  • 00:14:40
    continuo tendo transações por quê Porque
  • 00:14:42
    o delta Format o delta Lake permite esse
  • 00:14:46
    tipo de transações Então a gente tem uma
  • 00:14:48
    camada de datare house em cima de uma
  • 00:14:51
    uma outra camada de de data Lake que é o
  • 00:14:54
    delta Lake beleza outros Pontos
  • 00:14:57
    importantes cara a gente não precisa
  • 00:14:58
    fazer fazer configuração não precisa
  • 00:15:00
    fazer nada de configuração tudo é auto
  • 00:15:03
    auto otimizado a gente não muda nenhuma
  • 00:15:05
    settings legal e a gente continua
  • 00:15:08
    trabalhando ali com SQL primeiro Pilar
  • 00:15:11
    tá E aí no segundo Pilar galera O que
  • 00:15:13
    que a gente faz na parte dos clusters a
  • 00:15:17
    gente remove aqueles clusters dedicados
  • 00:15:19
    que eu acabei de falar para vocês e a
  • 00:15:20
    gente traz tudo para uma estrutura
  • 00:15:22
    computacional celas né então eu não
  • 00:15:25
    tenho mais a computação física na
  • 00:15:27
    verdade a minha computação física ela é
  • 00:15:29
    Ela é assinalada ali pra minha query em
  • 00:15:32
    milissegundos Beleza ela vai escalar e
  • 00:15:34
    diminuir sem eu ter que ficar
  • 00:15:37
    provisionando máquinas por debaixo dos
  • 00:15:39
    panos Isso é uma tecnologia bem
  • 00:15:41
    interessante E aí isso também vai
  • 00:15:43
    impactar e na eficiência do meu produto
  • 00:15:46
    e também vai impactar no preço porque lá
  • 00:15:49
    atrás a gente tinha dois tipos de
  • 00:15:51
    cobrança a primeira cobrança era para a
  • 00:15:55
    primeira cobrança eraa pro dedicado que
  • 00:15:57
    ele tinha a sua especif idade ali para
  • 00:15:59
    tarifar e pro Serv que eu pagava por
  • 00:16:01
    query aqui não eu vou pagar pela
  • 00:16:03
    capacidade total do Microsoft Fabric e
  • 00:16:06
    isso é bem interessante beleza três
  • 00:16:09
    principais pontos aí ele tem que ser
  • 00:16:11
    simples ele tem que ser intuitivo pros
  • 00:16:13
    usuários ele tem que ser baseado em em
  • 00:16:17
    Lake centric né e ele tem que ser pronto
  • 00:16:21
    para um pro negócio uma plataforma
  • 00:16:22
    pronto pro negócio né E aí eu gosto de
  • 00:16:25
    de dar um Highlight dois pontos
  • 00:16:27
    importantes aqui o Prim primeiro ponto é
  • 00:16:29
    agora a gente consegue fazer virtualizar
  • 00:16:33
    outros dataware houses tá e a gente
  • 00:16:35
    consegue fazer cross quering Database no
  • 00:16:37
    mesmo workspace o que a gente não
  • 00:16:39
    conseguia fazer antes nem com serverless
  • 00:16:41
    e nem com dedicated s Pool tá e o outro
  • 00:16:44
    ponto mais interessante é que ele é
  • 00:16:46
    totalmente integrado com a com com o
  • 00:16:49
    semantic layer da do Power bi legal
  • 00:16:53
    então esse é um ponto muito importante
  • 00:16:55
    já vou mostrar para vocês na demo legal
  • 00:16:57
    quando eu falei de leake centro que
  • 00:16:59
    legal ele já está eh trabalhando com o
  • 00:17:02
    formato Delta eu não preciso fazer
  • 00:17:04
    ajustes paraa performance a gente vai
  • 00:17:06
    falar um pouquinho mais disso e eu tenho
  • 00:17:08
    uma fácil recuperação fácil
  • 00:17:10
    gerenciamento dos dados ali através de
  • 00:17:12
    diversas features que eu vou entrando em
  • 00:17:15
    detalhes ao longo do tempo aqui com
  • 00:17:16
    vocês beleza end to end solução uma
  • 00:17:20
    solução fim a fim performance
  • 00:17:22
    visibilidade de tudo governança né
  • 00:17:25
    nativamente dentro desse cara e
  • 00:17:27
    segurança também por padrão Beleza então
  • 00:17:30
    avançando aqui galera eu gosto dessa
  • 00:17:32
    imagem tá essa imagem tá lá na
  • 00:17:34
    documentação da da da do date Ware
  • 00:17:37
    housee tá Então como que funciona a a
  • 00:17:40
    data process Engine percebam que ele
  • 00:17:43
    ainda utiliza as mesmas características
  • 00:17:46
    que a computação seress utilizava lá
  • 00:17:48
    atrás só que ele tem alguns ajustes
  • 00:17:50
    internos vários ajustes internos Para
  • 00:17:53
    quê Para que eu continue utilizando
  • 00:17:55
    computação servas mas eu tenha a
  • 00:17:57
    capacidade de ler e escrever dados e de
  • 00:18:00
    uma maneira muito rápido só que agora a
  • 00:18:02
    gente tem a diferença eu escrevo em
  • 00:18:05
    Delta né uma vez que eu mandei o meu
  • 00:18:07
    insert dentro do meu control node ele
  • 00:18:10
    vai devolver ali pro pro backend node na
  • 00:18:13
    hora que eu escrever o meus dados dentro
  • 00:18:15
    do Lake eu vou escrever a partir do de
  • 00:18:17
    Delta né e assim a leitura também eu
  • 00:18:20
    leio os dados direto por Delta quando eu
  • 00:18:23
    venho paraa minha Engine ali pra Engine
  • 00:18:25
    de de backend de processamento eu vou
  • 00:18:28
    ler essa eu vou fazer o translate pro
  • 00:18:30
    SQL né e vou retornar essa informação
  • 00:18:33
    pro usuário lembrando galera
  • 00:18:35
    eh essa Engine ela é por padrão
  • 00:18:38
    construída em cima do query optimizing
  • 00:18:40
    do SQL server beleza e a gente tá
  • 00:18:43
    utilizando arquitetura de processamento
  • 00:18:45
    que é o distributed query processing o
  • 00:18:47
    mesmo que o sevel utilizava lá atrás
  • 00:18:50
    Então a gente tem uma evolução aqui bem
  • 00:18:53
    bacana bem diferente por debaixo dos
  • 00:18:55
    panos a gente tem muitas coisas legais
  • 00:18:57
    questão de Cash questão de colum Store
  • 00:19:00
    index que é não é muito aberto pro pro
  • 00:19:04
    pros clientes mas é como a Engine
  • 00:19:06
    funciona por debaixo dos panos legal
  • 00:19:09
    então Quais são as opções de ingestão
  • 00:19:11
    então uma vez que eu tenho o meu Dee
  • 00:19:12
    Warehouse eu preciso colocar a
  • 00:19:13
    informação lá dentro Para quê Para que
  • 00:19:15
    eu comece a construir as minhas tabelas
  • 00:19:18
    as minhas dimensões as minhas Fatos e aí
  • 00:19:21
    eu modele o meu workload beleza data
  • 00:19:25
    pipelines vamos falar do do do data
  • 00:19:28
    Factory mais paraa frente nós temos o
  • 00:19:30
    data Flow que a gente consegue carregar
  • 00:19:32
    dentro para dados para dentro do da
  • 00:19:33
    Warehouse também dataflow Gentil solução
  • 00:19:36
    Bem bacana cop Statement Aquela aquele
  • 00:19:40
    aquele tsql basicão que a gente manda o
  • 00:19:43
    dado para dentro do SQL bem Legal
  • 00:19:45
    crossware House ingestion uma feature
  • 00:19:48
    que eu acho muito muito bacana através
  • 00:19:51
    do tsql né então eu posso utilizar o
  • 00:19:53
    insert select select in ou Create table
  • 00:19:56
    é select lembrando galera eu só posso
  • 00:19:59
    consultar dois date warehouses dentro do
  • 00:20:02
    mesmo workspace eu não consigo criar um
  • 00:20:05
    link de conecção com Warehouse em outro
  • 00:20:07
    local tá ponto importante E interessante
  • 00:20:10
    para que vocês entendam aqui e aí eu
  • 00:20:12
    trago um ponto interessante aqui que
  • 00:20:14
    você que eu quero que vocês saibam
  • 00:20:16
    Independente de como você vai fazer em
  • 00:20:18
    gestão dentro do seu dware House com
  • 00:20:21
    qualquer uma dessas informações por
  • 00:20:23
    padrão todos os arquivos parques que são
  • 00:20:26
    produzidos pela pela pela ingestão ele
  • 00:20:29
    vai ser otimizado pelo um carinha
  • 00:20:31
    chamado vorder right optimization Beleza
  • 00:20:35
    então vou falar do vord um pouquinho
  • 00:20:37
    mais pra frente é uma feature que veio
  • 00:20:39
    do Spark e pelo simples fato dela
  • 00:20:41
    trabalhar com Delta tudo tudo
  • 00:20:44
    necessariamente tudo que você faz aqui
  • 00:20:46
    dentro do do deware house toda ingestão
  • 00:20:50
    de dados e leitura também porque eles se
  • 00:20:52
    beneficia da Leitura o vorder tá rodando
  • 00:20:54
    ali por debaixo dos P
  • 00:20:57
    legal forma assim toda vez que eu rodar
  • 00:21:00
    uma query a primeira vez que eu rodar
  • 00:21:01
    uma query no meu deware House a gente
  • 00:21:03
    vai ter ali o que a gente chama de
  • 00:21:05
    execução fria né
  • 00:21:06
    Eh eu vou ler ler os dados e depois eu
  • 00:21:10
    vou carregar ele paraa minha memória
  • 00:21:11
    então pode ser que eu perca um tempo mas
  • 00:21:13
    já na segunda vez que eu for carregar os
  • 00:21:16
    dados para dentro da minha memória esses
  • 00:21:18
    dados já vão ser eh eh comprimidos num
  • 00:21:22
    formato colunar todo mundo sabe que o
  • 00:21:24
    formato colunar é muito bom paraa
  • 00:21:26
    leitura de informações depende dependo
  • 00:21:28
    do tamanho da da dos meus dados eu vou
  • 00:21:30
    também fazer a serialização pro disco
  • 00:21:33
    para o SSD dentro dos compute noes Legal
  • 00:21:36
    então se eu tenho uma consulta rápida eu
  • 00:21:39
    jogo ela pra memória que é uma
  • 00:21:40
    quantidade quantidade de dados pequena
  • 00:21:43
    eu simplesmente jogo ela pra memória e
  • 00:21:44
    retorno pro usuário quando eu tenho uma
  • 00:21:47
    uma uma quantidade de dados maior eu
  • 00:21:49
    faço a serialização entre o disco e o
  • 00:21:52
    Cash beleza estatísticas galera
  • 00:21:55
    interessantíssimo Nós temos dois tipos
  • 00:21:57
    de estat estatísticas estatísticas
  • 00:21:59
    definidas ali pelos usuários e temos
  • 00:22:01
    também estatísticas automáticas né a
  • 00:22:03
    nível de query primeiramente falando de
  • 00:22:06
    estatísticas definidas pelo usuário
  • 00:22:09
    essas estatísticas são manual e elas são
  • 00:22:11
    limitadas por uma única coluna beleza
  • 00:22:14
    nas estatísticas automáticas galera
  • 00:22:17
    Interessante não preciso rodar
  • 00:22:18
    manutenção de estatística mais percebam
  • 00:22:20
    um tanto de coisa que a gente vai
  • 00:22:22
    mudando se você já é um conhecedor das
  • 00:22:24
    outras das outras características tá
  • 00:22:26
    estatísticas automáticas
  • 00:22:28
    toda vez que eu criar a tabela ele vai
  • 00:22:31
    criar a cardinalidade da minha tabela Eu
  • 00:22:34
    tenho um histograma Eu tenho um
  • 00:22:36
    histograma ali criado por cada coluna
  • 00:22:38
    então toda vez que eu
  • 00:22:40
    Eh quero fazer um filtro de uma query
  • 00:22:43
    essa e eu vou captar a a quantidade de
  • 00:22:47
    informações que eu tenho ali daquela
  • 00:22:49
    determinada coluna o tamanho da de
  • 00:22:51
    quantidade de linhas que eu tenho
  • 00:22:52
    daquela coluna Para quê Para que eu
  • 00:22:54
    sempre retorne isso pro usuário isso é
  • 00:22:56
    sempre atualizado a nível de de query ou
  • 00:22:58
    seja todas as vezes que eu tiver
  • 00:23:01
    ah rodar uma query do meu data Lake no
  • 00:23:05
    meu no meu dat Warehouse as estatísticas
  • 00:23:07
    vão ser atualizadas e para o bom
  • 00:23:09
    conhecedor de SQL e sabe que
  • 00:23:11
    estatísticas é basicamente a maneira
  • 00:23:13
    mais fácil você entender a quantidade de
  • 00:23:15
    informação que você tem tá ajuda no no
  • 00:23:18
    no plano de execução das queries e
  • 00:23:20
    várias outras coisas tá E aí por fim
  • 00:23:22
    esqueci de falar que
  • 00:23:24
    ah a gente tem um tipo de estatística
  • 00:23:26
    também para o o tamanho de algumas
  • 00:23:29
    colunas específicas vaixar tá precisa
  • 00:23:31
    saber a quantidade de linhas e o tamanho
  • 00:23:34
    da coluna que a gente tem ali tudo isso
  • 00:23:35
    vai ser criado automaticamente depois eu
  • 00:23:38
    faço uma sessão especificamente de
  • 00:23:40
    estatísticas porque estatísticas
  • 00:23:42
    estatísticas é o coração do SQL
  • 00:23:45
    legal gerenciamento de workload Olha
  • 00:23:49
    isso aqui é uma feature galera que eu
  • 00:23:51
    acho sensacional basicamente você vai
  • 00:23:55
    dividir o seu P em dois pedaços tudo que
  • 00:23:57
    for select né ele vai para uma parte do
  • 00:24:01
    cluster por debaixo dos planos e tudo
  • 00:24:03
    que for em gestão ele vai para uma outra
  • 00:24:05
    parte do custer por debaixo dos panos
  • 00:24:07
    lembrando isso aqui tá documentado
  • 00:24:09
    também tá galera não é nada NDA aqui tá
  • 00:24:12
    então Esso aqui é uma feature muito
  • 00:24:14
    importante para quê para isolamento para
  • 00:24:17
    isolamento de performance a gente sabe
  • 00:24:19
    que a gente mexia bastante em isolamento
  • 00:24:21
    lá no dedicated copu era um parto a
  • 00:24:24
    gente ficar configurando ali tudo na mão
  • 00:24:26
    workload ressource Class aqui não galera
  • 00:24:30
    tudo isso aqui vai ser distribuído e e e
  • 00:24:33
    de acordo com a sua demanda se minhas
  • 00:24:35
    queries estão estão alas elas vão ser
  • 00:24:37
    distribuídas na parte de query se a
  • 00:24:39
    minha ingestão tá alta ela vai ser
  • 00:24:41
    distribuído na parte de digestão e a
  • 00:24:43
    gente não vai conflitar isso aqui é
  • 00:24:45
    muito mas muito interessante também
  • 00:24:47
    depois falo mais um pouquinho desses
  • 00:24:48
    caras para vocês a ideia aqui pessoal é
  • 00:24:51
    basicamente eu fazer um resumão aqui
  • 00:24:53
    para vocês né um resumão de de tudo e
  • 00:24:56
    depois a gente desce de Deep diive nas
  • 00:24:58
    features beleza
  • 00:25:00
    segurança segurança a nível de workspace
  • 00:25:03
    nós temos né Lembrando que agora o
  • 00:25:05
    Storage vai prover pra gente
  • 00:25:07
    possibilidade de segurança então eu
  • 00:25:09
    consigo eh dar permissionamento a nível
  • 00:25:11
    de workspace depois eu vou descendo pros
  • 00:25:14
    itens E aí quando eu falo item eu tô
  • 00:25:16
    falando do date Warehouse do synaps date
  • 00:25:18
    Warehouse né então dentro do date
  • 00:25:20
    Warehouse eu consigo compartilhar esse
  • 00:25:21
    cara eu consigo dar permissionamento a
  • 00:25:24
    nível granular a nível de usuário ali
  • 00:25:26
    nível de objeto né ah h level Security
  • 00:25:30
    colum level Security D dynamic dat mask
  • 00:25:33
    são features que a gente utiliza aí pra
  • 00:25:36
    parte mais de segurança né pra parte
  • 00:25:37
    mais de compli e tudo mais e um ponto
  • 00:25:40
    muito interessante é que a gente tem
  • 00:25:42
    auditoria Bea in tem uma documentação
  • 00:25:45
    bem legal depois a gente vai eu vou
  • 00:25:47
    falar de todos esses caras separado tá
  • 00:25:50
    soluç eh ferramentas que a gente usa o
  • 00:25:52
    bom e velho ssms né SQL server
  • 00:25:56
    Management Studio Azur data Studio quer
  • 00:25:59
    editor do Microsoft Fabric qualquer
  • 00:26:02
    solução que se conecte a um cliente skl
  • 00:26:04
    server qualquer cliente SQL serve né ou
  • 00:26:07
    biblioteca Python qualquer coisa que se
  • 00:26:09
    conecte no protocolo TDS tá e qualquer
  • 00:26:13
    cliente também que se conecte de parque
  • 00:26:16
    e
  • 00:26:17
    eh para bibliotecas de Delta Format tá
  • 00:26:20
    um exemplo é é o Storage g endp e o
  • 00:26:24
    próprio Storage do o próprio de point do
  • 00:26:28
    do One Lake Beleza então essas são as
  • 00:26:31
    soluções que a gente tem ferramentas
  • 00:26:33
    legal
  • 00:26:34
    ah vamos pro próximo monitoramento gosto
  • 00:26:39
    bastante de falar monitoramento percebam
  • 00:26:41
    que eu tô arrastando meu rosto aqui pro
  • 00:26:43
    lado só para não só para não atrapalhar
  • 00:26:46
    na visualização de vocês monitoramento
  • 00:26:48
    gosto bastante boas e velhas dmvs né
  • 00:26:52
    então do lado esquerdo se eu quiser
  • 00:26:54
    monitorar a conexão quem tá conectado
  • 00:26:57
    sessão eu consigo continuar utilizando
  • 00:26:59
    as mesmas dmvs que a gente utilizava
  • 00:27:01
    anteriormente né exec sessions eec
  • 00:27:08
    requests
  • 00:27:10
    connections várias dvs que a gente
  • 00:27:12
    utilizava anteriormente né então a gente
  • 00:27:14
    consegue ainda matar alguma sessão que
  • 00:27:16
    esteja demorando alguma coisa nesse tipo
  • 00:27:18
    tá ponto muito interessante agora nós
  • 00:27:22
    temos por padrão be in dentro do cluster
  • 00:27:26
    e query ins sites Aonde eu consigo ver
  • 00:27:29
    Quais qual o histórico de execução das
  • 00:27:31
    minhas queries Quais são as queries que
  • 00:27:33
    estão mais rodando posso criar um
  • 00:27:34
    dashboard em cima disso Quais são as
  • 00:27:36
    queries que estão demorando mais tempo
  • 00:27:38
    por para que para que eu possa otimizar
  • 00:27:40
    a query né porque lembrando a query não
  • 00:27:42
    se otimiza sozinha Apesar de que o o skl
  • 00:27:46
    server tenha toda essa característica a
  • 00:27:48
    query não vai se otimizar sozinha Beleza
  • 00:27:51
    então por fim a gente tem aí também o
  • 00:27:53
    monitoramento de capacidade né então ele
  • 00:27:56
    é um software um app que você instala
  • 00:27:58
    dentro do Power Bi você consegue
  • 00:28:01
    monitorar toda a capacidade do date
  • 00:28:03
    Warehouse então É bem interessante o que
  • 00:28:05
    que tá sendo consumido O que que tá tá
  • 00:28:08
    deixando de ser consumido é bem legal tá
  • 00:28:10
    depois também vou falar especificamente
  • 00:28:12
    desse cara e finalmente dentro do
  • 00:28:15
    Microsoft fap que nós temos o Hub de
  • 00:28:17
    monitoramento mas ainda não está
  • 00:28:19
    disponível pro pro sinaps date Warehouse
  • 00:28:22
    tá então muito em breve eles devem
  • 00:28:25
    soltar alguma coisa eu não sei Qual é a
  • 00:28:27
    previsão beleza mas a gente já tem todas
  • 00:28:30
    essas ferramentas aqui que a gente
  • 00:28:31
    consegue monitorar o nosso DW né Porque
  • 00:28:34
    por mais que ah ele se autotune a gente
  • 00:28:38
    não consegue prever queries ainda ruins
  • 00:28:43
    né Beleza então vamos aqui arquitetura
  • 00:28:47
    end to end quando eu venho falar de date
  • 00:28:49
    Warehouse né ISO Aqui também tá
  • 00:28:50
    documentado nesse link aí como vocês
  • 00:28:52
    podem ver sempre que eu sempre que eu
  • 00:28:54
    tenho a minha data S Independente se é
  • 00:28:56
    Dad estruturado não estruturados eu
  • 00:28:58
    posso carregar eles para dentro do meu
  • 00:29:00
    Death Warehouse com todos aqueles tipos
  • 00:29:02
    de de de ingestão que eu falei
  • 00:29:04
    anteriormente né e dentro do meu datare
  • 00:29:07
    House eu vou transformar as minhas
  • 00:29:08
    informações por meio de procedures né
  • 00:29:10
    então o Fabric ele te dá a possibilidade
  • 00:29:13
    de trabalhar com a melhor solução que
  • 00:29:16
    você quiser Beleza então no caso do
  • 00:29:18
    dware house a gente vai trabalhar com
  • 00:29:20
    tsql Então como que a gente processa
  • 00:29:22
    dados com tsql Storage procedures para
  • 00:29:25
    que para que eu construa as minhas as
  • 00:29:27
    dimensões construo as minhas fatas e eu
  • 00:29:29
    entrego paraa minha camada de de
  • 00:29:32
    visualização né ou a própria camada de
  • 00:29:34
    consultas adck ali no próprio dhouse né
  • 00:29:37
    lembrando galera tudo que eu escrever
  • 00:29:39
    dentro do Warehouse ele vai ser
  • 00:29:42
    automaticamente eh importado para dentro
  • 00:29:45
    do nosso modelo semântico Para quê Para
  • 00:29:48
    que o Power bi conecte direto no dado
  • 00:29:50
    que está vendo no formato de Delta Lake
  • 00:29:53
    e utiliza feature Direct Lake dentro
  • 00:29:55
    desse dado então isso aqui é é
  • 00:29:57
    sensacional não precisa usar ah Import
  • 00:29:59
    ou ah usa o Direct query não galera isso
  • 00:30:02
    aqui é é diferente Beleza deixa eu ver o
  • 00:30:05
    que que eu tenho mais aqui para falar
  • 00:30:07
    para vocês no futuro isso aqui tá na
  • 00:30:11
    documentação tá galera eh vai ter vai
  • 00:30:14
    ter opções de migração para o dedicated
  • 00:30:16
    picle pool tá isso aqui foi apresentado
  • 00:30:18
    no no último Microsoft build beleza e se
  • 00:30:22
    você quer saber o que que tem de novo
  • 00:30:25
    você pode clicar dentro dessa
  • 00:30:26
    documentação aqui ó o What is the new in
  • 00:30:30
    planet for CS warehousing Microsoft
  • 00:30:33
    Fabric tem algumas coisinhas bem legais
  • 00:30:35
    lá tá
  • 00:30:37
    ã avançando aqui tem alguns recursos
  • 00:30:41
    online mais uma vez falar para vocês
  • 00:30:43
    galera eh se você é uma pessoa curiosa
  • 00:30:46
    lá dentro do Microsoft fabc tem diversos
  • 00:30:50
    links então separei alguns aqui tá Vou
  • 00:30:53
    compartilhar esses slides com vocês num
  • 00:30:55
    link que eu vou deixar aqui no vídeo
  • 00:30:57
    vídeo Beleza então se vocês quiserem eh
  • 00:31:01
    pegar esses slides para vocês foi um
  • 00:31:03
    slide que eu preparei aqui para algumas
  • 00:31:04
    apresentações relacionadas a isso né
  • 00:31:07
    então vamos pra demo né Não adianta eu
  • 00:31:09
    falar aqui 30 minutos vou fazer 10
  • 00:31:11
    minutinhos de demo aí para vocês só pra
  • 00:31:14
    gente não
  • 00:31:15
    eh não ficar sem ver o produto né Então
  • 00:31:19
    deixa eu fechar isso aqui deixa eu abrir
  • 00:31:23
    aqui o meu sinaps deware House então tô
  • 00:31:27
    dentro aqui do meu Microsoft Fabric né
  • 00:31:29
    Ah assim como vocês podem ver deixa eu
  • 00:31:33
    botar meu rostinho para cá legal eu tô
  • 00:31:36
    aqui na minha parte de date Warehouse né
  • 00:31:39
    então ele já vai abrir essa essa telinha
  • 00:31:41
    aqui pra gente do date wareh posso criar
  • 00:31:44
    aqui posso usar um data um dataset de
  • 00:31:47
    exemplo posso criar um pipeliner Posso
  • 00:31:50
    trazer dados aqui utilizando dataflow
  • 00:31:53
    genu mas eu vou criar aqui um dataware
  • 00:31:55
    House bem simples beleza vou chamar esse
  • 00:31:58
    cara aqui de YouTube
  • 00:32:01
    ah
  • 00:32:03
    2024 data w House beleza data Ware House
  • 00:32:08
    legal
  • 00:32:10
    ã por algum motivo eu já tenho esse DW
  • 00:32:14
    aqui eu já sei o que que aconteceu
  • 00:32:16
    provavelmente eu não apaguei esse
  • 00:32:17
    carinha aqui deixa eu só fazer uma coisa
  • 00:32:21
    aqui me deem um
  • 00:32:25
    segundo vamos lá
  • 00:32:27
    ah
  • 00:32:29
    workspaces
  • 00:32:31
    ah deixa eu dar uma renderizada aqui na
  • 00:32:34
    tela porque eu acho que ele tá meio que
  • 00:32:37
    bugando deixa eu dar um refresh aqui na
  • 00:32:39
    tela vamos ver se ele vai reclamar legal
  • 00:32:42
    vou criar um novo dware House vou chamar
  • 00:32:46
    ele aqui de
  • 00:32:50
    YouTube 2024 data
  • 00:32:54
    Warehouse vou criar esse cara beleza
  • 00:32:57
    criou era só porque eu tava com a tela
  • 00:32:58
    aberta eu tava fazendo alguns testes
  • 00:33:00
    aqui antes de gravar esse vídeo E aí ele
  • 00:33:03
    meio que Manteve o Cash ali então é
  • 00:33:05
    sempre bom ISO que uma página Web né
  • 00:33:06
    galera então é sempre bom a gente dar o
  • 00:33:08
    refresh legal então olha só que
  • 00:33:10
    interessante tô criando aqui o meu data
  • 00:33:14
    Warehouse Lembrando que eu já tinha um
  • 00:33:15
    um data Lake House dentro deixa eu
  • 00:33:18
    enquanto ele cria aqui o meu data
  • 00:33:19
    Warehouse é muito rápido tá não demora
  • 00:33:21
    tá galera eu
  • 00:33:23
    vou eu vou voltar aqui deixa eu só fazer
  • 00:33:27
    uma coisa aqui que tá me
  • 00:33:32
    atrapalhando só fazer uma coisa aqui que
  • 00:33:34
    está me atrapalhando Ah legal tá
  • 00:33:37
    atrapalhando minha visualização percebam
  • 00:33:39
    ele já criou o deware house rapidão tá
  • 00:33:42
    Não precisei provisionar Não precisei
  • 00:33:43
    dizer qual o tamanho do cluster que eu
  • 00:33:45
    quero eu não digo nada eu só digo qual o
  • 00:33:47
    date Warehouse que eu quero e aí ele já
  • 00:33:49
    traz aqui pra gente ó os esquemas a
  • 00:33:51
    parte de segurança a parte de queries E
  • 00:33:54
    aí eu vou criar o meu Day House aqui a
  • 00:33:56
    parte de tsql Beleza então como que eu
  • 00:34:00
    vou criar esse cara vou criar a partir
  • 00:34:01
    de tsql então ele já vai abrir aqui para
  • 00:34:04
    mim ele já abre a opçãoincorreta
  • 00:34:27
    da Microsoft PR de vendas e tudo mais
  • 00:34:30
    vou criar duas tabelinhas aqui a minha
  • 00:34:32
    tabela de Fato e a minha tabela dimensão
  • 00:34:37
    beleza dimensão de cidades tenho duas
  • 00:34:39
    tabelas dentro do meu date Ware housee
  • 00:34:41
    tô criando esse cara
  • 00:34:43
    ah beleza deixa eu ver aqui do que que
  • 00:34:46
    ele tá reclamando o o esima deve estar
  • 00:34:50
    tal tal tal Ah beleza deixa eu só criar
  • 00:34:52
    meu esquema
  • 00:34:54
    aqui deixa eu comentar esse código e
  • 00:34:59
    deixa eu rodar todas as minha as minhas
  • 00:35:03
    duas tabelas
  • 00:35:05
    novamente legal rodou ele já vai
  • 00:35:08
    renderizar o meu esquema aqui eu criei
  • 00:35:09
    um esquema chamado WWI eu já tenho duas
  • 00:35:12
    tabelinhas aqui pra gente começar a
  • 00:35:14
    nossa brincadeira né Se eu der um
  • 00:35:17
    refresh vamos lá ele deve est
  • 00:35:19
    atualizando os metadados por debaixo dos
  • 00:35:21
    panos Beleza já atualizou então ele
  • 00:35:23
    mostra aquela mensagem de erro ali só
  • 00:35:25
    porque ele não deu tempo de Render a
  • 00:35:27
    tela aqui tá galera porque eu já cliquei
  • 00:35:28
    muito rápido Beleza então tá aqui ó
  • 00:35:30
    minhas duas tabelas elas estão vazias e
  • 00:35:33
    eu posso simplesmente vir aqui na minha
  • 00:35:35
    query galera uma feature interessante e
  • 00:35:37
    renomear posso chamar esse cara aqui de
  • 00:35:39
    Create table por exemplo Create table
  • 00:35:43
    vamos lá que eu não quero perder muito
  • 00:35:45
    tempo aqui com vocês não beleza uma vez
  • 00:35:47
    que minhas tabelas estão criadas que que
  • 00:35:49
    eu preciso fazer galera preciso Popular
  • 00:35:51
    essas tabelas Então posso Popular elas
  • 00:35:53
    de qualquer outras maneira de qualquer
  • 00:35:55
    maneira utilizando data inj
  • 00:35:58
    aqui eu vou utizar o
  • 00:36:00
    c tabela tal pegando diretamente de um
  • 00:36:04
    Storage que está remoto aí na internet
  • 00:36:07
    Beleza vou executar aqui minha
  • 00:36:10
    query ele vai copiar os dados para cá
  • 00:36:13
    para dentro da minha
  • 00:36:25
    tabela muito beleza tá copiando aí
  • 00:36:30
    copiando a as nossas tabelas né tabela
  • 00:36:34
    fato e tabela dimensão percebam aqui
  • 00:36:37
    galera que a gente tem um um um um uma
  • 00:36:42
    interface gráfica bem user friendly né
  • 00:36:44
    onde eu tenho minhas queries onde eu
  • 00:36:46
    tenho uma parte de segurança como se
  • 00:36:48
    fosse um ssms né então e ele tá
  • 00:36:53
    demorando um pouquinho aqui para inserir
  • 00:36:54
    todos esses dados não são não é muita
  • 00:36:56
    informação provavelmente esse Storage
  • 00:36:58
    deve est separado aí do do meu workspace
  • 00:37:02
    que está aqui no Brasil beleza mas já já
  • 00:37:04
    eles termina não creio que deve passar
  • 00:37:06
    de mais de um minuto aí beleza enquanto
  • 00:37:10
    isso que que eu vou fazer uma vez que eu
  • 00:37:12
    tiver as minhas tabelas criadas galera o
  • 00:37:15
    que que eu posso fazer eu Posso
  • 00:37:17
    processar a informação agregar os dados
  • 00:37:20
    eu posso trabalhar o processamento dessa
  • 00:37:22
    informação eu já tenho duas tabelas
  • 00:37:24
    criadas o que que eu vou fazer eu vou
  • 00:37:26
    criar um história de procedur aqui para
  • 00:37:28
    fazer um processamento simples pra gente
  • 00:37:31
    então eu quero criar uma tabela agregada
  • 00:37:34
    ah de vendas por cidade basicamente eu
  • 00:37:38
    vou criar uma tabela vendas por cidade
  • 00:37:41
    né bem simples e depois vou fazer um
  • 00:37:44
    insert nessa tabela fazendo um um um
  • 00:37:47
    join entre a minha Fato né A minha fato
  • 00:37:51
    de vendas e a minha dimensão de cidade
  • 00:37:54
    agrupada e tal agrupado por por cidade
  • 00:37:57
    agrupado por província né então tô
  • 00:38:00
    criando essa procedure Lembrando aqui
  • 00:38:02
    Opa deixa eu ver o que que eu cliquei de
  • 00:38:04
    errado aqui beleza só porque eu tava
  • 00:38:06
    clicado ali em cima do em cima do
  • 00:38:10
    a do artefato ali então beleza criei
  • 00:38:13
    minha procedur legal
  • 00:38:16
    ã deixa eu dar um refresh aqui na parte
  • 00:38:19
    de Storage proceder lembrando isso aqui
  • 00:38:21
    é um date Warehouse normal consigo criar
  • 00:38:23
    View consigo criar procedes consigo
  • 00:38:25
    criar usuários consigo fazer várias
  • 00:38:27
    coisas aqui dentro tá então ó minha
  • 00:38:29
    procedur já está aqui vamos ver se ele
  • 00:38:32
    terminou deixa eu deixa eu renomear esse
  • 00:38:34
    cara aqui
  • 00:38:38
    eh Create
  • 00:38:41
    a Grey Gate proceder Vou Chamar esse
  • 00:38:46
    cara assim a Grey Gate legal e deixa eu
  • 00:38:50
    voltar aqui paraa minha query e ele
  • 00:38:51
    finalizou a carga ó Demorou 1 minuto aí
  • 00:38:54
    e 51 segundos quase 2 minutos para fazer
  • 00:38:57
    a carga de dados aqui Provavelmente
  • 00:38:59
    porque o dado Tá longe do meu Storage
  • 00:39:01
    Beleza vou renomear esse cara aqui
  • 00:39:02
    também já para para eu manter o
  • 00:39:04
    histórico das minhas queries Vou Chamar
  • 00:39:06
    esse cara aqui
  • 00:39:08
    de data load E aí depois galera se vocês
  • 00:39:12
    quiserem esses scripts eu mando todos
  • 00:39:13
    eles para vocês Beleza então fiz aqui o
  • 00:39:16
    meu data load show de bola se eu clicar
  • 00:39:19
    aqui na minha tabela ele ele vai me
  • 00:39:22
    mostrar graficamente aqui vai renderizar
  • 00:39:24
    a tabela e vai me mostrar aqui as
  • 00:39:26
    informações estão dentro dessa tabela de
  • 00:39:28
    dimensão de cidade tá dimensões e fatos
  • 00:39:30
    date Ware housee e a gente tem aqui a
  • 00:39:33
    minha Fata Eu Posso rodar aqui um select
  • 00:39:36
    top eu posso fazer o clone dessa tabela
  • 00:39:38
    É bem interessante tá já e e e vou falar
  • 00:39:42
    um pouquinho de clone também aqui legal
  • 00:39:45
    então beleza galera eu tenho duas duas
  • 00:39:48
    tabelas o que que eu quero fazer galera
  • 00:39:51
    eu quero incluir uma informação externa
  • 00:39:54
    para que eu consiga processar junto com
  • 00:39:56
    com essas minhas duas tabelas então eu
  • 00:39:58
    quero buscar uma dimensão de clientes
  • 00:40:00
    que está onde tá dentro do Lake House
  • 00:40:04
    Deixa eu só fechar aqui aqui em cima a
  • 00:40:07
    gente tem um botão para que a gente
  • 00:40:08
    consiga adicionar os Day to house né
  • 00:40:10
    então uma vez que eu adiciono tudo que
  • 00:40:12
    tiver dentro do meu workspace ele vai
  • 00:40:14
    listar aqui para mim então lembra lá da
  • 00:40:16
    última aula onde a gente tem um um um
  • 00:40:19
    Lake House com algumas informações de
  • 00:40:22
    clientes Então vou selecionar esse cara
  • 00:40:24
    vou confirmar ess Essa é a feature que
  • 00:40:27
    faz com que a gente consiga fazer o
  • 00:40:29
    cross query dware House Beleza então Ó
  • 00:40:32
    que que ele fez aqui para mim mais para
  • 00:40:33
    baixo ele adicionou o meu outro Lake
  • 00:40:37
    house né E aí depois vou falar qual que
  • 00:40:39
    é a diferença entre dware House e Lake
  • 00:40:41
    House e ele tem aqui os os meus esquemas
  • 00:40:44
    ó Então dentro do meu esquema
  • 00:40:46
    debo eu tenho aqui a minha tabela de
  • 00:40:48
    clientes Agora eu quero fazer um um um
  • 00:40:50
    Cross join entre essas essas duas
  • 00:40:54
    databases então eu vou rodar um novo
  • 00:40:55
    script aqui eu já tenho basicamente um
  • 00:40:59
    script pronto aqui né deixa eu pegar
  • 00:41:03
    esse cara aonde o que eu consigo fazer
  • 00:41:05
    galera eu consigo fazer um select fazer
  • 00:41:09
    uma uma soma aqui na quantidade de
  • 00:41:11
    vendas né da minha tabela fato com o
  • 00:41:14
    join na minha dimensão de clientes então
  • 00:41:17
    basicamente o que que ele pega aqui ele
  • 00:41:18
    pega Qual que é o Lake House Qual que é
  • 00:41:21
    o esquema e qual que é o a tabela
  • 00:41:24
    destino Beleza vou agrupar aqui por por
  • 00:41:26
    item por descrição e por cliente beleza
  • 00:41:29
    rodei essa query lembrando falando de
  • 00:41:32
    performance galera ele tá rodando o Code
  • 00:41:34
    aqui por que que ele tá rodando code
  • 00:41:35
    porque é a primeira vez que eu tô
  • 00:41:37
    executando essa query por debaixo dos
  • 00:41:39
    panos as minhas estatísticas estão sendo
  • 00:41:42
    criadas e estão sendo executadas
  • 00:41:45
    lembrando eu tô agregando duas tabelas
  • 00:41:48
    estão em dware houses diferentes uma
  • 00:41:52
    está dentro do Lake House e a outra está
  • 00:41:54
    aqui dentro do meu deware House demorou
  • 00:41:56
    ali aproximadamente 25 segundos para me
  • 00:41:58
    retornar uma informação interessante
  • 00:42:00
    Primeira opção legal aqui a opção da
  • 00:42:02
    gente fazer o cross join e entre dware
  • 00:42:05
    houses e Lake House isso aqui é bem
  • 00:42:07
    interessante se eu rodar esse cara de
  • 00:42:09
    novo percebam 25 segundos Esse cara tem
  • 00:42:11
    que tá lá dentro da memória ele tem que
  • 00:42:13
    ele tem que devolver a informação muito
  • 00:42:15
    mais rápido 3 segundos segunda execução
  • 00:42:17
    foi pra memória uma quantidade de dados
  • 00:42:19
    pequeno ficou só em memória rodei de
  • 00:42:21
    novo vamos lá 3 segundos ele eu acho
  • 00:42:26
    acho que ele não consegue otimizar mais
  • 00:42:27
    do que isso não beleza 3 segundos boa
  • 00:42:31
    então galera uma vez que eu fiz isso em
  • 00:42:33
    vez como esse dado está lá no meu Lake
  • 00:42:36
    House eu posso querer utilizar aqui ele
  • 00:42:37
    dentro do meu dware house né então o que
  • 00:42:40
    que eu posso fazer antes de eu fazer
  • 00:42:42
    algo aqui eu vou só renomear esse cara
  • 00:42:44
    para cross query Cross data Warehouse
  • 00:42:48
    query beleza Cross data we House query
  • 00:42:55
    vocês me peçam depois essas queries vou
  • 00:42:57
    vou compartilhar todas elas com vocês e
  • 00:42:59
    aí por fim galera a última coisa que eu
  • 00:43:01
    queria mostrar aqui para vocês de
  • 00:43:02
    interessante é que legal o dado tá lá
  • 00:43:05
    dentro do Lake House como que eu trago
  • 00:43:07
    ele para cá porque o dware house eu tô
  • 00:43:10
    inserindo as informações dentro do do
  • 00:43:12
    meu dware house no Lake House a
  • 00:43:14
    informação fica só na camada de Lake
  • 00:43:16
    lembrando eu tô consultando uma tabela
  • 00:43:18
    que foi criada lá no Lake House Beleza
  • 00:43:21
    então eu quero que essa tabela faça
  • 00:43:23
    parte do meu datare House então o que
  • 00:43:25
    que eu posso fazer aqui galera eu posso
  • 00:43:27
    criar uma
  • 00:43:29
    tabela a partir de um select então eu
  • 00:43:32
    posso utilizar o comando que a gente
  • 00:43:33
    chama de setas Create table as select
  • 00:43:37
    então eu tô trazendo uma informação de
  • 00:43:39
    lá de dentro do meu Lake House para cá
  • 00:43:42
    para dentro da minha para cá para dentro
  • 00:43:44
    do meu dware House a YouTube 2024 Beleza
  • 00:43:48
    então setas é um comando bem rápido aí
  • 00:43:52
    para se executar Isso aqui é uma
  • 00:43:53
    dimensão que não é muito grande então
  • 00:43:55
    Basic eu tô tirando o dado do Lake House
  • 00:43:57
    e levando ele para dentro do meu deware
  • 00:43:59
    House Beleza então um outro ponto
  • 00:44:02
    interessante aqui que eu queria trazer
  • 00:44:04
    para vocês galera é sobre aquela aquela
  • 00:44:07
    Storage proced que eu criei né Deixa eu
  • 00:44:11
    só renomear esse cara vou chamar ele
  • 00:44:13
    aqui de setas vou renomear e vou criar a
  • 00:44:18
    última query aqui para quê para executar
  • 00:44:21
    aquela procedur que eu tinha criado né E
  • 00:44:23
    depois o que que eu posso fazer galera
  • 00:44:26
    isso aqui tudo com o data Factory tá E
  • 00:44:28
    aí eu posso mostrar isso aqui
  • 00:44:29
    automatizado para vocês posteriormente
  • 00:44:31
    quando a gente for falar de data Factory
  • 00:44:33
    na hora de for construir o nosso DW
  • 00:44:35
    então rodei aqui a minha proc ele vai
  • 00:44:38
    executar o meu select Popular a minha
  • 00:44:41
    tabela de de agregadas por por por
  • 00:44:44
    cidade né então ele tá rodando aí a
  • 00:44:48
    minha setas rodou também se eu voltar
  • 00:44:50
    para cá para dentro do meu dat Warehouse
  • 00:44:53
    a minha tabela já tá aqui ó beleza rodou
  • 00:44:57
    executou Se eu olhar aqui a minha
  • 00:45:00
    tabelinha que que ele fo que que ele fez
  • 00:45:02
    ele criou uma tabela mais e essa tabela
  • 00:45:05
    Mais qual que é é a minha tabela
  • 00:45:07
    agregada de vendas por cidade beleza
  • 00:45:10
    cliquei aqui dentro desse cara ele vai
  • 00:45:11
    me mostrar todo o histórico de vendas
  • 00:45:13
    por cidade Quem foi o cliente que que
  • 00:45:15
    vendeu mais qual foi a cidade na verdade
  • 00:45:18
    a venda por cidade não por cliente né
  • 00:45:20
    Qual foi a cidade que vendeu mais então
  • 00:45:23
    última coisa aqui galera acho que esse
  • 00:45:25
    vídeo já foi bem grande espero que vocês
  • 00:45:27
    tenham paciência que não dá para falar
  • 00:45:28
    tudo assim eh
  • 00:45:30
    eh sem ter uma sequência de de de de
  • 00:45:34
    pensamento uma sequência lógica né então
  • 00:45:37
    venho aqui no meu modelo então lembra
  • 00:45:39
    que eu falei para vocês tudo que eu
  • 00:45:41
    criar dentro do meu date Ware housee o
  • 00:45:43
    que que ele vai fazer ele vai jogar pro
  • 00:45:46
    meu modelo semântico Então dentro do
  • 00:45:48
    modelo semântico ele já separou aqui as
  • 00:45:50
    minhas dimensões ó dimensão de cidade de
  • 00:45:53
    cliente e eu tenho aqui a minha tabela
  • 00:45:56
    fato vou trazer esses caras para cá E aí
  • 00:45:59
    o que que eu posso fazer para facilitar
  • 00:46:00
    na minha modelagem eu posso pegar aqui a
  • 00:46:03
    minha chave da
  • 00:46:04
    cidade arrastar ela para cá para dentro
  • 00:46:07
    da dimensão de cidade e eu quero
  • 00:46:10
    utilizar a integridade referencial né
  • 00:46:12
    Isso é muito ótimo aí pra performance do
  • 00:46:15
    do nosso modelo né lembrando isso aqui
  • 00:46:17
    cai na prova de certificação beleza
  • 00:46:20
    galera várias coisas que eu falei aqui
  • 00:46:21
    cai na prova de certificação tá e eu
  • 00:46:23
    também vou pegar aqui a chave do cliente
  • 00:46:26
    para fazer
  • 00:46:28
    a o relacionamento com a minha tabela de
  • 00:46:32
    dimensões de clientes Beleza então fiz
  • 00:46:35
    aqui assumir uma integridade referencial
  • 00:46:37
    né Para quê Para facilitar na
  • 00:46:39
    performance e o último passo aqui galera
  • 00:46:42
    vai ser eu criar um report apontando
  • 00:46:45
    para esses dados do meu dware House
  • 00:46:47
    Beleza então vamos lá vou criar um
  • 00:46:50
    report bem rapidão aqui para vocês
  • 00:46:52
    galera Então vou pegar aqui a minha
  • 00:46:53
    tabela de fato você selecionar aqui qual
  • 00:46:57
    foi o lucro Cadê a minha a a meu tá aqui
  • 00:47:03
    lucro e eu quero saber qual foi o lucro
  • 00:47:05
    por por território Então vamos saber
  • 00:47:09
    aqui qual foi o lucro por
  • 00:47:11
    território legal outra coisa que eu
  • 00:47:14
    quero fazer aqui galera eu quero pegar
  • 00:47:17
    deixa eu trazer esse carinha para
  • 00:47:20
    cá deixa eu arrumar esse carinha aqui eu
  • 00:47:23
    não sou um cara de report Tá mas vou
  • 00:47:25
    trazer esse aqui para vocês que é bem
  • 00:47:26
    interessante Então eu quero trazer
  • 00:47:28
    também galera o meu
  • 00:47:32
    lucro
  • 00:47:34
    beleza por território e por província
  • 00:47:39
    excluindo as taxas legal olha lá que
  • 00:47:44
    interessante reporte esse aqui é o meu
  • 00:47:47
    lucro Total posso só reordenar esse cara
  • 00:47:50
    aqui para o
  • 00:47:51
    território beleza aí aqui ele vai me
  • 00:47:54
    mostrar o total e Qual foi o total
  • 00:47:56
    excluir nas taxas e por fim eu posso
  • 00:47:58
    criar um um um mapinha aqui bem
  • 00:48:02
    interessante para mostrar qual foi o meu
  • 00:48:05
    lucro deixa eu ver aqui cadê tal tal tal
  • 00:48:09
    o lucro por território Então vou pegar
  • 00:48:11
    pro província nos Estados Unidos né
  • 00:48:14
    então ele vai renderizar o mapa ali para
  • 00:48:17
    mim deixa eu ver se seesse não eu acho
  • 00:48:19
    que esse mapa aqui não tá legal deixa eu
  • 00:48:21
    pegar um outro tipo de mapa deixa eu
  • 00:48:23
    pegar esse tipo de mapa Ah esse aqui já
  • 00:48:25
    ficou mais interessante aqui pra gente
  • 00:48:26
    ter uma pra gente visualizar as
  • 00:48:29
    informações legal então criei o meu
  • 00:48:31
    report Vou salvar esse cara Vou Chamar
  • 00:48:34
    esse cara aqui de
  • 00:48:35
    Sales anális salvei essa informação
  • 00:48:39
    pronto galera minha solução fim a fim tá
  • 00:48:42
    aí esse dado está essa esse esse
  • 00:48:45
    dashboard está esse relatório está
  • 00:48:48
    consultando as informações que está
  • 00:48:50
    dentro do meu padrão Delta né E um ponto
  • 00:48:53
    interessante aqui galera deixa eu
  • 00:48:54
    mostrar aqui para vocês
  • 00:48:56
    vocês lembram lá do meu un Lake né então
  • 00:49:00
    eu tenho aqui o meu YouTube 2024 un Lake
  • 00:49:03
    data Explorer beleza tenho aqui o meu
  • 00:49:08
    YouTube eu tenho aqui o meu Lake House
  • 00:49:10
    deixa eu clicar aqui nesse cara e pedir
  • 00:49:12
    para ele
  • 00:49:14
    sincronizar vamos
  • 00:49:17
    lá sincron sincronizou já trouxe meu
  • 00:49:20
    deware
  • 00:49:22
    housee vamos lá tem aqui as minhas
  • 00:49:26
    tabelas e dentro das minhas tabelas no
  • 00:49:29
    esquema
  • 00:49:30
    WWI que que eu vou ter todas as minhas
  • 00:49:32
    tabelas com o arquivo Delta beleza e o e
  • 00:49:37
    o arquivo Parque aqui dentro também
  • 00:49:39
    legal então galera falei demais Esse
  • 00:49:41
    vídeo foi longo longo longo foi bem foi
  • 00:49:45
    bem longo espero que vocês tenham
  • 00:49:47
    gostado dier que eu dei um overview
  • 00:49:49
    Geral do Day to a house eu espero que
  • 00:49:51
    vocês estejam aqui até o final desse
  • 00:49:53
    vídeo né Espero que vocês tenham gostado
  • 00:49:56
    Ah vou começar a falar de cada features
  • 00:49:59
    separado Você viu que a gente eu dei um
  • 00:50:01
    overview bem geralzão então se gostou
  • 00:50:04
    galera solta o like aí e deixa nos
  • 00:50:07
    comentários aí tudo que vocês querem
  • 00:50:09
    saber sobre esse produto um produto
  • 00:50:11
    sensacional performance aqui vai ser eh
  • 00:50:15
    coisa de outro mundo vamos dizer assim
  • 00:50:17
    né porque a gente tem uma solução Bem
  • 00:50:20
    interessante para trabalhar com date
  • 00:50:21
    Warehouse dentro do Microsoft Fabric
  • 00:50:24
    legal deixa seu like se não é inscrito
  • 00:50:26
    se inscreve no canal e compartilha esse
  • 00:50:29
    vídeo aí com seus amigos galera muito em
  • 00:50:31
    breve a gente tá falando de mais coisas
  • 00:50:33
    aí do Microsoft Fabric Bacana Então
  • 00:50:36
    muito obrigado por estarem todos aqui
  • 00:50:38
    vejo vocês na próxima um abraço a todos
Etiquetas
  • Data Warehousing
  • Microsoft Fabric
  • Synapse Analytics
  • Delta Lake
  • Computação Sem Servidor
  • Azure
  • SQL
  • Análise de Dados