Microsoft Graph e Powershell

Gostaria de fazer chamadas para a API do Microsoft Graph utilizando Powershell? Não existe SDK para ele, mas você pode facilmente fazer esta integração chamando a Rest Api diretamente, utilizando Invoke-RestMethod.

Abaixo um exemplo (listar usuários do Azure AD). São duas chamadas:

  • Fazer a autenticação e guardar o token (lembrando que sua aplicação precisa estar registrada, e com as permissões atribuidas. No caso deste exemplo, estou setando estas permissões do tipo “Aplicativo”, passando ClientId, ClientSecret e TenantId).
  • Fazer a chamada para a API desejada (https://graph.microsoft.com/v1.0/users), passando no Header da mesma o token (Bearer).
$clientId = "5e3543b8-8ccd-4c6b-ada1-ef42dc536239"
$clientSecret = "HwQfqX/8mb2=9lLvGFmFTqc4huMpMG/:"
$tenantId = "367d2083-e69a-4817-8af0-b25958285733"

$body = "grant_type=client_credentials&scope=https://graph.microsoft.com/.default&client_id=$clientId&client_secret=$clientSecret"  

$authUrl = "https://login.microsoftonline.com/$tenantId/oauth2/v2.0/token"


Write-Output "Autenticando em $authUrl"

$token = Invoke-RestMethod -Method Post -Uri $authUrl -ContentType "application/x-www-form-urlencoded" -body $body

Write-Host "Token: " $token.access_token

$usersUrl = "https://graph.microsoft.com/v1.0/users"
$header = @{
    Authorization = "Bearer " + $token.access_token 
}


$users = Invoke-RestMethod -Method Get -Uri $usersUrl -Headers $header -ContentType "application/json"

foreach ($user in $users.value)
{
    Write-Host $user.displayName "<"$user.Mail">"
}

É isso. Barbada!

Obviamente os valores de ClientId, ClientSecret e TenantId são fakes 🙂

Git-to-Git: Migração Manual de Repositórios

Recentemente tive a necessidade de fazer uma migração de repositórios Git na empresa em que eu trabalho (TFS Git para Gitlab). Apesar de as ferramentas atuais já fornecerem algumas funcionalidades para fazer isso de maneira intuitiva (pela UI, por exemplo), precisei fazer isso manualmente.

A migração Git-to-Git é extremamente simples (ao contrário do cenário TFS (TFVC) para Git). Basta clonar (mirror) o repositório origem, remover a referência antiga(origin), adicionar a nova e fazer o pull.

Para exemplificar, fiz uma migração de Gitlab para AzureDevOps. O procedimento abaixo migra todos os branches, histórico (commits) e tags:

Repositório Origem (Gitlab): https://gitlab.com/Marcel_Goldhardt/test1.git
Repositório Destino (Azure DevOps): https://dev.azure.com/ocaradoazure/migration/_git/migration

git clone --mirror https://gitlab.dell.com/Marcel_Goldhardt/test1.git .
git fetch --tags --all
git remote rm origin
git remote add origin https://dev.azure.com/ocaradoazure/migration/_git/migration
git push origin --all
git push --tags
Origem: Repositório no Gitlab
Destino: Repositório no Azure DevOps

Application Insights – Monitoramento de Endpoint

Já precisou fazer o health-check do endpoint da sua aplicação ou serviço, e ser notificado caso haja problemas? Há pouco tempo atrás, a feature de monitoramento de Endpoints era própria da WebApp no Azure. Na semana passada precisei configurar, e não a encontrei no local que eu costumava. Uma pesquisada rápida e descobri que essa feature foi movida para o Application Insights, atuando de maneira independente da WebApp. Para quem não conhecia/conhece o recurso: ele permite pings (http requests) periódicos de maneira externa a aplicação, a partir de diversas regiões do mundo. Obviamente, também permite a configuração de notificações, seja por e-mail ou webhooks.

A configuração é simples:

  • Crie o recurso Application Insights, caso não tenha feito juntamente com  a criação da WebApp. Para este propósito (http request), utilizei a opção “General”:

Azure Monitoramento de Endpoints Application Insights 1

  • Assim que  estiver que o AppInsights estiver rodando, adicione um teste (“Availability” -> “Create Test”):

Azure Monitoramento de Endpoints Application Insights 2

  • Escolha um nome e adicione a URL a ser monitorada (no meu caso, a URL root da aplicação). Deixei como freqüencia de teste, 5 minutos. Escolhi localidades aleatórias (obviamente isso depende das suas necessidades de negócio): Brasil, Sydney, Moscou e San Jose:

Azure Monitoramento de Endpoints Application Insights 3

  • Critério de sucesso: utilizei o padrão (retorno de um http 200), mas poderia inclusive validar o conteúdo de retorno desta chamada.

Azure Monitoramento de Endpoints Application Insights 4

  • Alertas: diminuí o treshold (se falhar em mais de 2 localidades, dispara a trigger). Por padrão, será enviado um e-mail para o administrador da subscription. Se eu quisesse algo mais personalizado, poderia configurar um webhook (e receber uma ligação de voz com detalhes do alerta, conforme explico neste post):

Azure Monitoramento de Endpoints Application Insights 5

  • Criado o teste, é só deixar rodando:

Azure Monitoramento de Endpoints Application Insights 6

  • Para fins de validação, parei e aplicação e aguardei os erros refletirem no dashboard:

Azure Monitoramento de Endpoints Application Insights 7

Extremamente fácil e útil!

Até a próxima!

[ ]´s

 

SQL Saturday 609 – Caxias do Sul/RS

Mais uma vez o interior dando show na realização de eventos para a comunidade de TI. No último sábado, 24 de junho, aconteceu na cidade de Caxias do Sul/RS o SQL Saturday 609. Contando com mais de 400 inscritos, este evento ocorreu nas dependências de Uniftec, tendo sua organização liderada pelo MVP Rodrigo Crespi e sua equipe nota 10. Simplesmente impecável! Nada menos que 18 palestras, divididas em 3 trilhas: BI & Big Data, Database Administration e Database Development.

SQL Saturday 609 Caxias do Sul Marcel Goldhardt e MVP Rafael FelipeTive a oportunidade de palestrar juntamente com o MVP Rafael Felipe, líder da Microsoft Community of Practices da Dell. Apresentamos a palestra Remote Desktop Services no Microsoft Azure. Tentamos mostrar para o público como um DBA pode tirar proveito da virtualização com RDS, desde o processo de desenvolvimento de uma aplicação até a publicação das suas ferramentas de adminitração de banco, em produção.

Existe uma coisa impagável neste tipo de evento: o contato com outros profissionais, o compartilhamento de suas experiências do dia-a-dia, tanto técnicas quanto de carreira. Como por exemplo, conversar por uma hora com o monstro Marcelo Fernandes sobre sua mudança para Berlim, seus desafios pessoais e profissionais enfrentados neste processo. Ou “ganhar” umas dicas de SQL Server do Marcus Vinicius Bittencourt. Este tipo de acontecimento, por si só, já faz a ida ao evento valer a pena.

Meus sinceros agradecimentos ao colega Rafael Felipe e ao Rodrigo Crespi pela oportunidade de palestrar. O voto de confiança de vocês me motiva a estudar e crescer a cada dia. Como eu li em uma parede da Uniftec: It´s a long way to the top if you wanna rock and roll. Valeu! Até a próxima!

SQL Saturday 609 Caxias do Sul Palestrantes
Palestrantes ao final do evento

Azure CLI 2.0 no Linux Bash do Windows

O Azure CLI 2.0 é uma poderosa ferramenta de linha de comando (Command Line Interface), que pode ser usada tanto no Windows, Linux ou macOS. Com ela é possível gerenciar e administrar os seus recursos no Microsoft Azure de maneira bastante simples e intuitiva. É um projeto open source (https://github.com/Azure/azure-cli).

Na semana passada assisti o video do MVP Rodrigo Crespi, sobre como instalar o bash do Linux (Ubuntu) no Windows. Foi então que pensei no conteúdo deste post: instalar o Azure CLI 2.0 no bash do Linux Subsystem, provisionar alguns recursos no Azure via linha de comando, e então fazer deploy de um repositório Git remoto para estes. O procedimento é simples, vamos lá:

  • Se ainda não tiver instalado o Windows Subsystem for Windows, recomendo que você assista o vídeo
  • Abra o bash, e execute os comandos a seguir:
echo "deb [arch=amd64] https://packages.microsoft.com/repos/azure-cli/ wheezy main" | \
     sudo tee /etc/apt/sources.list.d/azure-cli.list
sudo apt-key adv --keyserver packages.microsoft.com --recv-keys 417A0893
sudo apt-get install apt-transport-https
sudo apt-get update &amp;&amp; sudo apt-get install azure-cli

 

  • Terminada a instalação com sucesso (a minha levou em torno de 5 minutos), podemos começar a utilizar o Azure CLI 2.0. Meu objetivo neste ponto, é criar uma Azure WebApp no plano grátis. Será necessário efetuar o login, criar um Resource Group, Application Plan e então a WebApp:
# Efetuar login no Azure
# Será necessário acessar https://aka.ms/devicelogin e fornecer o código de autenticação,
# após a execução do comando abaixo
az login

# Criar um Resource Group
# Nota: substitua "AzureCLIDemoRG" pelo nome do seu Resource Group
az group create --location brazilsouth --name AzureCLIDemoRG

# Criar um Service Plan
# Nota 1: substitua "AzureCLIDemoSP" pelo nome do seu Service Plan
# Nota 2: substitua "AzureCLIDemoRG" pelo nome do seu Resource Group criado no passo anterior
az appservice plan create --name AzureCLIDemoSP --resource-group AzureCLIDemoRG --sku FREE

# Criar a WebApp
# Nota 1: substitua "AzureCLIDemoWebSite" pelo nome do sua WebApp - será usado na URL de acesso (http://AzureCLIDemoWebSite.azurewebsites.net) 
# Nota 2: subsitua "AzureCLIDemo" e "AzureCLIDemoSP" pelos valores criados anteriormente
az webapp create --name AzureCLIDemoWebSite --resource-group AzureCLIDemoRG --plan AzureCLIDemoSP

 

  • WebSite criado, basta acessa-lo:

Azure CLI - Ubuntu Bash Windows - Azure WebApp Default Page

 

Instalando o Git:

sudo apt install git

 

Criando o reposiório local e adicionando os arquivos da aplicação:

  • Assumindo que os arquivos da minha aplicação estão em C:\AzureCLIDemo, estes são montados em /mnt/c/AzureCLIDemo, crie o repositório local:
git init .

 

  • Adicione os arquivos e faça commit ao master branch:
git add .
git commit -m "Primeiro commit da Demo Azure CLI 2.0 com Git"

 

  • Observação: talvez apareça uma mensagem de erro, solicitando configuração de e-mail e nome. Para adicionar esses dados execute o comando abaixo e efetue o commit novamente:
git config --global user.email "seu@email.com"
git config --global user.name "seunome"

 

A partir desse momento já poderíamos rodar o deploy a partir do reposiório local, entretanto vamos mais longe. O próximo passo será sincronizar meu repositório local com um repositório remoto (no Visual Studio Team Services).

 

Criando o repositório Git no Visual Studio Team Services:

  • Se você ainda não tem uma conta no VSTS, será necessário criar (free): https://www.visualstudio.com/vso/
  • Uma vez criada sua conta, crie um novo projeto, setando Version Control como Git:

Azure CLI - Ubuntu Bash Windows - Criando Projeto Git no VSTS

  • Configure as credenciais – a url será necessária no proximo passo:

Azure CLI - Ubuntu Bash Windows - Configurando Credenciais

 

  • Sincronizando o repositório local com o remoto (branch master X master):
# Referenciando reposiório remoto
git remote add origin https://SUACONTA.visualstudio.com/_git/AzureCLIDemo

# Push: enviando os arquivos locais para o VSTS
git push origin master

 

  • Assim que o processo de push terminar, é possível visualizar seus arquivos no VSTS:

Azure CLI - Ubuntu Bash Windows - Arquivos Master Branch Remoto VSTS

 

  • Utilizando o Azure CLI 2.o para efetuar o deploy:
az webapp deployment source config --name AzureCLIDemoWebSite --resource-group AzureCLIDemoRG --repo-url https://SUACONTA.visualstudio.com/_git/AzureCLIDemo --branch master --manual-integration

 

  • Resultado:

Azure CLI - Ubuntu Bash Windows - Resultado Deploy

Atenção: o Azure CLI possui atualizações frequentes, geralmente a cada duas semanas – inclusive comandos listados neste post estão sujeitos a alteração. Como a instalação foi feita a partir do apt-get, o comando az component não é suportado. Para atualizar, execute o comando a seguir:

sudo apt-get update && sudo apt-get install azure-cli

Lembrete: Azure CLI é conteúdo do exame 70-533.

Até a próxima!
[ ]´s

Traffic Manager – Integrando Azure e AWS

Em praticamente toda documentação ou literatura a respeito de Cloud Computing, o cenário híbrido é abordado. Parte dos recursos on premise, parte na nuvem. Abordagem muito comum, presente em praticamente todas as empresas que estão neste movimento. E soluções distribuídas entre os provedores de public cloud (cloud x cloud), já pensou em implementar? Distribuir a carga do seu website entre Azure e AWS, implementar roteamento baseado em performance (latência) ou até mesmo implementar failover? Sim, é possível – e simples. É nesta hora que entra um de meus serviços preferidos no Azure: o Traffic Manager.

Basicamente, a função do Traffic Manager é distribuir o tráfego entre endpoints localizados em diferentes datacenters. Sendo totalmente DNS based, ele não atua como proxy ou gateway: apenas direciona os clientes diretamente ao endpoint, não “enxergando” o trafégo entre eles.

Azure Traffic Manager - Integrando Azure App Service e AWS Elastic Beanstalk

Os tipos de roteamento possíveis são:

  • Priority: roteamento de tráfego com prioridade para um endpoint primário, sendo o secundário um backup. Exemplo: o endpoint primário do meu website rodando no Azure, e o secundário no AWS. Caso o primeiro esteja down, o tráfego será atendido pelo segundo.
  • Weighted: distruibuição do tráfego entre os endpoints, no estilo “round-robin”. Ou ainda é possível definir um “peso” por endpoint.
  • Performance: meu preferido. Neste método posso ter meus endpoints distribuídos geograficamente. Os clientes serão roteados para o endpoint com menor latência, baseados em sua localização. Exemplo: o mesmo website deployed em regiões diferentes (Brasil e Oeste dos EUA): muito provavelmente, os clientes baseados no Brasil serão atendidos pelo website que roda em nosso país, assim como os clientes dos Estados Unidos possivelmente serão atendidos pela instância rodando naquele país:

Nota: e outros países além do Brasil e Estados Unidos? Em todos os testes que fiz até hoje, utilizando algumas ferramentas (como GeoPeeker), todas as requisições foram atendidas por instancias localizadas nos Estados Unidos (originadas da Ásia e Europa). Não testei América Latina, pois no plano gratuito da ferramenta, países como Argentina não estão disponíveis.

  • Geographic: roteamento “fixo” a endpoints específicos, baseados na localização geográfica. Ainda não utilizei.

Tipos de endpoint:

  • Azure: usados para serviços que estão hospedados no Azure.
  • External: para todos externos ao Azure. Ou seja: para endpoints on-premises ou em outro cloud provider (como AWS ou Google Cloud)
  • Nested: combinação de diferentes perfis do Traffic Manager.

Para este exemplo de integração, nos interessam dos tipos: Azure e External. Teremos uma instância do website rodando como PaaS no Azure (WebApp), e a outra rodando no AWS Elastic Beanstalk, sendo seu endpoint configurado como tipo “External”. A grande sacada do Traffic Manager é essa: se for External, não interessa se está hospeado em sua infraestrutura interna ou em outro cloud provider – ele considera o endpoint do mesmo tipo.

A documentação completa pode ser encontrada neste link.

Implementação:

Assumo que a aplicação já esteja deployed, tanto no Azure Webapps como no AWS Elastic Beanstalk. Neste exemplo, utilizei um projeto .Net que usamos no Global Azure Bootcamp (obrigado Gabriel Molter). Para fins de demonstração, adicionei hard-coded  o cloud provider em questão. O deployment foi feito separadamente em cada um dos serviços, mas poderia ser facilmente integrado no VSTS Online.

Traffic Manager - Aplicação Exemplo - Hospedada no Azure

Traffic Manager - Aplicação Exemplo - Hospedada no AWS

 

A configuração é extremamente simples. Basta criar um Traffic Manager profile, escolhendo nome (formando a URL <nome>.trafficmanager.net), Resource Group e Routing Method. Neste exemplo, o método de roteamento escolhido é o Priority, pois quero reproduzir um cenário onde o Azure seja meu hosting principal e o AWS ecundário, posteriormente simulando um downtime no primeiro. Note que esse método de roteamento pode ser alterado a qualquer momento.

TrafficManager-Azure-AWS-Integration-10

Um detalhe sobre o TTL: como o Traffic Manager é baseado em DNS, é necessário a definição de um TTL (Time-To-Live). Isso significa que uma vez feita a consulta pelo cliente, as próximas consultas deste ao Traffic Manager serão feitas somente após a expiração do TTL. Este valor é definido em segundos (sendo 300 o padrão).

TTL maior ou menor: na minha opinião, vai depender do método de roteamento utilizado, No caso de Priority, com o objetivo de failover, sugiro um TTL menor do que o padrão (caso o ocorra algum problema com o endpoint, não faz sentido ter que esperar 5 minutos para ser redirecionado para uma instancia “saudável”). Posso utilizar o menor TTL possível, indendente de método? Pode, mas lembre-se que a cobrança do Traffic Manager se dá por número de consultas efetuadas pelos clientes.

Assim que o deployment do Traffic Manager estiver completado, basta adicionar os endpoints:

Azure:

  • Type “Azure endpoint“,
  • Name: “Azure” – (ou qualquer outro de sua preferência)
  • Target  resource type: “App Service“, pois estou adicionando um endpoint de uma Azure Web App (PaaS). Outras opções são endpoints de VM´s no Azure ou Cloud Service:
  • Target resource: basta selecionar a Web App (as opções disponíveis aqui são baseadas na escolha do campo acima)
  • Priority: “1” – ou seja, será meu endpoint primário (menor valor, maior prioridade)

TrafficManager-Azure-AWS-Integration-4

AWS:

  • Type “External endpoint“,
  • Name: “AWS” – (ou qualquer outro de sua preferência)
  • FQDN: url completa do site hospedado na AWS (sem http/https ou barra no final)
  • Priority: “2” – prioridade menor em relação ao site hospedado no Azure

TrafficManager-Azure-AWS-Integration-5

 

Assim que adicionado o endpoint, o Traffic Manager irá fazer um health check:

TrafficManager-Azure-AWS-Integration-HealthCheck

Pronto, basta acessar o endereço definido na criação do serviço (http://<nome>.trafficmanager.net).

 

Resultados (baseado no método Prioridade):

Nota: a aplicação, tanto o Azure AppService, quanto o AWS Elastic Beanstalk, foram deployed na mesma região (Brasil). Estes testes são simples (sem alguma metodologia oficial), podendo haver variação.

Para testar este tipo de cenário, costumo usar o GeoPeeker.

  • Estando os dois endpoints online, considerando Azure com prioridade 1, e AWS com 2, todas as requests foram direcionadas conforme o esperado, ou seja, para o Azure:

TrafficManager-Azure-AWS-Integration-Routed to Azure

  • Através do Azure Portal, parei a minha aplicação, deixando a mesma offline. Todas as requests foram redirecionadas para o AWS:

TrafficManager-Azure-AWS-Integration-Routed to AWS Elastic Beanstalk

Observação: se você for executar este teste, esteja atento ao TTL configurado no serviço. Será necessário aguardar o mesmo expirar, para que o roteamento aconteça de forma correta (lembre-se, é um roteamento DNS based). Outra solução é rodar ipconfig /flushdns na sua máquina.

Outros resultados que obtive:

  • Performance: todas redirecionadas para o Azure.
  • Weighted: das seis requests, quatro foram para o AWS.

Apesar de abordar somente a camada de aplicação de maneira distribuída entre ambos provedores de núvem pública – o banco de dados tem uma complexidade muito maior neste cenário (assunto para outro post) – o Traffic Manager é sem dúvidas uma solução robusta e de rápida configuração. Há não muito tempo atrás, os custos para implementar algo semelhante era absurdamente alto, praticamente inviável para empresas de pequeno porte. E para quem estiver estudando para certificação, o Traffic Manager é assunto na prova 70-533.

Até a próxima! Um Tríplice Fraternal Abraço!

Azure – Notificações Utilizando Webhooks (com Zapier e Twilio)

Durante meus testes / aprendizado no mundo Azure, uma das coisas que eu achei mais interessante foi a possibilidade de utilizar Webhooks, possbilitando diversas customizações na forma em que podemos ser alertados sobre algum evento em nossos serviços no Azure (vídeo exemplo ao final do post).

Da Wikipedia:

Um webhook em desenvolvimento Web é um método de argumentar ou alterar o comportamento de uma página da Web, ou aplicação da Web, com callbacks personalizados. Estas ligações de retorno poderão ser mantidas, modificadas, e geridas por terceiros e responsáveis pelo desenvolvimento que poderão não necessariamente estar afiliados com a origem do site da Web ou aplicação. O termo “webhook” foi inventado por Jeff Lindsay em 2007 a partir do termo de programação de computador Hook.[1]

Ou seja: em determinado evento de meu serviço, em real-time, o Azure irá fazer uma chamada http post para alguma URL (utilizando JSON). A partir deste momento, as possibilidades ficam interessantes.

Vamos para aplicabilidade em um cenário real: um website rodando com auto-scale configurado (Scale-Out), entre 1 e 3 instancias. Regra: se a CPU permanecer acima de 70% por um período de 10 minutos, aumento automático de 1 instancia. Da mesma forma, o oposto (CPU inferior a 70% por determinado período de tempo, diminuição automática de número de instancias – “Scale-In”). Para cada evento “Scale-Out” ou “Scale-In”, gostaria de receber uma ligação de voz para meu celular, com uma mensagem personalizada, fornecendo alguns detalhes (por exemplo: Serviço XYZ Escalou de 1 para 2 Instâncias) ou uma mensagem SMS.

Para conseguir criar este fluxo de maneira relativamente fácil, precisamos de outros dois serviços: Twilio e Zappier, Gostaria de ressaltar que são dois serviços independentes do Azure, sendo duas empresas diferentes. Twilio tem sede em San Francisco/CA, e fornece serviços de mensageria, voz, vídeo e autenticação através de suas API´s 100% cloud based. Já o Zapier fornece componentes (conhecidos como “Zaps”) para integração de aplicações web (ao invés de fazer manualmente chamadas para API´s, este serviço fornece uma abstração de todo esse processo, sendo necessario somente definir os passos necessários e preencher alguns campos).

Quanto ao custo: o Twilio fornece um trial, com crédito de U$ 15.00. O Zapier oferece um plano grátis, mas com limitação de 2 steps por “Zap”. Para fins de teste, são suficientes. Mesmo nos planos pagos, eu acho que vale a pena. É possível agregar um valor imenso aos seus serviços e aplicações por um custo acessível.

Implementação:

  • Crie sua conta no Zapier e Twilio
  • Faça login no Zapier, clique em “Make a Zap”
  • Escolha um nome para o Zap. Na configuração da trigger, opção “Choose App“, escolha “WebHook“:

1 - Azure-Creating-Zapier-Twilio-Webhook

 

  • Em “Choose Trigger“, selecione “Catch Hook“:

2 - Azure-Creating-Zapier-Twilio-Webhook

3 - Azure-Creating-Zapier-Twilio-Webhook

  • Test this Step: obrigatório, caso contrário seu Zap não irá funcionar. Será necessário fazer um HTTP POST para URL do Webhook, utilizando o mesmo payload do passo anterior. No meu caso, eu utilizei o Fiddler para fazer esta chamada (você pode usar qualquer outra ferramenta, como curl por exemplo):

4 - Azure-Creating-Zapier-Twilio-Webhook

5 - Azure-Creating-Zapier-Twilio-Webhook

  • Feito o HTTP POST com sucesso, você será notificado na tela pelo Zapier. A URL utilizada será necessária no último passo de configuração (Azure)
  • O próximo passo é configurar a Action resultante da Trigger recém criada. É neste momento em que o Zap fará a chamada para a API do Twilio:

6 - Azure-Creating-Zapier-Twilio-Webhook

  • Como citado anteriormente, é possível fazer o envio de SMS ou efetuar uma ligação. Escolha “Call Phone“.

7 - Azure-Creating-Zapier-Twilio-Webhook

  • Será necessário fazer autorização do Zap para ter acesso a API. Basta fornecer a “Account SID” e “Auth Token“. Estas informações são encontradas no Twilio Console, seção “Account-> Account Settings“:

8 - Azure-Creating-Zapier-Twilio-Webhook

9 - Azure-Creating-Zapier-Twilio-Webhook

  • O passo seguinte é editar o Template. É neste local onde pode ser configurada a mensagem de voz que você irá receber. Será necessário informar o número telefônico de origem (que é criado durante o cadastro no Twilio), o número de destino (com código do país) e formatar a mensagem. Para fins de exemplo, eu estou utilizando apenas o campo “Description“. Você pode fazer qualquer combinação de campos a fim de deixar o mais personalizado possível.

10 - Azure-Creating-Zapier-Twilio-Webhook

  • Teste este passo, marque o Zap como “On” e finalize:

11 - Azure-Creating-Zapier-Twilio-Webhook

  • A última configuração necessária (e a mais fácil), é no Azure. No blade de configuração do Scale-Out, em Notifications, insira a URL do Zap criado.

12 - Azure-Creating-Zapier-Twilio-Webhook

 

Abaixo criei um vídeo com os passos acima e seu respectivo resultado:

 

Dúvidas? Me contate! Até a próxima.

[ ]´s