Categorias
SQL Server Troubleshooting Virtual PASS BR

Transparent Data Encryption and its tricks

[bing_translator]

Transparent Data Encryption – TDE não é mais uma novidade, mas sim uma realidade que devemos usar. Um ponto importante que vale ressaltar é que esse recurso está presente apenas na edição ENTERPRISE do SQL Server.
Existem alguns passos a passos na internet de como implementar, mas eu vou deixar um script que pode ser seguido.

Master Key e Certificados

Uma forma simples de implementar o TDE é utilizar um certificado gerado pelo próprio SQL Server que é protegido pela Master Service Key.
Se você está implementando ou pretende implementar lembre-se que o mais importante de tudo é fazer backup do certificado e das keys!

PARE TUDO e faça BACKUP 

O principal aspecto para utilizar o TDE está relacionado à protecao de chaves incluindo backups separados das chaves de criptografia e a capacitade de restaurar e recuperar esse banco de dados em outro local. Assim como qualquer outro plano de DR, a restauração de bancos de dados de TDE é algo que devemos praticar antes que ocorra o desastre. Você não quer descobrir depois de um evento  que você não estava fazendo o backup da chave TDE corretamente.

Mais uma vez eu utilizei o dbatools para me ajudar a automatizar minha tarefa e quero agradecer ao Claudio Silva  (blog/twitter) por me ajudar. Algumas linhas de powershell são suficientes para isso 🙂

Agora que o background está pronto, o TDE pode ser habilitado.

A diferença quando se está utilizando AlwaysON Availability Group está na preparação dos ambientes antes de habilitar o TDE. Ou seja, você deve criar chaves e certificados em todas réplicas que pertencem ao AG.

/*
  Following steps must be executed on PRIMARY REPLICA
*/
-- Check if MASTER KEY is created
USE master; 
GO

SELECT * FROM sys.symmetric_keys; 
SELECT * FROM sys.certificates;

/*
  Step 1: On Primary Replica - Creation of the Database MASTER KEY (DMK)
  We can skype this step because we already have it
  Make sure that MASTER KEY Backup is working correctly.
        Review backup routine! This is most important step to do 
*/
-- Create a Master Key IF NOT EXISTS
USE master;
GO
CREATE MASTER KEY ENCRYPTION BY PASSWORD = 'use_a_strong_password';
GO

-- Backup the Master Key
BACKUP MASTER KEY
TO FILE = '\\PrimaryReplica\TDE\PrimaryReplica_MasterKeyBackup.key'
ENCRYPTION BY PASSWORD = 'use_a_strong_password';
GO
/*
  Step 2: On Primary Replica - Creation of the CERTIFICATE
  Certificate is named as TDECert and it will use MASTER KEY to en
*/

-- Create Certificate Protected by Master Key
CREATE CERTIFICATE TDECert
WITH
  SUBJECT = 'Transparent Data Encryption Cerficate';
GO

/*
 Backup the Certificate
 Review backup routine. We should back up it to two/three different location
 Pick up a strong password 
*/
BACKUP CERTIFICATE Cert_For_TDE TO FILE = '\\PrimaryReplica\TDE\PrimaryReplica_Cert_For_TDE_Backup.cer'
WITH PRIVATE KEY ( FILE = '\\PrimaryReplica\TDE\PrimaryReplica_Cert_For_TDE_PrivKey.pvk'
                  ,ENCRYPTION BY PASSWORD = 'use_a_strong_password' );

/*
  Step 3: On Primary Replica - Creation of Database Encryption Key (DEK)
*/

USE YourDatabase;
GO
/*
 Create a Database Encryption Key
 Choose between AES_128 and AES_256
 Your are not going to encrytp it yet! 
*/

CREATE DATABASE ENCRYPTION KEY
WITH ALGORITHM = AES_128 -- AES_256 
ENCRYPTION BY SERVER CERTIFICATE Cert_For_TDE;
/*
  Following stes must be executed on SECONDARY REPLICA
*/

-- Check if MASTER KEY is created
USE master;
GO
SELECT * FROM sys.symmetric_keys;
SELECT * FROM sys.certificates;

-- Create a Master Key IF NOT EXISTS
USE master;
GO
/*	
  Step 4: On Secondary Replica - Creation of the DMK
  Make sure that MASTER KEY Backup is working correctly.
  Review backup routine.  
*/

CREATE MASTER KEY ENCRYPTION BY PASSWORD = 'use_a_strong_password';
-- Backup the Master Key on secondary in order we have this when it turns into Primary and we need not worry when recovery event occurs.
-- Review backup routine! This is most important step to do

BACKUP MASTER KEY
TO FILE = '\\SecondaryReplica\TDE\SecondaryReplica_MasterKeyBackup.key' -- You can use same folder to store keys (I just change it to make things easy)
ENCRYPTION BY PASSWORD = 'use_a_strong_password';
/*
  Step 5: On Secondary Replica - Creation of the Certificate from the Primary Certificate Backup
*/

-- Create Certificate Protected by Master Key 
CREATE CERTIFICATE Cert_For_TDE
FROM FILE = '\\PrimaryReplica\TDE\PrimaryReplica_Cert_For_TDE_Backup.cer'
WITH PRIVATE KEY ( FILE = '\\PrimaryReplica\TDE\PrimaryReplica_Cert_For_TDE_PrivKey.pvk'
                  ,DECRYPTION BY PASSWORD = 'same_strong_password_for_backup' );

-- Backup the Certificate
-- Review backup routine! This is most important step to do
BACKUP CERTIFICATE Cert_For_TDE TO FILE = '\\SecondaryReplica\TDE\SecondaryReplica_Cert_For_TDE_Backup.cer' 
WITH PRIVATE KEY ( FILE = '\\SecondaryReplica\TDE\SecondaryReplica_Cert_For_TDE_PrivKey.pvk' 
                  ,ENCRYPTION BY PASSWORD = 'use_a_strong_password' );
/*
  Step 6: On Primary Replica – Enabling TDE Encryption
  Following stes must be executed on PRIMARY REPLICA
*/

-- Now you are going to encrypt it
ALTER DATABASE YourDatabase SET ENCRYPTION ON;
GO
/*
  Step 7: On the Primary Replica and Secondary Replicas – Monitoring Encryption
  This code must be run in SQLCMD mode
*/

:CONNECT PrimaryReplica
SELECT
  @@SERVERNAME
 ,db.name
 ,db.is_encrypted
 ,dm.encryption_state
 ,dm.percent_complete
 ,dm.key_algorithm
 ,dm.key_length
FROM master.sys.databases                                db
  LEFT OUTER JOIN master.sys.dm_database_encryption_keys dm
    ON db.database_id = dm.database_id;
GO

:CONNECT SecondaryReplica
SELECT
  @@SERVERNAME
 ,db.name
 ,db.is_encrypted
 ,dm.encryption_state
 ,dm.percent_complete
 ,dm.key_algorithm
 ,dm.key_length
FROM master.sys.databases                                db
  LEFT OUTER JOIN master.sys.dm_database_encryption_keys dm
    ON db.database_id = dm.database_id;
GO

Uma vez que você efetive o recurso ele será executado silenciosamente em segundo plano, criptografando o banco de dados enquanto as atividades continuam. Enquanto a criptografia inicial está em execução, podemos verificar a coluna percent_complete na sys.dm_database_encryption_keys para ver progresso (veja o step 7).

http://www.sqlservercentral.com/articles/always+on/135432/

Esse processo seria simples, se não fosse pelo grande volume de transações que eu tenho. Um sistema de telemetria que a todo instante está recebendo e enviando informações de veículos no mundo.

O CPU foi a quase 100% e gerou um performance ruim para o sistema. O que quero dizer é que processos que executavam em 500 milissegundos passaram a executar em 1200/1500 milissegundos.

Se você procurar na documentação só exista a opção de ON e OFF para ENCRYPTION. Uma vez que eu iniciei o processo para criptografar o database eu tenho que esperar terminar. E agora? Quanto tempo isso vai demorar para finalizar no meu database?

Existe uma trace flag documentada (Thanks God Microsft) que pausa o processo e simplesmente não faz rollback! Fantástico pois não perco o que foi criptografado e meu database fica com o status de “encryption in progress”. Ou seja, as páginas que foram criptografadas continuam assim e o as páginas que não foram criptografadas serão lidas normalmente.

https://blogs.msdn.microsoft.com/markweberblog/2017/04/04/transparent-data-encryption-tde-traceflag-5004-and-interrupting-encryption-scanning/

Como qualquer outra TF basta você ativar ou desativar. Para parar o processo ative a TF:

DBCC TRACEON(5004) 
GO

Para reiniciar o processo de onde parou basta desativar a TF e executar o comando novamente para criptografar o database.

DBCC TRACEOFF(5004) 
GO 

ALTER DATABASE YourDatabase SET ENCRYPTION ON;
GO

Isso salvou minha vida, pois eu pude habilitar o processo em horários de menor utilização e mesmo assim se impactasse o sistema eu seria capaz de parar.

Backup Compression

Um fator que notamos depois de habilitar o TDE foi a compressão de backups não estava funcionando corretamente, ou seja, simplesmente ignorava a opção e gerava um backup gigantesco.

Pesquisando um pouco achei uma excelente explicação para esse comportamento.

https://blogs.msdn.microsoft.com/sql_server_team/backup-compression-for-tde-enabled-databases-important-fixes-in-sql-2016-sp1-cu4-and-sql-2016-rtm-cu7/

Depois de entender melhor esse comportamento, foi a hora de verificar o que estava ocorrendo. Para isso utilizei um extended event (backup_restore_progress_trace) que facilita e muito a interpretar o que está acontencendo no momento do backup.

O Edvaldo Castro (blog/twitter) explica muito bem esse novo XE.

https://edvaldocastro.com/benchmarking-teste-do-novo-extended-event/

Você deve querer ver uma mensagem de MaxTransferSize maior de 64 KB:

https://blogs.msdn.microsoft.com/sql_server_team/new-extended-event-to-track-backup-and-restore-progress/#.VgtLzHpVhBd

Nesse momento fizemos duas ações:

1 – Atualizamos para o service pack e cumulative update mais recente visto que estávamos com a versão inferior descrita no link (https://blogs.msdn.microsoft.com/sql_server_team/backup-compression-for-tde-enabled-databases-important-fixes-in-sql-2016-sp1-cu4-and-sql-2016-rtm-cu7/)

2 – Mudamos nossa rotina de backup para se adequar as necessidades.

E o tempdb?

A partir do primeiro database utilizando TDE o tempdb passa ser criptografado automaticamente. Um curioso caso sobre o tempdb foi desvendado pelo Bob Ward, recomendo a leitura!

https://blogs.msdn.microsoft.com/bobsql/2017/01/26/sql-server-mysteries-the-case-of-tde-and-permanent-tempdb-encryption/

Eu tenho FileStream, vai criptografar?

A documentação é clara, dados em FileStream não são criptografados. Nossa solução foi utilizar BitLocker

https://docs.microsoft.com/en-us/windows/security/information-protection/bitlocker/bitlocker-how-to-deploy-on-windows-server

Como ficou a CPU?

Nossos testes mostraram um leve aumento de CPU mas nada que comprometeu  a performance. Monitoramos alguns processos críticos e vimos que o aumento foi em média de 3-5% de CPU e tempo total de duração aumentou 100-150 milissegundos.

Transaction-Log? Hummmm

Eu não vi nenhum tipo de problema com isso. Espero que continue assim 🙂

Alguns recursos que não utilizamos e ainda não testei como Buffer Pool Extention – a documentação diz que não é criptogrado e assim como FileStream uma opção seria usar BitLocker. Quero verificar o quanto isso pode afetar a área de memória ou não.

Certificado expirado

O processo de substituir com segurança o certificado é chamado rotating the encryption key. É importante fazer isso, e o SQL Server torna isso um processo simples e rápido. A substituição dos seus certificados expirados é um processo rápido e simples, e é uma parte importante da manutenção da segurança da sua criptografia

Você também pode usar ou restaurar um certificado expirado no servidor.

https://blogs.msdn.microsoft.com/sqlsecurity/2010/06/14/database-encryption-key-dek-management/

Rotação de chaves

Rotation the encryption key é o processo de passar do certificado antigo para o novo. Nesse caso, tudo o que acontece é que a chave de criptografia do banco de dados é descriptografado com o certificado antigo e criptografado novamente com o novo certificado. Esse novo valor criptografado é armazenado no banco de dados sobrescrevendo o antigo. Por ser um processo rápido, a rotação frequente não é um problema.

Novo certificado

O primeiro passo é criar um novo certificado que será usado para criptografar o banco de dados. Você pode seguir os mesmos passos acima.

Rotação do certificado

Para substituir o certificado usado para TDE, adicione o novo certificado como acima, então execute o comando

USE YourDatabase
GO

ALTER DATABASE ENCRYPTION KEY
ENCRYPTION BY SERVER CERTIFICATE TDECert_Rotate_Key;
GO

Faça backup do novo certificado e do database.

Remover TDE

Para remover o TDE é necessário executar o comando abaixo.

ALTER DATABASE yourdatabase SET ENCRYPTION OFF;
GO

Aguarde até que o processo de descriptografia esteja concluído. Use o sys.dm_database_encryption_keys DMV para determinar seu status

USE YourDatabase
GO

DROP DATABASE ENCRYPTION KEY
GO

Faça backup do novo certificado e do database.

Para finalizar, aprenda que o TDE não é apenas um recurso que liga e desliga para entrar em conformidade com órgãos regulamentadores. Você deve se preparar e entender melhor esse recurso antes de utiliza-lo em seu ambiente de producao. Este foi um dos recursos que eu mais gostei de implementar pois me aprofundei em um assunto que eu mesmo tinha deixado de lado.

Fica uma pergunta! Quando falamos de data-in-rest o TDE é suficiente para deixar meus dados seguros ou precisamos fazer um backup com criptografia? Em um próximo post falarei como utilizar backup encryption

https://blogs.msdn.microsoft.com/sqlsecurity/2010/06/14/database-encryption-key-dek-management/

https://blogs.msdn.microsoft.com/sqlsecurity/2016/10/05/feature-spotlight-transparent-data-encryption-tde/

Categorias
Azure SQL Database Virtual PASS BR

Azure SQL Database – Vulnerability Assessment

[bing_translator]

O Vulnerability Assessment (VA) primeiramente introduzido no Azure SQL Database e depois entregue na versão do SQL Server Management Server (SSMS) 17.4 é um recurso que pode ajudar a descobrir, rastrear e corrigir potencias vulnerabilidades no seu database.

“To gain the benefits of a Vulnerability Assessment on your database, all you need to do is run a Scan, which will scan your database for vulnerabilities.”

Essa simples frase resume exatamente o que você deve fazer para utilizar esse recurso, nada além disso. Na minha visão o principal motivo para isso é a grande preocupação que a Microsoft está tendo em relação a segurança da informação. O Vulnerability Assessment é de fácil interpretação e principalmente é feito para não especialistas em segurança da informação assim como eu. Com esse recurso eu posso proteger melhor o meu ambiente porem isso pode não ser o suficiente caso a sua empresa tenha uma especialista em segurança e ele te direcione para qual caminho seguir.

Eu acredito que o recurso irá evoluir e iremos ganhar mais facilidades como por exemplo automatização de scan!

Hoje o Vulnerability Assessment faz parte do Advanced Threat Protection for Azure SQL Database.

A única configuração que você precisara fazer é escolher onde irá armazenar o resultado e nesse caso será uma “storage account”

Pronto! Agora basta executar o scan e aguardar pelo resultado.

Pude notar que as validações que estavam em preview foram modificadas na versão General availability (GA). O último preview, que eu utilizei, existiam 77 validações e agora só existem 48. Não sei o motivo porque algumas foram retiradas, mas espero que a lista aumente.

Para cada verificação existem detalhes que trazem informações complementares importantíssimas como por exemplo como remediar (resolver) o problema.

É possível criar uma baseline para cada database e assim você pode customizar o que é importante para seu ambiente. No relatório, o status da regra irá mostrar como aceito por baseline customizada.

Com o GA agora é exportar o resultado para Excel através do botão: Export Scan Results. Dessa maneira você pode ter um relatório offline e distribuir dentro da sua equipe ou até mesmo enviar para outras pessoas.

Com o Scan History é possível ver como estava as vulnerabilidades em cada scan. Isso facilita a auditoria e principalmente podemos ver o progresso das correções. Também é possível exportar para Excel qualquer histórico.

Eu espero que em breve possamos criar nossas próprias validações dando assim flexibilidade para cada cliente customizar com suas necessidades.

A versão do SSMS para on-premise tem as mesmas funcionalidades e é tão simples quanto a versão do Azure SQL Database.

https://www.mssqltips.com/sqlservertip/5297/sql-server-security-vulnerability-assessment-tool-in-ssms-174/

Jan Rokicki escreveu um excelente post falando sobre VA

https://www.datasic.com/post/ssms-va-assessment/

Referencias:

https://azure.microsoft.com/en-us/blog/introducing-sql-vulnerability-assessment-for-azure-sql-database-and-on-premises-sql-server/

https://blogs.technet.microsoft.com/dataplatforminsider/2017/12/11/whats-new-in-ssms-17-4-sql-vulnerability-assessment/

https://docs.microsoft.com/en-us/azure/sql-database/sql-vulnerability-assessment

https://docs.microsoft.com/en-us/sql/relational-databases/security/sql-vulnerability-assessment?view=sql-server-2017

https://docs.microsoft.com/en-us/azure/sql-database/sql-advanced-threat-protection

https://docs.microsoft.com/en-us/azure-advanced-threat-protection/what-is-atp

Categorias
Azure SQL Database Virtual PASS BR

GDPR – Principle of least privilege

[bing_translator]

Principle of least privilege – Principio do menor privilegio é a prática de limitar os direitos de acesso dos usuários às permissões mínimas necessárias para realizar seu trabalho. Apenas os direitos mínimos necessários devem ser atribuídos a um indivíduo que solicita acesso a um recurso e deve estar em vigor pelo menor tempo necessário. Esse conceito pode ser aplicado a usuários, programas ou processos que interagem de alguma forma com acesso a dados.

Algumas atribuições de privilégios podem ser baseadas em funções ou unidades de negócios como marketing, recursos humanos ou TI.

Como implementar o POLP

  • Realização de auditorias de privilégios, verificando todos os processos, programas e contas existentes para garantir que eles tenham apenas as permissões necessárias para realizar seu trabalho.
  • Iniciando todas as contas com o menor privilégio, definindo o padrão para todos os novos privilégios de conta o mais baixo possível e adicionando privilégios de nível superior somente conforme necessário para executar as tarefas.
  • Implementando a separação de privilégios, separando as contas administrativas das contas padrão e as funções do sistema de nível superior das contas inferiores.
  • Atribuir privilégios just-in-time restringindo os privilégios de nível superior apenas ao momento em que eles são realmente necessários.
  • Acompanhar e rastrear ações individuais usando credenciais de uso único, monitoramento e auditoria automática para facilitar o rastreamento das ações do usuário, permitindo que as organizações limitem os danos

Esses passos podem ser utilizados por diversas áreas além de banco de dados.

Vou mostrar como eu implementei esse processo de POLP e já adianto que foi a tarefa mais demorada de toda a implementação do GDPR (General Data Protection Rules).

Nesse processo foi fundamental o auxílio de uma ferramenta grátis, dbatools, que eu acredito que todos que trabalham com SQL Server deveriam conhecer. Eu gostaria de agradecer o Claudio Silva (blog/twitter) por me ajudar prontamente com as dúvidas!

Revisar membros da role sysadmin

$sqllist =  "sql01","sql02","sql03"
$sqllist |  Get-DbaUserLevelPermission -Database master -Verbose | Where-Object {$_.RoleSecurableClass -eq "sysadmin"} | Out-GridView #| Export-Csv "c:\temp\Audit-SQL-sysadmin-permission.csv"

Com um simples comando eu pude exportar uma lista completa de todos os sysadmin das minhas instancias.

Obs.: Esses simples exemplos são suficientes para iniciar uma análise.

Revisar permissões de CONTROL SERVER

$sqllist =  "sql01","sql02","sql03"
$sqllist |  Get-DbaUserLevelPermission -Database master -Verbose | Where-Object {$_.Permission -eq "CONTROL SERVER"} | Out-GridView #| Export-Csv "c:\temp\Audit-SQL-sysadmin-permission.csv"

http://www.sqlservercentral.com/blogs/brian_kelley/2009/03/06/control-server-vs-sysadmin-membership/

https://docs.microsoft.com/en-us/sql/t-sql/statements/grant-server-permissions-transact-sql?view=sql-server-2017

Revisar permissões a nivel de servidor

$sqllist =  "sql01","sql02","sql03"
$sqllist |  Get-DbaUserLevelPermission -Database master |Where-Object {$_.RoleSecurableClass -eq "SERVER" -and $_.Permission -inotin "CONNECT SQL","CONTROL SERVER"   } | Out-GridView #| Export-Csv "c:\temp\Audit-SQL-server-side-permission.csv"

Usar a VIEW SERVER STATE

É normalmente usado para solução de problemas ou atividades relacionadas ao desempenho e é a melhor alternativa para não conceder permissão de sysadmin, especialmente para pessoas externas

Dynamic management views (DMV) retornam informações de estado do servidor que podem ser usadas para monitorar a integridade de uma instância do servidor, diagnosticar problemas e ajustar o desempenho

https://docs.microsoft.com/en-us/sql/t-sql/statements/grant-server-permissions-transact-sql

Revisar todas as permissões para todos os usuarios

Esse comando mostra todos server logins, server level securable, database logins e database securables

$sqllist =  "sql01","sql02","sql03"
$sqllist |  Get-DbaUserLevelPermission -Database master |Where-Object {$_.RoleSecurableClass -inotin"sysadmin" -and $_.Permission -inotin "CONNECT SQL","CONTROL SERVER"   } | Out-GridView #  Export-Csv "c:\temp\Audit-SQL-server-side-permission.csv" 

Esse foi o ponto que mais gastou nosso tempo, pois rever permissões é sempre uma tarefa difícil. Não poderíamos simplesmente retirar permissões sem impactar o dia a dia dos usuários e por isso foi criado um documento para cruzar informações sobre a classificação de dados e as permissões de cada usuário.

https://docs.microsoft.com/en-us/dotnet/framework/data/adonet/sql/authorization-and-permissions-in-sql-server

Remover logins desabilitados ou não utilizados

Nos monitoramos os logins de duas formas:

  • Extended Event
CREATE EVENT SESSION [XE_Getting_Login]
ON SERVER
ADD EVENT sqlserver.login
( ACTION ( sqlserver.client_app_name
,sqlserver.client_hostname
,sqlserver.database_id
,sqlserver.database_name
,sqlserver.username )
WHERE ( [sqlserver].[database_id] > ( 4 )))
ADD TARGET package0.event_file
( SET filename = N'XE_Getting_Login' )
WITH ( MAX_MEMORY = 4096KB
,EVENT_RETENTION_MODE = ALLOW_SINGLE_EVENT_LOSS
,MAX_DISPATCH_LATENCY = 30 SECONDS
,MAX_EVENT_SIZE = 0KB
,MEMORY_PARTITION_MODE = NONE
,TRACK_CAUSALITY = OFF
,STARTUP_STATE = OFF );
GO
  • Audit
USE [master];
GO

CREATE SERVER AUDIT [Unused_Login]
TO FILE ( FILEPATH = N'S:\Audit\'
         ,MAXSIZE = 100MB
         ,MAX_ROLLOVER_FILES = 5
         ,RESERVE_DISK_SPACE = OFF )
WITH ( QUEUE_DELAY = 1000
      ,ON_FAILURE = CONTINUE
      ,AUDIT_GUID = '98c2b34e-aba9-4e4d-9691-dc315c057a70' );
GO

ALTER SERVER AUDIT [Unused_Login]
WITH ( STATE = ON );
GO

USE [master];
GO

CREATE SERVER AUDIT SPECIFICATION [ServerAuditSpecification_Unused_Login]
FOR SERVER AUDIT [Unused_Login]
  ADD ( AUDIT_CHANGE_GROUP )
 ,ADD ( SUCCESSFUL_LOGIN_GROUP )
WITH ( STATE = ON );
GO

Depois de 40 dias capturando as informações foi possível saber quais logins estavam sendo usados e facilmente excluímos os outros.

Criar windows group

Passamos a implantar essa pratica para facilitar a administração (inclusão e exclusão de usuário). Crie um windows group principalmente para os administradores do SQL Server. Eu fiquei espantado quando vi a resistência de algumas pessoas para criar grupos pelo simples fato que elas estavam acostumadas a apenas criar usuários.

https://www.mssqltips.com/sqlservertip/1831/using-windows-groups-for-sql-server-logins-as-a-best-practice/

Criar User-Defined Server Role e User-Defined Database Role

Uma maneira simples e fácil de gerenciar as permissões em seus bancos de dados e servidores. É possível você atribuir um conjunto de permissões a uma “role” ao invés de atribuir individualmente para cada usuário ou grupo de usuarios.

https://docs.microsoft.com/en-us/sql/relational-databases/security/authentication-access/server-level-roles

https://docs.microsoft.com/en-us/sql/relational-databases/security/authentication-access/database-level-roles

Criamos User-defined Server Role genéricas onde utilizamos a mesma estrutura (permissões) em todos as instancias, por exemplo, um grupo de usuários necessita ter a visibilidade de como está o estado na instancia. Nesse caso atribuímos a permissão de VIEW SERVER STATE.

Para cada database criamos “roles” de acordo com a necessidade deles. O que utilizamos foi a classificação dos dados que foi realizado para mandar tudo dentro do GDPR. Uma ideia que tivemos foi criar “tier” de acesso onde o “tier” mais básico tem acesso as informações públicas e o “tier” mais elevado tem acesso as informações confidencias.

Com isso tivemos um cruzamento assim: Classificação da informação X Usuário/Grupo de Usuário X Role (tier)

Forçar política de password

Nos literalmente forçamos todos os SQL Logins a utilizar essa política fazendo. E principalmente criamos auditoria para esse processo.

https://docs.microsoft.com/en-us/sql/relational-databases/security/password-policy

https://docs.microsoft.com/en-us/sql/relational-databases/security/strong-passwords

Replace user logins for databases contained

Isso de fato não foi um requerimento, mas é útil para que possamos realizar uma migração para Azure SQL Database. Achamos o momento oportuno, uma vez que estávamos revendo todas as permissões e tentamos utilizar contained database para a maioria das aplicações e usuários porem alguns sistemas “antigos”, não são legados pois ainda estão em uso, mas a manutenção é cara, não pudemos alterar.

https://docs.microsoft.com/en-us/sql/relational-databases/security/contained-database-users-making-your-database-portable?view=sql-server-2017

https://docs.microsoft.com/en-us/sql/relational-databases/databases/security-best-practices-with-contained-databases?view=sql-server-2017

https://docs.microsoft.com/en-us/sql/relational-databases/databases/migrate-to-a-partially-contained-database?view=sql-server-2017

Para finalizar todo nosso esforço criamos auditorias de acesso para saber se nosso trabalho estava correto e principalmente estar em conformidade com a nova regulamentação.

Eu irei falar de auditoria em breve 🙂

 

Categorias
Azure SQL Database Virtual PASS BR

Azure SQL Database – Data Discovery & Classification

[bing_translator]

“SQL Data Discovery & Classification is currently at an early phase, and the eco-system around it is expected to grow as we continue releasing new capabilities”

Gostaria de começar esse post com a frase acima que peguei de um comentário no post que anunciou esse recurso!

Atualmente esse recurso está em preview, porém já podemos saber que é apenas o início de algo maior que esta por vir.

Aqui na Europa o GDPR está fazendo com que empresas se adaptem ao novo modelo e esse recurso pode ajudar com o primeiro passo!

Eu tenho utilizado outros métodos para classificar meus dados (ferramentas de mercado e até mesmo uma ferramenta desenvolvida internamente) e posso dizer que para a primeira versão desse recurso tem me agradado.

É possível se beneficiar desse recurso em qualquer service tier quando estiver utilizando o Azure SQL Database, ou seja, mesmo que você tem um database com pouca utilização você pode utilizar esse recurso.

Para usar Data Discovery & Classification é bastante simples:

  • Acesse seu database através do portal Azure
  • Navegue até Data Discovery & Classification (preview) e uma blade aparecera com um overview
    • Caso seja a primeira vez que você acessa esse recurso, verá os gráficos vazios

Depois que você classificar seus dados essa uma possível visualização dizendo como seus dados estão classificados ou “categorizados”.

Nesse momento existem dois tipos de distribuição:

  • Information type: para simplificar o entendimento seria o que está sendo armazenado nesse dado. É informação pessoal como ID, nome ou data de nascimento ou é um dado contendo informações bancarias como credencias de acesso ou cartão de credito.
  • Label: podemos dizer que é o nível de segurança que esses dados devem ser tratados. Por exemplo: Highly confidencial – GDPR seria o nível segurança elevado onde poucas pessoas deveriam ter acesso a essa informação ou Public seria nível segurança baixo onde todos podem acessar a informação.

Obs.: Isso é apenas uma classificação e não impõe nenhum tipo de restrição de acesso! Para restringir acesso ou ofuscar os dados existem outros recursos como Dinamic Data Masking e Row-level security.

Ao acessar a classificação pela primeira vez a Microsoft recomenda para você algumas colunas para classificar.

Isso realmente é um bom começo e com certeza ira te ajudar. Porem eu compartilho da opinião de algumas pessoas como Thomas LaRock que nesse post fala sobre esse recurso, onde existem limitações nessa versão – e é assim mesmo como foi anunciado que esse recurso está em constante mudança.

O algoritmo de classificação precisa ser melhorado em alguns aspectos:

  • Apenas funciona para nomes em inglês
  • Problemas com case-sensitive collations

O que me deixou satisfeito com o algoritmo foi que no meu caso mais de 75% das colunas sugeridas faziam total sentido!

Você pode aceitar as recomendações, edita-las, ou pode classificar manualmente outras colunas.

  1. Clique em Add classification
  2. Escolha o schema e a tabela
  3. Escolha a coluna
  4. Defina o “tipo de informação” o e “rótulo de sensibilidade”

Repita esse processo para cada coluna que você deseja classificar.

Uma vez que tenha terminado de classificar as colunas, você terá uma visão parecida com a primeira imagem e podendo agora exportar seu relatório para Excel que hoje é o único método possível.

Minha primeira tentativa resultou em uma visualização não agradável. Eu estava utilizando o Office 2013 e os gráficos não estão disponíveis (não funcionam). 

Depois de atualizar para o Office 2016 tudo funcionou normalmente.

Essa funcionalidade esta disponivel para on-premise a partir do SSMS 17.5!

Podemos esperar melhorias para o próximo semestre e deixo dois links de feedbacks sobre esse recurso

https://feedback.azure.com/forums/217321-sql-database/suggestions/33772411-scripting-capabilities-to-do-ms-sql-discovery-and

https://feedback.azure.com/forums/217321-sql-database/suggestions/33870379-data-discovery-and-classification-information-ty

Referência:

https://blogs.technet.microsoft.com/dataplatforminsider/2018/02/20/whats-new-in-ssms-17-5-data-discovery-and-classification/

https://docs.microsoft.com/en-us/azure/sql-database/sql-database-data-discovery-and-classification

https://docs.microsoft.com/en-us/azure/security/how-to-discover-classify-personal-data-azure

 

Categorias
Azure SQL Database How To

GDPR – como eu me preparei

[bing_translator]

“The General Data Protection Regulation (GDPR) will come into force on the 25th May 2018, replacing the existing data protection framework under the EU Data Protection Directive”

“The aim of the GDPR is to protect all EU citizens from privacy and data breaches in an increasingly data-driven world that is vastly different from the time in which the 1995 directive was established”

Nos últimos meses estive envolvido em muitas mudanças nas aplicações que temos por conta dessa nova regulamentação que esta entrando em vigor na Europa. Muitas empresas como Facebook, Google, Microsft e Amazon (apenas para citar algumas) também estão se adequando ao GDPR e desde o inicio do ano eu venho recebendo avisos de como eles tem mudado suas policas de segurança/privacidade.

Na minha opinião essa mudança é importante para nós usuários dessas grandes corporações e a intenção é ter mais controle sobre nossos dados pessoais.

Mas o que isso afeta o meu trabalho e o meu dia a dia? Não são apenas as empresas globais (gigantes da internet) que devem se adequar, mas sim qualquer empresa dentro da união europeia deve seguir essa regulamentacao e por isso o meu trabalho é afetado. Se você pensa que por não morar/trabalhar na Europa você não deve seguir o GDRP acredito que não é bem assim, pois em algum momento sua empresa pode fazer operações na Europa e você terá que se adequar, ou ate mesmo, quanto tempo você acha que essa regulamentacao ou alguma outra sera aplicada onde voce está? Pense bem.

O meu intuito aqui não é falar sobre o que o GDPR é ou para que ele se propõe. Para isso deixarei links onde você pode entender melhor.

Eu irei mostrar como eu utilizei ferramentas e recursos nativos do SQL Server para fazer que meu ambiente esteja de acordo com a regulamentação. E para cada item farei um post sobre como implementei e minhas impressões, por isso esse post será atualizado sempre que necessário.

A maioria dos posts terá o foco no Azure SQL Database.

Primeiramente temos que conhecer melhor nossos dados, saber o que eles representam e principalmente qual a sua valia para a empresa.

Garantir o princípio do menor privilegio foi a fase do meu projeto que mais demorou, uma vez que temos que entender quem acessa a informação, para qual finalidade e porque eles acessam.

Para ajudar a proteger seus dados, o firewall impede todo o acesso ao seu servidor de banco de dados até que você especifique quais computadores têm permissão.

  • Authentication in Azure SQL Database using Azure Active Directory

Com a autenticação do Azure AD, você pode gerenciar centralmente as identidades dos usuários do banco de dados e de outros serviços da Microsoft em um local central.

É o processo de identificar, quantificar e priorizar (ou classificar) as vulnerabilidades.

Conhecido como criptografia de dados em repouso (data at rest) e executa criptografia e descriptografia de I/O em tempo real dos dados e arquivos de log.

Transparent Data Encryption and its tricks

Limita a exposição a dados confidenciais mascarando para usuários sem privilégios. O DDM ajuda a impedir o acesso não autorizado a dados confidenciais.

  • Row-Level Security

Permite que os clientes controlem o acesso a linhas em uma tabela de banco de dados com base nas características do usuário que está executando uma consulta, em outras palavras, o RLS permite implementar restrições no acesso ao registro de dados.

  • Group Managed Service Accounts

Fornece um gerenciamento automático de senhas e de SPN, incluindo delegação de gerenciamento a outros administradores.

  • Always Encrypted

É um recurso projetado para proteger dados confidenciais, como números de cartão de crédito ou números de identificação nacional. Permite que os clientes criptografem dados confidenciais em seus aplicativos e nunca revelem as chaves de criptografia ao banco de dados.

  • Business continuity in Azure SQL technologies
    • Point-time Restore
    • Backup Long-term retention
    • Active Geo-replication
  • Auditing & Threat Detection

Pode ajudar a compreender a atividade do banco de dados e obter insights sobre discrepâncias e anomalias que possam indicar preocupações comerciais ou suspeitas de violações de segurança.

  • SQL Server Audit

Permite criar auditorias que podem conter eventos no nível do servidor e no nível do banco de dados.

  • Temporal table

Fornece informações sobre os dados armazenados na tabela em qualquer momento, em vez de apenas os dados corretos no momento atual.

  • Azure SQL Analytics

Coleta e visualiza métricas importantes de desempenho do Azure SQL Database.

 

Todos os passos que eu segui foi baseado no guia da Microsoft referente ao GDPR.

https://docs.microsoft.com/en-us/sql/relational-databases/security/microsoft-sql-and-the-gdpr-requirements

References:

https://www.eugdpr.org/the-regulation.html

https://www.dataprotection.ie/docs/GDPR/1623.htm

Categorias
Azure SQL Database How To Virtual PASS BR

Azure SQL Database – Migration tools – part 2

[bing_translator]

Existem algumas ferramentas que ajudam a migrar seu database para o Azure SQL Database e eu já falei de algumas:

Export e Import manualmente

Mais uma vez o SQL Server Management Studio (SSMS) é a ferramenta que pode ser usada através do Export Data-tier Application.
Esse processo tem algumas diferenças quando comparado com o Migration Wizard

  • Suporta qualquer database a partir da versão SQL Server 2005
  • Excelente para database de tamanho pequeno, médio ou grande
  • .bacpad pode ser armazenado no Azure Storage ou localmente
  • Processo em múltiplos passos independentes
  • Maior controle sobre o export e import
  • Downtime é grande

Não esquece de validar se seu database está pronto para o Azure SQL Database através do Data Migration Assistant – Assessment

Para iniciar o seu processo de migração acesse o wizard através do SSMS.

Acesse Object Explorer –> Instance –> Database –> Botão direito –> Task –> Export Data-tier Application. Uma primeira janela de introdução será mostrada, avance para a próxima.

Nesse ponto você pode escolher entre salvar o .bacpac localmente ou no Azure Storage Account

  1.  Connect a sua storage account
  2. Indique o container onde o arquivo bacpac deverá ficar
  3. Nome do arquivo
  4. Um caminho local temporário deve ser indicado para que o processo tenha sucesso

Revise as informações, principalmente o espaço temporário disponível, e inicie a exportação do database. Através da janela de progresso podemos verificar o que o wizard está fazendo.

  1. Extrai o schema
  2. Valida o schema
  3. Exporta os dados (tabela por tabela)
  4. Upload do arquivo bacpac para o Azure Storage

Uma vez que o wizard terminou com sucesso não existe mais nada para fazer no SSMS e agora você tem o controle de quando e onde realizar o import. Acesse o Azure Portal e navegue até o seu servidor logico do SQL servers.

Acesse o item Overview e a opção Import database

 

 

  1. Indique sua subscription
  2. Local onde você fez o upload do arquivo bacpac

  1. Defina o service tier do database
  2. Escolha um nome para o database
  3. Collation que deseja utilizar
  4. Método de autenticação
  5. Login do administrador do servidor logico

 

 

 

 

Após revisar as informações e confirmar, o deploy deverá iniciar e uma notificação será apresentada no portal. Uma vez que sua requisição tenha sido completada seu database estará disponível para uso. Você pode verificar através do SSMS ou do Azure Portal.

O tempo total de deploy depende de alguns fatores como tamanho do seu database e service tier escolhido. Outra possibilidade é utilizar powershell para fazer o import do bacpac ao invés de usar o portal do Azure.

O código abaixo é um exemplo estático de como utilizar powershell.

#region connect to Azure
Login-AzureRmAccount
Get-AzureRmSubscription 
Select-AzureRmSubscription -SubscriptionName 'MSDN Platforms'

#list of commands 
Get-Command -Module AzureRM.Sql
#endregion

#region getting information and set variables

# Get the resource group name 
Get-AzureRmResourceGroup 
$resourcegroupname = "SQL-Database"

# Set an admin login and password for your server
$adminlogin = "admin"
$password = "yourpassword"

# Get server name - the logical server name has to be unique in the system
Get-AzureRmSqlServer -ResourceGroupName $resourcegroupname #| Select ServerName
$servername = "balabuchsqldb"

# The sample database name
$databasename = "AdventureWorks_Bacpac_PS"

# The storage account name and storage container name
Get-AzureRmStorageAccount -ResourceGroupName $resourcegroupname #| Select StorageAccountName
$storageaccountname = "sqldatabasemigration"

Get-AzureRmStorageAccount -ResourceGroupName $resourcegroupname | Get-AzureStorageContainer #| Select Name
$storagecontainername = "migration"

# BACPAC file name
Get-AzureRmStorageAccount -ResourceGroupName $resourcegroupname | Get-AzureStorageBlob -Container $storagecontainername #| Select Name
$bacpacfilename = "AdventureWorks.bacpac"

#endregion


#region importing bacpac

# Import bacpac to database with an S3 performance level
$importRequest = New-AzureRmSqlDatabaseImport -ResourceGroupName $resourcegroupname `
    -ServerName $servername `
    -DatabaseName $databasename `
    -AdministratorLogin $adminlogin `
    -AdministratorLoginPassword  (ConvertTo-SecureString -String $password -AsPlainText -Force)`
    -DatabaseMaxSizeBytes "5000000" `
    -StorageKeyType "StorageAccessKey" `
    -StorageKey (Get-AzureRmStorageAccountKey -ResourceGroupName $resourcegroupname -StorageAccountName $storageaccountname).Value[0] `
    -StorageUri "https://$storageaccountname.blob.core.windows.net/$storagecontainername/$bacpacfilename" `
    -Edition "Standard" `
    -ServiceObjectiveName "S3"


# Check import status and wait for the import to complete
$importStatus = Get-AzureRmSqlDatabaseImportExportStatus -OperationStatusLink $importRequest.OperationStatusLink
[Console]::Write("Importing")
while ($importStatus.Status -eq "InProgress")
{
    $importStatus = Get-AzureRmSqlDatabaseImportExportStatus -OperationStatusLink $importRequest.OperationStatusLink
    [Console]::Write(".")
    Start-Sleep -s 10
}
[Console]::WriteLine("")
$importStatus

#endregion

#region scale down database

# Scale down to Basic after import is completed
Set-AzureRmSqlDatabase -ResourceGroupName $resourcegroupname `
    -ServerName $servername `
    -DatabaseName $databasename  `
    -Edition "Basic" `
    -RequestedServiceObjectiveName "Basic"

#endregion

Referências:

https://docs.microsoft.com/en-us/azure/sql-database/scripts/sql-database-import-from-bacpac-powershell

https://docs.microsoft.com/en-us/azure/sql-database/sql-database-import

Categorias
Azure SQL Database How To Virtual PASS BR

Azure SQL Database – Migration tools – part 1

[bing_translator]

Escolher a ferramenta de migração nem sempre é uma tarefa fácil uma vez que devemos levar em conta todos os pré-requisitos estabelecidos pelo cliente. Por esse motivo temos que conhecer os principais métodos/ferramentas de migração e suas diferenças para fornecer uma melhor solução e é necessário uma preparação antes de iniciar sua migração. No post Azure SQL Database – Before you migrate você pode encontrar o que deve ser considerado para ter uma migração de sucesso.

A primeira ferramenta que podemos utilizar é o Data Migration Assistant e você pode verificar como utilizar essa ferramenta aqui!

Migration Wizard no SSMS

O SQL Server Management Studio (SSMS) é a ferramenta que pode ser usada através do Migration Wizard e é o método mais comum para migração de um database.

Por ser um método bastante comum, algumas características dessa ferramenta:

  • Suporta database a partir da versão SQL Server 2005
  • Excelente para database de tamanho pequeno e médio
  • .bacpac é criado apenas localmente
  • É um processo único – ou toda a migração é realizada com sucesso ou nada é feito
  • Manipula o export e import automaticamente
  • Downtime é grande

Não esquece de validar se seu database está pronto para o Azure SQL Database através do Data Migration Assistant – Assessment

Para iniciar o seu processo de migração acesse o wizard através do SSMS.

Acesse: Object Explorer –> Instance –> Databases –> Botão direito –> Task –> Deploy Database to Microsoft Azure SQL Database.

Uma primeira janela de introdução será mostrada, avance para a próxima.

  1. Conecte no seu servidor Azure SQL (link)
  2. Escolha um nome para o seu database, originalmente o wizard mantem o mesmo nome.
  3. Configurações do seu Azure SQL Database
    1. Escolha o nível de serviço (service tiers): Basic, Standard, Premium ou PremiumRS (no momento apenas essas estão disponíveis)
    2. Tamanho máximo do database depende de cada nível de serviço.
    3. Service Objective: Dentro de cada service tier temos diferentes níveis de performance e limite de storage, as DTU
  4. Local de armazenamento do arquivo .bacpac

 

Revise as informações, principalmente o espaço temporário disponível, e inicie a migração.

Através da janela de progresso podemos verificar o que o wizard está fazendo e posso citar alguns passos:

  1. Extrai o schema
  2. Valida o schema
  3. Exporta os dados (tabela por tabela)
  4. Cria o database no Azure
  5. Verifica e analisa o deploy do novo database
  6. Inicia o processo de importação do pacote (schema e dados)
  7. Desabilita os índices
  8. Importa os dados (tabela por tabela)
  9. Habilita os índices

Uma vez que o wizard tenha completado a tarefa seu database estará disponível para uso. Você pode verificar através do SSMS ou do Azure Portal.

Algumas configurações que eu sento falta no wizard que e que por sua vez utiliza a opção default:

  • Location
  • Resource Group
  • Subscription

Apenas a configuração da região não é possível alterar depois que o database é criado.
O tempo total de deploy depende de alguns fatores como tamanho do seu database e service tier escolhido.

Concluindo, esse é o metodo mais utilizado e mais facil porem é demorado. Recomendo que teste esse metodos assim como marque o tempo total gasto e verifique se é aceitavel para sua migração. Duvidas do que fazer antes de migrar seu database? Não deixe de ler o post Azure SQL Database – Before you migrate

Referencia:
https://docs.microsoft.com/en-us/azure/sql-database/sql-database-migrate-your-sql-server-database

Pluralsight – Azure SQL Database for the SQL Server DBA

Categorias
Azure SQL Database How To SQL Server Virtual PASS BR

Data Migration Assistant – Migration

[bing_translator]

A ferramenta DMA v3.3 nesse momento tem duas opções de projetos: Assessment e Migration.
No post anterior Data Migration Assistant – Assessment falei um pouco sobre a funcionalidade de Assessment para assessorar e minimizar o impacto da migração de databases. Esse é o primeiro passo que você deve tomar para realizar uma migração e após verificar todos os itens dos relatórios você está “pronto” para iniciar a migração, pelo menos por parte do database não esqueça de verificar se a aplicação está preparada para a migração.

Ao iniciar a ferramenta DMA crie um projeto do tipo Migration onde iremos definir qual tipo de servidor de origem e destino.

Nesse momento temos que indicar qual o escopo da migração, que pode ser:

  • Schema and data
  • Schema only
  • Data only

A partir dessas opções podemos criar vários cenários para migração de um database como por exemplo:

  • Criar um servidor de teste e um database apenas com os metadados (schema); realizar o apontamento da aplicação para esse servidor fazendo assim um teste também com a aplicação.
  • Se precisar de poucos dados, aquelas famosas tabelas de configurações, você pode importar apenas o que precisa.

Desse ponto de vista temos uma flexibilidade enorme para trabalhar e eu escolhi o escopo: Schema and data para demonstrar do início ao fim o processo.

De forma simples o wizard irá te ajudar e nesse processo teremos 6 etapas sendo a primeira escolher a instancia e database de origem.

Uma tarefa que o wizard não faz é criar o database no Azure e por isso você deve criar um database vazio através do portal, powershell ou CLI antes de continuar. Basta seguir os passos desse link.

Eu criei um database chamado AdventureWorksDMA através do portal e o próximo passo é escolher quais objetos serão migrados.

Uma vez que tenha escolhido os objetos que serão migrados o passo a seguir é gerar os scripts desses objetos.

Aqui você tem a opção de salvar o script para analisar posteriormente, copiar para qualquer editor de texto ou realizar o deploy diretamente através do DMA que irá fazer o deploy para o Azure SQL Database.

Uma janela com informações dos resultados irá mostrar o progresso do deploy e os comandos executados. Ao finalizar existe a opção de redeploy ou iniciar a migração dos dados e como nosso objetivo é ter uma migração completa vamos seguir com a migração dos dados.

Selecione as tabelas desejadas ou todas e inicie o seu processo de migração.

O tempo que a migração depende de alguns fatores dentre eles posso citar: quantidade de tabelas e registros em cada uma delas e a performance do seu Azure SQL Database (DTU), no meu caso utilizei S0 (10 DTU).

Uma vez que a migração dos dados terminou com sucesso você pode se conectar no Azure SQL database através do SSMS (Azure SQL Database – SQL Authentication) para verificar que sua migração está finalizada com sucesso.

Categorias
Azure SQL Database How To SQL Server Virtual PASS BR

Data Migration Assistant – Assessment

[bing_translator]

Migração de um database é uma rotina comum na vida de um DBA e essa atividade pode ser para uma versão mais atual do SQL Server ou para o Azure SQL Database. A Microsoft sempre tentou auxiliar essas migrações com ferramentas como por exemplo o Upgrade Advisor. Por muito tempo utilizei essa ferramenta para as migrações que realizei pois ela gerava um relatório com todos os possíveis “problemas” que poderia ter.

Recentemente precisei migrar um database on-premise para cloud e ao verificar a versão mais atual do Upgrade Advisor descobri que a Microsoft decidiu descontinuar essa ferramenta. Você ainda pode baixar a ferramenta atrás desse link porem eu aconselho a utilizar a nova ferramenta o Data Migration Assistant (DMA). Essa ferramenta trouxe novas capacidades e facilidades onde uma delas é centralizar na mesma ferramenta as opções de realizar a migração ou apenas realizar a validação do database para uma futura migração.

É sobre essa nova ferramenta DMA que irei falar um pouco hoje.

Após fazer o download através do link acima e instalar a ferramenta, você pode notar na tela iniciar uma facilidade que é a criação de projetos. Estou utilizando a versao 3.3

Nesse momento existem dois tipos de projetos:

  • Assessment
  • Migration

O Assessment é a funcionalidade que iremos utilizar para verificar os possíveis problemas e incompatibilidades que temos ao migrar um database.

Depois de dar um nome ao seu projeto você deve escolher o tipo de servidor de origem que no meu caso só tenho a opção de SQL Server.

Nesse momento você deve selecionar qual o seu objetivo final, ou seja, qual o tipo de servidor que o seu database será hospedado. No meu caso 3 opções são apresentadas: Azure SQL Database, SQL Server e SQL Server on Azure Virtual Machines.

Como tenho trabalho com Azure SQL Databases vou utilizar essa opção para demonstração.

Agora que você escolheu as opções e criou o projeto uma nova janela irá apresentar quais os tipos de relatórios você gostaria de gerar.

Nesse momento é possível optar por gerar relatórios separados, o que pode ser útil quando existe uma lista grande de itens que estão sendo tratados aos poucos e você pode medir quanto esforço foi realizado ou falta a ser feito.

  • Check database compatilibity – verificará problemas que podem ser bloqueadores para a migração assim como features descontinuadas.
  • Check feature parity – verificará por features que não são suportadas ou são parcialmente suportadas.

Um terceiro tipo de relatório está por vim e parece ser bem interessante uma vez que ele informará quais são as possíveis features que podem ser utilizadas no seu database uma vez que você realizar a migração e isso é um benefício que pode ser traduzido em performance, tamanho, segurança entre outros (essa é a minha opinião sobre o que esperar desse relatório)

Próximo passo é escolher a instancia SQL Server e o(s) database(s) que fará parte do projeto de migração.

 

Uma lista com os databases selecionados será apresentada e você pode adicionar ou remover servidores de origem dentro do seu projeto, ou seja, pense que uma aplicação tem mais de um database em mais de uma instancia e com isso é possível criar um projeto com múltiplas instancias SQL Server e múltiplos databases.

Após iniciar o Assessment e a ferramenta terminar de analisar, você terá seus relatórios prontos e sua análise desses é extremamente fácil uma vez que está divido em seções.

Relatório: SQL Server features parity

  1. Recomendações e informações sobre features
  2. Detalhes sobre uma das recomendações selecionadas.
  3. Nível de aplicabilidade da recomendação. (Não se aplica a todas as recomendações)

Relatório: Compatility issues

  1. Issue (problema) agrupado por categorias
  2. Detalhes sobre o issue
  3. Objetos dentro database que são impactados pelo issue.

Dessa forma fica fácil visualizar o que devemos fazer para corrigir cada um dos issues antes de migrar o database.

No campo superior direito existem duas opções: Restart Assessment e Delete Assessment. Uma forma rápida para regerar o relatório ou excluir!

Para concluir é possível exportar o relatório para dois formatos: CSV e JSON. Particularmente o formato CSV não me agradou e o JSON é a nova onda do momento de transferia de dados de forma leve!