Como reduzir custos com a AWS

Veja como a nuvem pode deixar sua infraestrutura mais enxuta e fazer você economizar

Reduzir custo na infraestrutura de um sistema é essencial, sobretudo em um momento como este em que qualquer corte de gastos é muito bem-vindo. Neste cenário, a nuvem entra como uma forma de deixar a sua infraestrutura mais enxuta, desde mecanismos de monitoramento, passando pela possibilidade de desligar o equipamento em momentos ociosos, até reservar máquinas para conseguir descontos. 

A AWS, Amazon Web Services, oferece uma infraestrutura sob demanda, para  que você pague apenas pelo que consumir. Isso quer dizer que você tem uma redução de custos a longo prazo e economiza uma quantidade dinheiro que pode ser usado para investimento em inovação e novas oportunidades.

Pague apenas o que usar

A AWS oferece algumas modalidades de virtualização de máquina. Dentre essas modalidades existe on-demand  que, como o próprio nome já diz, é a modalidade sobre demanda. Isso significa que você vai pagar somente o que tiver utilizando efetivamente. 

Se a sua aplicação precisar de uma visita apenas durante os dias de semana, você pode deixar a sua máquina parada durante o final de semana. Considerando um mês de trinta dias e quatro finais de semana, teríamos oito dias com a máquina parada sem gerar custo. Isso equivaleria a uma economia de aproximadamente 25%. Agora, imagine se sua aplicação ficar online apenas em horário comercial, o desconto seria muito maior e poderia chegar a 70%.

Tabela de redução segundo a AWS. Fonte: aws.amazon.com/pt/economics

Calculadoras de custo total de propriedade da AWS

A calculadora de TCO, Custo Total de Propriedade, da AWS permite que você faça uma estimativa sobre a redução de custo ao usar a plataforma. A AWS oferece relatórios detalhados inclusive para apresentações executivas. A calculadora permite modificações e suposições de acordo com suas necessidades da sua empresa. Neste ambiente você pode comparar o custo da execução das aplicações ou de hospedagem tradicional com o custo da execução na AWS. 

Processo automatizado 

É possível realizar o agendamento de parada e inicialização de recursos automaticamente, sem a necessidade de intervenção manual para realizar o procedimento todos os dias, evitando mão de obra e dando garantias de sempre acontecer, removendo os riscos de possíveis esquecimentos humanos. 

Uma das possibilidades é utilizar o CloudWatch como gatilho, criando uma regra em determinado horário para uma função lambda. Essa função lambda, por sua vez, consome SDK da AWS e oferece todos os comandos para você desligar o EC2 ou RDS. É uma solução bem utilizada e fácil de implementar.

Outra forma, ainda mais fácil, é utilizar uma solução já existente: o AWS Instance Scheduler. Ela facilita as paradas tanto das máquinas EC2 quanto RDS. Internamente o uso não é diferente da função anterior, ele usa o CloudWatch e a lambda, além disso, para armazenar alguns valores ele utiliza o DynamoDB. É uma boa solução caso você não queira fazer sua própria função lambda. Porém, vale ressaltar que você é responsável pelo pagamento de cada serviço utilizado na solução, então haverá aumento de consumo nos serviços mencionados acima.

Uma terceira possibilidade é configurar a instância na hora de criar a máquina dentro de um auto scaling group. Isso dará a possibilidade de configurar a quantidade de instância desejável em um determinado horário. Na hora de configurar você pode usar uma fórmula de cronograma como os usados no gatilho do CloudWatch e determinar dia e horário.

Cuidado para não perder seus dados! 

Alguns cuidados precisam ser tomados ao utilizar um processo automático de desligamento de máquinas EC2. Podem surgir problemas quando aplicações críticas estão rodando algum processo long-running em background e são paradas abruptamente. Se a sua aplicação mantém algum tipo de estado não persistido (deixado em memória, por exemplo), você fatalmente perderá essas informações. Se a sua aplicação não estiver tratando operações como atômicas, ou seja, transacionando no banco de dados, pode acabar gerando inconsistência na base.

Se a sua aplicação usa algum meio de persistência local como o próprio EBS, é importante que você apenas pare a aplicação e não a finalize. Quando você finaliza, acaba perdendo todas as informações do disco local. 

◼️ Leia também: O manual da segurança de dados na AWS e as responsabilidades compartilhadas

Atenção ao limite de dias para parar sua instância RDS

Atualmente existe um limite máximo de sete dias que você pode manter seu banco de dados parado, depois disso ele automaticamente irá iniciar novamente. Como já falamos, quando ele está parado não há cobrança, mas há limitações: no banco de dados postgres, ao usar um banco read replica não é possível parar o banco primário até que seja excluído o banco de réplica. Isso significa um aumento expressivo no tempo de inicialização nestes casos.

Apesar do tempo de inicialização ser maior, financeiramente pode valer a pena. O tempo de inicialização irá aumentar porque será preciso recriar o banco sempre que iniciá-lo novamente. Pode levar dez, vinte minutos, mas caso seu banco fique ocioso durante um longo período, financeiramente pode ser muito vantajoso

Outras formas de reduzir custos com a AWS também são possíveis. Vamos considerar um serviço que roda em background e que a cada 5 horas realização uma operação no banco de dados. Isso significa que ele ficará ocioso por 5 horas, depois irá trabalhar durante alguns segundos, para ficar ocioso novamente durante outras 5 horas.

Considerando a atividade descrita acima, é válida a criação de uma AWS lambda, onde você será cobrado apenas pelo tempo que executar o processamento da rotina.Uma solução bem interessante quando se tem vários serviços que rodam de tempos em tempos.

Presença global por um preço acessível ao bolso

A AWS tem uma presença global que permite repassar a economia para quem compra esse serviço de maneira contínua. São diversas opções de pacotes e serviços que podem oferecer economia de 75% a 90% das taxas sob demanda se for escolhida a capacidade pré-adquirida ou capacidade reserva.

Como já falamos anteriormente, na AWS não é preciso fazer compromissos com gastos mínimos ou contratos de longa duração. Você pode substituir as despesas iniciais por pagamentos que se aplicam apenas àquilo que você necessita. Nada de contratos ou modelos complexos que dificultam seu dia a dia. 

Ficou interessado? A Viceri tem uma equipe pronta para fazer a migração do seu banco e colaborar em tudo que você precisar durante o processo. Fale com a gente!

Como transformar seu monolito em microsserviço

Transformar uma aplicação monolítica em microsserviços poder ser uma tarefa muito complexa. Conheça alguns caminhos possíveis de se seguir quando estiver refatorando sua aplicação monolítica

Transformar uma aplicação monolítica em microsserviços é uma forma de modernizar a aplicação.

E se você trabalha com tecnologia, deve saber que o processo de transformar uma aplicação monolítica em microsserviços é uma tarefa muito complexa e delicada. Exige tempo e paciência de todos os envolvidos. 

A arquitetura monolítica é uma arquitetura tradicional de desenvolvimento de sistema de software.

Ela se baseia no princípio de que todos os processos dentro de uma mesma solução estão ligados. Isso quer dizer que são acoplados, que estão dentro de uma base de dados similar e executam seus processos como um único serviço. 

Já a arquitetura de microsserviços veio para solucionar problemas enfrentados pela arquitetura monolítica.

É um modelo que desenvolve pequenos serviços que realizam funções independentes.

Por serem independentes, podem atender demandas específicas em uma solução maior. É um processo menos tradicional que a arquitetura monolítica. 

Primeiros passos para refatorar uma aplicação 

Para que a migração de uma para a outra se torne uma tarefa mais simplificada, existem alguns caminhos possíveis de se seguir quando estiver refatorando sua aplicação monolítica.

A primeira dica é não fazer uma reescrita total da sua aplicação. Ou seja, esqueça a ideia de direcionar todos os esforços do time para reescrever a aplicação do zero.

Isso é extremamente arriscado e geralmente resulta em problemas que acabam levando mais tempo que o planejado. 

Vá devagar! O mais recomendado é refatorar aos poucos sua aplicação monolítica. Construa uma aplicação de forma incremental, rodando cada novo microsserviço em conjunto da aplicação original.

Com o passar do tempo, a quantidade de funcionalidades implementadas em microsserviços vai mostrar que o monolito encolheu tanto que em algum momento ele deixará de existir.

Quando sua aplicação monolítica se tornar ingerenciável, deve-se parar de tornar seu monolito maior.

Se você tiver de implementar uma nova funcionalidade, não adicione esse código ao monolito. Ao invés disso, a melhor estratégia é colocar o novo código em um microsserviço próprio para isso.

Glue Code

É neste cenário que surge o Glue Code, que são as dependências responsáveis pelo acesso aos dados.

Geralmente o serviço usará bibliotecas e componentes de acesso a dados da sua aplicação original.

O glue code  é chamado também de camada anti-corrupção, já evita que o microsserviço seja poluído com problemas da aplicação legada.

Desenvolver uma camada anti-corrupção não é algo muito comum, mas é essencial quando se quer manter uma aplicação confiável.

Com isso em mente, esse Glue Code pode seguir três estratégias:

– Invocar uma API remota, fornecida pelo monolito;

– Acessar a base de dados do monolito diretamente;

– Manter sua própria cópia da base com parte dos dados necessários para o microsserviço, que estará sincronizada com a base do monolito. 

E o que acontece ao implementarmos novas estratégias? 

Implementar novas funcionalidades como um microsserviço tem uma série de benefícios.

Essa estratégia impede que seu monolito se torne cada vez mais ingerenciável, ao mesmo tempo que permite que o serviço possa ser desenvolvido, implantado e escalado de maneira independente do monolito.

A cada novo serviço criado, será experimentado um pouco mais dos benefícios desta arquitetura.

Entretanto, essa abordagem não acaba com todos os problemas do monolito. Para tentar consertar esses problemas, é necessário quebrar o monolito em partes cada vez menores.

Outra estratégia que ajuda a encolher a aplicação monolítica é separar a sua camada de apresentação da lógica de negócio e do acesso a dados.

Geralmente existe uma separação muito clara entre a camada de apresentação e as camadas de regras de negócio e dados.  E isto é o que permite fazer a separação do seu monolito em duas aplicações menores.

Uma aplicação será o frontend, e a outra o backend. Uma vez separados, o frontend fará chamadas independentes ao backend.

Separar um monolito dessa maneira permite que o time desenvolva, implante e escale duas aplicações de maneira independente.

Essa estratégia, no entanto, é somente uma solução parcial. É bem comum que você troque um problema enorme por dois problemas menores, mas que no contexto geral ainda são um problemão a ser resolvido.

Você terá de usar uma outra estratégia para eliminar os monolitos restantes.

Essa outra estratégia é transformar os módulos existentes dentro de um monolito em microsserviços.

Cada vez que você extrai um módulo e o transforma em um serviço, o monolito encolhe. Uma vez que tenha sido convertido muitos módulos, o monolito deixará de ser um problema. Ou ele irá sumir ou vai acabar virando um microsserviço.

Converter um módulo em microsserviço requer tempo e paciência 

Uma aplicação monolítica grande geralmente terá dezenas ou centenas de módulos, todos dispostos a serem extraídos.

Saber quais módulos converter primeiro pode ser desafiador. Uma boa abordagem é começar com alguns módulos que são fáceis de extrair.

Converter um módulo em um microsserviço é algo que requer tempo. Uma dica é priorizar módulos que mudam com frequência.

Isto trará experiência com arquitetura de microsserviços e com o processo de extração.

Depois que você extrair esses módulos mais fáceis, poderá partir para os mais complexos.

Uma vez que você tenha convertido um módulo desses para um serviço, você pode desenvolver e implantar ele de maneira independente do monolito, o que vai acelerar o desenvolvimento.

Outra abordagem interessante é extrair os módulos que possuem requisitos diferentes do resto da aplicação.

Por exemplo, pegar aquele módulo que utiliza recursos específicos do servidor como muita memória ou CPU. Conforme você vai extraindo estes módulos específicos, você vai ver como se tornará mais fácil escalar os microsserviços.

O primeiro passo ao extrair um módulo é definir a interface entre o módulo e o monolito.

Geralmente será um contrato bidirecional, pois é comum o monolito precisar de dados do microsserviço e vice-versa.

Se a lógica de negócio do monolito estiver muito acoplada, talvez seja difícil de extrair apenas o necessário para o microsserviço, então é possível que uma refatoração interna no monolito seja necessária para continuar avançando com essa extração.

Uma vez que você tenha extraído um módulo, é mais um serviço que permite ao time desenvolver, implantar e escalar mais facilmente do restante do monolito.

Sendo possível, inclusive, reescrever este serviço do zero mais tarde, uma vez que o módulo já foi isolado.

Cada vez que você extrair um novo serviço, estará um passo mais perto de ter uma aplicação 100% em microsserviços.

Com o passar do tempo, seu monolito encolherá e a virada de chave entre as arquiteturas se tornará algo natural.

Quer saber mais como sua empresa pode aplicar isso na prática? A Viceri conta com especialistas que podem te ajudar. Fale com a gente!

Microsserviços e AWS

Manter todas as soluções do seu site ou aplicativo funcionando de forma harmônica e ágil, pode ser um grande desafio diário. Neste momento, é importante contar com o auxílio das tecnologias disponíveis para te ajudar em alguns processos e automatizar atividades que lhe pouparão tempo, custos e burocracia, e que contribuem para a otimização de alguns processos dentro da sua solução, de forma segura.

Computação em Nuvem e sua relação com os Microsserviços

A computação em nuvem é o termo usado para definir a utilização de serviços e recursos de computação através da internet, como armazenamento de dados, a capacidade de processamento, banco de dados, rede, softwares, entre outros. Nela, você paga apenas pelos serviços que você ou sua empresa utilizam. 

Já os Microsserviços são um modelo de Arquitetura de Software que consiste no desenvolvimento de pequenos serviços independentes e com baixo acoplamento dentro de um sistema, criados para atender a recursos específicos, cada serviço é projetado e gerenciado por uma pequena equipe especializada naquela solução, utilizando o seu próprio banco de dados e base de códigos. 

Cada serviço pode ser implementado, atualizado e escalado de forma individual para atender a uma demanda ou função específica de uma solução maior. Os serviços se comunicam por meio de API’s bem definidos e não necessariamente compartilham da mesma biblioteca, tecnologia ou estrutura arquitetural. Saiba mais sobre a arquitetura de microsserviços no nosso post: O que são microsserviços e quais são as suas diferenças da arquitetura monolítica?

Como cada serviço dentro de um microsserviços funciona de forma autônoma e independente, é possível utilizar a Computação em Nuvem para desenvolver, gerenciar e disponibilizar cada um dos serviços do sistema do software. Conheça as vantagens:  

  • Redução dos custos: elimina-se gastos com investimentos em hardware, software, data centers e suas manutenções. Além da redução de custos com profissionais de TI voltados para o gerenciamento desta estrutura;

  • Otimização de Recursos: sua empresa tem a possibilidade de ajustar os recursos de acordo com as necessidades de cada serviço do sistema;

  • Produtividade: Elimina-se a necessidade de datacenters locais o que possibilita a concentração de esforços da equipe de TI na obtenção de metas comerciais mais importantes;

  • Escalabilidade: É mais ágil e econômico escalar diferentes serviços dentro de um sistema;

  • Maior estabilidade ao sistema: Como cada serviço funciona de forma independente e autônoma, uma sobrecarga de demanda não afetará o funcionamento do restante do sistema. Além disso,como a maioria dos serviços de computação em nuvem funcionam com autosserviço sob demanda, as solicitações para determinadas demandas com maior quantidade de recursos de computação podem ser feitas em minutos. 

  • Segurança: Cada serviço possui seu próprio banco de dados e os provedores de nuvem oferecem políticas, tecnologias e controles eficientes que garantem a segurança destes dados.

E para que a sua solução funcione de forma adequada e eficiente é importante que a sua empresa invista em uma plataforma de nuvem de confiança, abrangente e inovadora, como é o caso da Amazon Web Services (AWS).   

Por que a AWS proporciona um funcionamento eficiente de Microsserviços?

A AWS é a plataforma de nuvem da empresa Amazon. É a mais abrangente plataforma do segmento e oferece mais de 175 serviços completos de datacenters em todo o mundo. Possui em sua carteira de clientes startups de crescimento rápido, grandes empresas e alguns dos maiores órgãos governamentais. A AWS oferece alguns dos serviços que são essenciais e auxiliam para o perfeito funcionamento da computação em nuvem e dos microsserviços,  como:

Docker

A Docker é uma plataforma do software que permite a criação, o teste e a implantação de aplicações rapidamente. O Docker cria pacotes menores de unidades padronizadas, que são conhecidas como containers,  sua funcionalidade é essencial para manter o serviço, pois possibilita realizar a escala individual de cada um dos serviços, isso faz com que seja possível disponibilizar a performance adequada para cada um dos serviço da sua solução.

Amazon S3 (Amazon Simple Storage Service)

A Amazon Simple Storage Service é um sistema da AWS que foi desenvolvido para facilitar a computação de escala na web para os desenvolvedores. Ele permite o armazenamento e recuperação de qualquer tipo de dados, em qualquer momento e lugar na web. Este sistema é altamente dimensionável, rápido, econômico, confiável e seguro, e permite a escalabilidade do serviço pela própria AWS, sem precisar de atuação manual. A Amazon S3 tem recursos para banco de dados no cycle, que atualmente é totalmente introduzida nas aplicações para microsserviços. Ele consiste em ser rápido e flexível para os aplicativos, diminuindo o tempo de resposta para o cliente.

Amazon RDS

Para facilitar a configuração, operação e a escalabilidade do banco de dados relacionais dentro da nuvem, o sistema Amazon Relational DataBase Service (RDS) oferece uma gama de banco de dados populares disponível no mercado, tornando mais fácil a escalabilidade e backup desse recurso. 

Application Load Balancer

O Application load balance oferece serviços de rede com latências baixíssimas de comunicação, possibilitando o balanceamento e configuração de carga do tráfego de rede http e https.

Amazon EC2 (Amazon Elastic Compute Cloud)

O Amazon Elastic Compute Cloud (EC2) oferece uma capacidade de computação dimensionável na nuvem da AWS, foi projetado para desenvolver e implantar aplicativos de forma rápida, eliminando a necessidade de investir em hardwares. O EC2 também possibilita o gerenciamento da expansão ou redução do tráfego do servidor, proporcionando maior flexibilidade nos momentos de pico em determinados serviços.

AWS CloudTrail

O AWS CloudTrail  grava continuamente todo o histórico de eventos e rastreia tudo que aconteceu em seu sistema de rede e infraestrutura da sua aplicação, esse histórico promove maior segurança, rastreia as alterações de recursos, facilita a solução de problemas e detecta atividades incomuns na conta. Isso contribui para o seu sistema ser mais seguro e possibilita o registro de operações realizadas no sistema.

AWS X-Ray

O AWS X-Ray funciona para aplicativos simples e complexos, em ambientes de desenvolvimento e produção. Ele rastreia as solicitações do usuário enquanto percorrem o aplicativo, agrega os dados gerados por serviços e recursos individuais, oferecendo uma visão completa de planejamento. Esse sistema permite a visualização centralizada de logs e o monitoramento de uma resposta rápida para problemas complexos entre microsserviços. Disponibilizando uma visualização completa sobre as solicitações e mostrando um mapa dos componentes do aplicativo, o X-Ray analisa os aplicativos que estão em produção e possibilita entender sua performance dentro do serviço.

A AWS é uma plataforma extremamente confiável, que reúne tecnologias e serviços que garantem um funcionamento eficiente, seguro, econômico e menos burocrático para toda a arquitetura de microsservices da sua solução. Quer saber mais? Entre em contato com o time da Viceri! Temos um time de completo de engenheiros certificados em AWS que ajudarão a fazer o seu negócio crescer.  

LGPD: prazos, penalidades e recomendações

Anteriormente prevista para entrar em vigor em agosto de 2020, a Lei Geral de Proteção de Dados sofreu um adiamento de sua data para entrada em vigor. A nova data afora é 3 e maio de 2021. A crise do COVID-19 e sua quarentena causaram suspensão e atraso de prazos e determinações legais. Isso dá maior prazo para as empresas adequarem suas políticas e rotinas à nova lei.

Essa regulação vem em um momento em que a proteção de dados se torna uma questão de extrema importância, principalmente devido ao modo como a tecnologia vem se relacionando com o nosso dia a dia. Para entender melhor como a LGPD precisa ser atendida em todas as empresas, é necessário entender a relação desta lei com o Cambridge Analytica.

A LGPD e o Cambridge Analytica

A origem da LGPD começa com um professor de psicologia chamado Aleksander Kogan, que lecionava na Universidade de Cambridge. Ele obteve permissão do Facebook para coleta de dados para um aplicativo chamado thisisyourdigitallife que tinha fins meramente acadêmicos.

O aplicativo gerava testes de personalidade baseados em séries famosas da grande parte do público usuário do Facebook. Foi através desses testes que Aleksander conseguiu coletar nome, endereço e conteúdos de likes de 270 mil usuários da rede social. Até esse ponto da história, tudo ocorreu legalmente, por mais duvidável que seja. O problema começa quando o professor decide vender todo esse volume de dados para uma empresa chamada Cambridge Analytica, que não possui nenhuma relação com a universidade.

De acordo com o Facebook, a rede social possui condições de uso do software que proíbe o repasse de dados para terceiros. Em 2015 essa violação de dados se tornou do conhecimento do Facebook, que removeu o aplicativo do professor da rede e solicitou que esses dados vendidos fossem completamente apagados. Mas depois ficamos sabendo que isso não aconteceu com todos os dados.

Essa “brecha” que permitiu o vazamento de informações de mais de 270 mil pessoas trouxe à tona a discussão da proteção de dados. Apesar de muito grave, o caso do Cambridge Analytica aconteceu devido a um consentimento oculto dos usuários do Facebook, que tratou o assunto como quebra de conduta ao invés de uma falha de segurança na própria rede.

Quer saber mais sobre a nova Lei Geral de Proteção de Dados? Acesse o nosso whitepaper especial “Tudo sobre a LGPD” e confira vários conceitos e dicas para adequar o seu negócio à nova legislação!

Tratamento de dados e as exceções da LGPD

É preciso entender que, a partir do momento da implementação da Lei Geral de Proteção de Dados, o titular é o dono dos dados. Ou seja, a pessoa física natural é que terá o direito de confirmar a existência de tratamento dos seus dados pessoais, acessar, corrigir, anonimizar, bloquear ou eliminar os dados pessoais, além de solicitar a portabilidade, obter informações sobre o compartilhamento de dados e revogar o consentimento dado anteriormente.

Segundo uma pesquisa realizada pela Capterra, somente 40% dos pequenos e médios empresários estão totalmente preparados para a LGPD no Brasil. Como explica a advogada especialista em Direito Digital Flávia Carvalho, a lei vale para todo mundo, inclusive para lojas físicas. “Ela aplica-se apenas quando o tratamento de dados tiver fins econômicos”, explica. “Por exemplo, se eu pegar vários dados pessoais para fazer um churrasco beneficente, tudo bem, porque eu não estou visando ganhar dinheiro com isso ou obter alguma vantagem econômica”, complementa.

Entendendo os objetivos desta lei, entende-se que ela se aplica aos dados pessoais de indivíduos localizados. Ou seja, quando o tratamento desses dados se dá no Brasil e na oferta de bens e serviços para indivíduos no Brasil. A lei não vai tratar somente de dados de brasileiros e sim de todo indivíduo que estiver em território brasileiro.

A lei de proteção de dados não vai se aplicar a:

  • Dados oriundos destinados a outros países que apenas transitem pelo território brasileiro;

  • Uso pessoal ou não comercial;

  • Fim jornalísticos;

  • Fins acadêmicos;

  • Fins de segurança pública.

Como uma empresa deve se adequar à LGPD

A especialista Flávia Carvalho afirma que, após o entendimento do que é a Lei Geral de Proteção de Dados, o primeiro passo para a conformidade é a revisitação de contratos. “É preciso olhar cada um desses documentos e atuar preventivamente, ou seja, procurar brechas de dados”, aconselha a advogada. “O objetivo é que o cliente seja informado quais dados estão sendo coletados e qual a finalidade deles”.

O recomendado é que as mesmas pessoas responsáveis pela revisitação de contratos elejam um profissional que ficará encarregado, um Data Protection Officer, que pode ser uma pessoa física ou jurídica. O DPO será o ponto de contato dos titulares desses dados e das autoridades de fiscalização. Diante desse entendimento, a empresa precisa começar a trabalhar para adequação aos princípios da lei e também procurar um advogado especialista para tal.

A pessoa eleita como DPO da empresa precisa identificar quem utiliza sistemas, que tipos de dados cada sistema possui e armazena. Também deve identificar quem trata os dados pessoais (nome, CPF, RG, endereço, telefone, e-mail) e dados mais sensíveis (origem étnica, orientação sexual, religiosa, dados biométricos), além da forma como estes dados são trabalhados, se esses dados são transmitidos de alguma forma internamente ou externamente.

Quais são as penalidades da LGPD?

Como lembra a advogada Flávia Carvalho, o prazo para a LGPD entrar em vigor ainda está indefinido. “Muitos defendem o adiamento justamente por causa da crise da COVID-19 e porque o órgão fiscalizador ainda não foi completamente formado”, explica ela. A entrada em vigor está marcada para 3 de maio de 2021.

As penalidades para a não-adequação da Lei Geral de Proteção dos dados são:

  • Uma advertência;

  • Multa de até 2% do faturamento da pessoa jurídica no seu último ano de exercício (com uma limitação de 50 milhões de reais por infração);

  • Multa diária observando a limitação citada acima;

  • Bloqueio dos dados pessoais;

  • Eliminação desses dados pessoais da base de dados da instituição;

  • Suspensão ou proibição da atividade de tratamento desses estados;

  • Publicização da infração.

É importante ressaltar que a lei não foi criada para vedar o uso dos dados pessoais pelas empresas, mas sim para estabelecer princípios e regras para o tratamento desses dados. Caso tenha dúvidas, a Viceri conta com um time de especialistas para ajudar a sua empresa a entrar em conformidade com a nova lei de proteção de dados.

Engenharia de features e dados: como ter um aprendizado de máquina eficiente

A engenharia de features é o que vai ensinar como ter um aprendizado de máquina eficiente. Assim, de forma bem direta. E é dessa forma direta que faço a seguinte pergunta: quanto mais features, melhor? 

Antes de dar um overview sobre a engenharia de features, é importante entendermos algumas definições. Suponhamos que se tenha dados brutos tabulados – ou em um banco de dados – para servir de input para uma análise de um treinamento de aprendizado. 

Estes dados tabulados seriam compostos por linhas e colunas, onde as colunas representariam os atributos, e as linhas as instâncias – ou seja, a quantidade de exemplos para o conjunto de atributos. 

Os atributos portanto, representam a propriedade de um objeto e definem um valor específico para uma certa instância. Só que nem todos os atributos devem estar presentes nesse conjunto de dados, ou dataset.

Por exemplo: para se fazer uma previsão de ocorrência de acidente de trânsito, baseada nos atributos dos clientes, podemos perceber que os atributos CPF e RG não fazem diferença, e na verdade podem até atrapalhar a construção do aprendizado de uma rede neural. Neste sentido, utilizamos a palavra feature para definir um atributo que tenha mais importância e mais significado. 

Então, respondendo a pergunta acima: não necessariamente. Mais features precisam de maior monitoramento e com isso mais engenharia.

É e dessa forma que começamos a falar sobre o processo de engenharia de features, que tem por objetivo filtrar ainda mais essas features. Existem casos em que necessitamos expandir, selecionar ou excluir algumas delas. Como a feature idade, que pode ser excluída se tivermos a feature data de nascimento, já que elas são redundantes e o modelo pode não convergir tão bem. 

Agora, vamos por partes. Separei aqui os principais tópicos para discutirmos sobre engenharia de features e dados.

O que são features?

Como já falamos acima, Features ou, em português, características, são fatores utilizados para definir um atributo que tenha mais importância e significado. Podemos ter como exemplo um conjunto de dados utilizado para treinar um sistema de um veículo autônomo, esse conjunto é composto por informações como: 

  • Aceleração;

  • Distância do objeto da frente;

  • Combustível;

  • Temperatura;

  • Tempo de viagem.

 

Cada uma dessas informações é chamada de feature. Para ficar mais claro, conversei com o Gestor do Núcleo de Tecnologia da Informação da Universidade Federal de Santa Maria, unidade de Palmeira das Missões, Heitor Scalco Neto e ele citou o seguinte exemplo:

Imagine uma planilha do Microsoft Excel (Figura 1): no topo há um cabeçalho, informando qual tipo de informação está contida em cada coluna. Sendo assim, cada coluna representa uma feature.

Figura 1: Exemplo de base de dados.

Então o que é a engenharia de features?

O trabalho de engenharia de features consiste em elencar as características mais importantes dos dados e, dependendo do modelo utilizado, normalizar os valores contidos na base de dados. 

A normalização de dados geralmente ocorre com a definição dos valores máximos e mínimos encontrados na base de dados, a partir desse momento é realizado o cálculo para que todos os valores fiquem entre 0 e 1. Para entender melhor, seguimos com os exemplos citados por Heitor:

Vamos iniciar com a feature “Irradiação Solar” (Figura 2), podemos perceber que o maior valor encontrado é “466.375”, que será representado por 1, e o menor valor é “40.775”, que será representado por 0. Na Figura 3 podemos ver a feature “Irradiação Solar” normalizada.

 

Figura 2: Base de dados, obtendo o maior e o menor valor de uma feature.

 

Figura 3: Feature “Irradiação Solar” normalizada.

 

Por que a engenharia de features é importante para um aprendizado eficiente de máquina?

O processo de engenharia de features é a fase mais importante e trabalhosa quando se deseja ter um aprendizado de máquina eficiente. Se, por exemplo, a modelagem estiver razoável, porém, com excelente tratamento dos dados, teremos um melhor resultado do que com uma modelagem excelente e dados com uma preparação mais pobre, seja por inconsistência, ruídos, dados faltantes ou até mesmo pouca quantidade de informação.

Podemos dizer então que é um processo iterativo para transformar dados brutos em características que melhor representam o problema.  Um caso muito comum disso são os modelos de deep learning que recebem dados brutos e internamente já identificam as melhores features como as bordas, linhas e texturas em uma classificação de imagem. 

No processo de engenharia de features, temos primeiro a fase de brainstorming, depois a criação, seleção e avaliação. E esse processo funciona de forma cíclica. 

Na fase de brainstorming, entendemos o domínio do problema, reunindo informações para descobrirmos quais poderiam ser as minhas features. Na fase de criação produzimos as features. Na etapa de seleção podemos remover ou ainda expandir algumas features e na fase de avaliação realiza-se uma estimativa da qualidade do modelo, utilizando as features selecionadas.

Algumas técnicas e algoritmo podem ser usados para a aplicação do processo de engenharia de features. Após a fase de brainstorming, e para a fase de criação, pode se utilizar as técnicas de feature extraction ou feature construction. 

Aqui se trabalha com a etapa de extração do que é mais importante em observações muito volumosas, como mídias. Para esses casos é realizada frequentemente uma redução de dimensionalidade. Essa construção pode ser manual, ou até utilizando a deep learning, numa técnica chamada feature learning. 

Após a etapa de criação pode-se utilizar a técnica de feature importance para pontuar as melhores features, e assim mantê-las ou quebrá-las em mais. Aqui os algoritmos de árvore de decisão, como random forest e gradient boosting machine podem ser utilizados. 

As técnicas de Machine Learning têm uma certa sensibilidade ao aprender o padrão dos dados. Desta forma, o processo de engenharia de features é extremamente importante, pois retira o possível ruído dos dados. Segundo Heitor Scalco Neto, outro processo importante de engenharia de features é a escolha das características mais relevantes. 

“Em vários casos, algumas features ajudam o estabelecimento de padrões, porém, em outros, a utilização de determinadas features acabam atrapalhando o processo de aprendizagem. Isso acontece porque existe um aumento da complexidade do aprendizado e a necessidade de mais amostras de dados, a cada feature adicionada”, destaca. Por isso, deve-se realizar um estudo da importância de cada feature antes de utilizá-la no treinamento da técnica de Machine Learning.

Exemplos sobre o uso de dados na engenharia de features

Podemos dividir os dados em qualitativos e quantitativos. Dados qualitativos podem ser nomes de categorias, clientes, produtos ou qualquer dado descrito com uma ou mais palavras. 

Eles ainda podem ser separados em nominais – quando não se tem ordem, por exemplo idiomas ou cores – e ordinais – quando existe uma ordenação, como por exemplo o nível de escolaridade.

Já os dados quantitativos são expressos por numerais, geralmente são features que possuem um valor de distância entre si, por exemplo: tensão elétrica, quantidade de casos de determinada situação, área construída, dimensões e etc.

São números que podem ser discretos – geralmente definem quantidade de algo – ou contínuos – podendo ser ainda em intervalos como range de temperatura, ou em proporções como peso, altura, comprimento.

Esses dados são importantes porque evitam problemas com cálculos estatísticos. Pense num caso de se atribuir o valor (1) para graduação, (2) para mestrado e (3) para doutorado. Isso não quer dizer que doutorado é três vezes a graduação. 

Diversas técnicas de estatísticas são utilizadas nesta fase de pré-treinamento, sendo a medida do coeficiente de correlação uma das mais frequentes.

Gostou do artigo e quer saber mais? Envie uma mensagem para a gente e saiba mais sobre como levar essa metodologia de trabalho para a sua empresa.

Business Intelligence x Data Science: qual a diferença?

Geralmente muitas pessoas que não são da área imaginam que Business Intelligence e Data Science sejam termos similares, quando na verdade um complementa o outro.

 Enquanto o business intelligence usa a coleta de dados para tomar melhores decisões e saber se os investimentos feitos estão trazendo bons resultados para a empresa, a data science analisa os dados para subsidiar a tomada de decisões e gerar insights ao negócio e a produtos desenvolvidos. Ou seja, o BI olha o passado, a Data Science também é preditiva.

Neste artigo, vamos explicar de uma maneira simples a diferença entre ambos e suas principais aplicabilidades. Inicialmente, para compreender o tema é importante entender a evolução dos sistemas analíticos. Acompanhe a leitura! 

A evolução dos sistemas analíticos

Numa evolução dos sistemas analíticos, após os sistemas de Business Intelligence (BI), temos os chamados sistemas de Business Analytics (BA) que usam modelos preditivos para tentar identificar prováveis eventos futuros e indicar quais seriam as ações capazes de afetar positivamente um negócio. 

Nessa categoria temos os sistemas de apoio à decisão. Portanto, é no business analytics que se aplica a data science. Essa capacidade de indicar o que aconteceu e tentar prever o que poderá acontecer são traduzidas em quatro tipos de análises:

1. Descritiva: visa explicar o que aconteceu com relação a determinado evento;

2. Diagnóstica: visa indicar porque algo aconteceu, baseado em dados históricos e muitas vezes comparando períodos similares de semanas, meses ou anos distintos; 

3. Preditiva: visa prever a probabilidade do que pode acontecer no futuro.

4. Prescritiva: visa prescrever o que poderia ser feito para que tal possibilidade se torne uma realidade.

A importância do modelo preditivo para as empresas

As empresas estão usando os modelos preditivos para prever as próximas movimentações do segmento, como:

  • identificar oportunidades futuras de negócio;

  • otimizar estratégias de marketing;

  • mapear o comportamento e hábito de consumidores e colaboradores; 

  • operar com mais eficiência.

É necessário apontar que o business intelligence e o business analytics são um processo e ambos exigem o emprego de técnicas, tecnologias e software para funcionarem com êxito.

Qual a diferença entre business intelligence e data science

A tecnologia motivou o aumento da competitividade e o surgimento de novos mercados, tornando o cenário corporativo muito mais sagaz. Tal cenário fez com que métodos antiquados precisassem ser mudados e nesse caminho surgiram então, o business intelligence e a data science, dois processo técnicos que facilitam a sistematização e a organização dos dados de empresas com o objetivo de orientá-las às melhores decisões estratégicas.

Ambos conceitos têm muita coisa em comum. Os dois utilizam dados para trabalhar a fim de atingir seu objetivo, porém, diferem na tecnologia e na abordagem. Vamos explicar essas diferenças para você agora. Continue a leitura!

O que é business intelligence?

O business intelligence (BI) é um conjunto de metodologias, processos, tecnologias e estruturas que transformam grandes quantidades de dados que, sozinhos, podem não ser tão úteis, em informações essenciais para uma boa gestão. 

Com o agrupamento de informações estruturadas em uma só ferramenta ou sistema analítico, uma empresa consegue identificar o que sabe e o que não sabe sobre suas operações como um todo, além de ser capaz de expandir seus lucros e aprimorar sua capacidade competitiva. 

No business intelligence é necessário verificar os dados para descobrir as características que ajudam a entender o que havia acontecido ou estava acontecendo, essa é a função dos modelos descritivos, os quais buscam identificar padrões. 

Assim sendo, o sistema de BI analisa fatos ocorridos em função de determinadas dimensões, por exemplo: pode-se analisar a saída de produtos do estoque em função do tempo, dia, mês ou ano e em função da localidade ou região na qual os clientes que compraram esses produtos estão estabelecidos, identificando assim, para quais regiões foram feitas mais entregas ao longo do tempo.

O que é data science?

O que impulsionou o crescimento exponencial da data science foi o Big Data. Apesar de não ser tão recente, esse fenômeno promoveu a construção de modelos preditivos com níveis de precisão cada vez maiores nos últimos anos e determinou a criação de um outro conceito, o Big Data Analytics, que extrai conhecimento desse grande conjunto de dados.

Para o especialista em TI, Maurício Delajustine a data science dentro de um negócio é importante em diversos aspectos principalmente por extrair dos dados insights úteis para as tomadas de decisões dentro do negócio. “Com insights assertivos sobre seu público alvo, identificando quais são seus desejos e necessidades a empresa pode realizar ações mais direcionadas e conquistando cada vez mais o cliente por exemplo.” comenta.

É importante também dizer que dentro do processo de data science, aplicamos os conceitos de BI, com as análises descritiva e diagnóstica, mas expandimos as possibilidades com as outras duas categorias de análise – preditiva e prescritiva. Como expoente dessas outras duas categorias citamos o Machine Learning, que se baseia no desenvolvimento de algoritmos que treinam máquinas virtuais e assim são capazes de tomar decisões mais assertivas sobre tomadas de decisões no futuro. A precisão do acerto se baseia na qualidade dos dados passados para a aplicação. 

Em uma pesquisa recente da McKinsey & Company, metade dos executivos de todas as regiões e setores relataram maior dificuldade em recrutar cientistas de dados e talentos analíticos do que qualquer outro tipo de habilidade. A retenção também é um problema de acordo com 40% dos pesquisados. 

Quer trabalhar com data science? Maurício, traz dicas valiosas para ser um bom profissional da área:

  • Saber trabalhar com Big Data e ter conhecimento de ferramentas que ajudam a lidar com um grande volume de dados tratados;

  • Ter conhecimento de algoritmos de Machine Learning para tomada de decisão;

  • Saber utilizar variações de linguagens de programação;

  • Ter foco analítico para gerar soluções técnicas para resolução de problemas complexos;

  • Construir um bom relacionamento com a equipe, pois o profissional vai ter contato com as áreas de TI e negócios.

Para finalizar podemos afirmar de forma sintetizada que a data science é um termo mais abrangente que o BI, englobando suas capacidades de análise e as expandindo.

Já o BI serve, principalmente, para que o gestor possa ter uma visão geral atual acerca do seu negócio, visto que os dados de todos os setores existentes em uma empresa são capturados e armazenados em um banco de dados único que será analisado (seguindo indicadores pré-determinados), para auxiliar na busca por oportunidades e também a identificação de possíveis riscos. 

Esperamos que esse artigo tenha ajudado você a compreender as diferenças entre o business intelligence e a data science. Curte tecnologia? Então continue acompanhando o nosso blog, semanalmente divulgamos conteúdos novos por aqui!

RASA: Conheça o software em python utilizado para criação de chatbots

Vivemos em uma era em que a tecnologia faz parte da nossa rotina e não saberíamos mais como viver sem ela. A cada dia que passa, novos softwares são desenvolvidos e nós vamos ficando cada vez mais dependentes da inteligência artificial. Totalmente inseridos nesse cenário, criamos um conteúdo completo sobre o RASA, um software em python que é utilizado para criação de chatbots e que é capaz de transformar totalmente o seu negócio e a forma que os seus clientes o enxergam.

Convidamos você a ler o nosso conteúdo com muita atenção e, assim, ficar por dentro de todas as informações desse software que chegou para impactar negócios de todos os nichos ao redor do mundo.

Como funciona o RASA?

O RASA é um software que foi desenvolvido na Alemanha, no ano de 2016 e, de maneira bastante resumida, é uma ferramenta de inteligência artificial utilizada para criar chatbots. Como muitas outras tecnologias, o RASA evolui de maneira constante: só nos últimos 6 meses foram lançadas mais de 5 versões diferentes do software.

Esse programa é extremamente poderoso, não é à toa que grandes empresas como Allianz, BMW, Toyota e Adobe estão o utilizando em suas automações.

Componentes

O software é dividido em dois componentes principais, que o permitem desenvolver todas as suas tarefas. A seguir, vamos te explicar exatamente como funciona cada um deles.

O primeiro componente pode ser considerado o raciocínio e a inteligência da conversa de um usuário com um chatbot, é um software livre: ele é gratuito e você pode usar e alterá-lo à vontade. Esse componente também pode ser chamado do núcleo do RASA e para utilizá-lo, você só precisa adicionar a interface de usuário e as integrações que deseja fazer com outros sistemas.

Já o segundo componente oferece ferramentas mais elaboradas que permitem que a empresa administre a aprendizagem do chatbot. Ele possui código fechado, sendo assim, não é possível incrementar ou adaptá-lo. A empresa tem a opção de trabalhar com uma versão comunitária mais básica ou compre uma licença do Rasa para acessar todos os recursos.

Intenções e respostas nos chatbots

O RASA permite que a própria empresa que adotou a plataforma defina frases de exemplo para determinadas situações, que são as chamadas intenções. A criação dessas intenções exige que seja seguido um processo estruturado, realizando uma série de pesquisas, incluindo um mapeamento das dúvidas mais frequentes dos usuários, processos do serviço e, até mesmo, o que o usuário pode querer buscar dentro da sua plataforma. A criação das intenções precisa ser feita com muita atenção, visto que esse é um dos pontos chave para que seu chatbot consiga manter uma comunicação assertiva com os usuários da sua plataforma.

Além das intenções, o software também permite a exibição de respostas em formato de frases ou de opções (múltipla escolha) para que o usuário possa selecionar aquele assunto do qual deseja mais informações.

Um exemplo de interação entre as intenções e as respostas pode ser uma simples conversa coerente entre um chatbot e um usuário. Observe a seguir:

— Usuário: Bom dia
— Chatbot RASA: Bom dia para você também, como vai?
— Usuário: Muito bem, obrigada!
— Chatbot RASA: Que bom, fico feliz em ouvir isso.

Uma simples interação, como a citada acima, precisa conter vários tipos de histórias, ou seja, uma resposta para cada intenção. Afinal, o chatbot precisa responder de maneira coerente e precisa estar preparado para caso o usuário responda que está bem, que não está, ou que está com algum problema específico.

Uma maneira de deixar o chatbot cada vez mais humanizado é definir várias respostas para a mesma intenção. Assim, o próprio chatbot vai escolher de maneira aleatória qual resposta será enviada naquele momento. Essa variedade de opções faz com que o usuário não receba sempre as mesmas respostas ao iniciar uma conversa para tirar dúvidas.

As formas de execução do RASA

Ele pode ser executado de várias formas, cada uma para uma função ou objetivo diferentes. Separamos, a seguir, algumas maneiras de execução do RASA para que você possa entender um pouco mais das diversas funcionalidades oferecidas pelo sistema.

Uma das principais formas de utilização do software, chamada de treino, faz uma “compilação” de todas as frases de exemplo (histórias e respostas) criadas pela sua empresa e forma um arquivo chamado modelo. Esse arquivo gera informações para a rede neural, que vai fornecer a inteligência por trás da conversa. Resumindo, o RASA oferece a funcionalidade de entender exatamente o que o usuário está falando e escolher a resposta mais adequada para aquilo, utilizando uma redes neural – ou seja, simulando o funcionamento do cérebro humano.

O RASA também permite a criação de formulários, onde o chatbot solicita informações ao usuário para poder fornecer respostas mais personalizadas. Um exemplo utilizado pelo próprio software é a possibilidade de o próprio bot sugerir restaurantes que possam agradar o usuário. Isso acontece da seguinte maneira: Após o preenchimento do formulário com informações demográficas, o robô consegue direcionar o usuário para estabelecimentos que combinam com o seu perfil e localização.

Outro exemplo é a busca por médicos, onde o usuário pode questionar ao bot qual é o centro médico mais próximo ao seu endereço, e o robô enviará, de maneira imediata, todas as opções próximas à localização do usuário.

O servidor de chatbot permite acessar a inteligência do RASA através de uma interface Web (HTTP), o que permite a integração com a sua própria aplicação. Além disso, o software já possui funcionalidades prontas para conectar e configurar a interação com chats padrões como, por exemplo, Facebook, Telegram e Google Hangouts.

Já o chamado servidor de ações executa ações personalizadas (definidas pela sua empresa) por meio de, também, uma interface Web.

Citamos várias funções nesse artigo, porém, o RASA é um sistema muito completo e oferece diversas outras facilidades, por meio de automatizações via inteligência artificial. Aproveite para utilizá-lo dentro do seu negócio.

Software em python

Uma informação muito importante sobre o RASA é que ele foi totalmente programado em python, ou seja, em código aberto. Isso facilita diversas questões como, por exemplo, modificações e a programação de interações mais complexas e customizadas para os chatbots. Essa programação permite que o bot capte informações do usuário e faça pesquisas sobre ele em seu sistema, exemplo: quando foi a última vez que essa pessoa acessou o site?

Por ser um software de código aberto, o RASA possui um suporte colaborativo. Atualmente, eles possuem um fórum na internet com mais de 7 mil pessoas trocando experiências, dúvidas e informações.

Os benefícios de utilizar chatbots

Conversei com um especialista em Sistemas de Informação para passar para vocês os maiores benefícios da utilização de chatbots dentro da sua empresa. Confira abaixo!

Como já citado anteriormente, a inteligência artificial é algo muito importante no nosso dia a dia. Ela apresenta vários benefícios, e cada um desses benefícios é vantajoso de um jeito, dependendo do nicho de atuação de cada negócio.

“Em todos os nichos, com certeza a automação é um dos maiores benefícios da inteligência artificial, principalmente devido à interação com o consumidor, e o chatbot é um exemplo muito bom disso, onde você automatiza um processo inteiro de comunicação com os clientes, simplifica processos e facilita para o usuário tirar dúvidas”, afirmou o especialista em Sistemas de Informação, Eduardo Souza.

Outro grande benefício da utilização de chatbots, para Eduardo, é o fato de ele estar disponível 100% do tempo para o usuário, ou seja, 24 horas por dia e 7 dias por semana. Essa facilidade também é conhecida como real time assistance, onde o consumidor não precisa esperar nem um minuto sequer para obter uma resposta aos seus problemas.

Em resumo, as principais vantagens na utilização de um chatbot são a facilidade na comunicação entre o consumidor e o seu negócio, o real time assistance e uma facilitação do entendimento do usuário sobre diversas questões, afinal, a experiência do usuário fica mais satisfatória.

A Viceri facilita o uso de chatbots

Como você já percebeu, a RASA é um programa complexo e está em constante evolução. Como a Viceri entra nisso?

A Viceri é especialista em RASA e Python, e damos suporte aos nossos clientes em relação ao RASA. Escrevemos integrações com os sistemas dos nossos clientes para que eles possam consultar informações por meio do chatbot e, também, desenvolvemos todos os diálogos que são treinados dentro do sistema.

A criação dos diálogos (interações) dentro do chatbot precisam ser feita de maneira muito cuidadosa, para que não aconteçam conflitos entre os discursos do próprio bot. Nossa função é evitar qualquer tipo de confusão.

Além disso, estamos presentes no fórum de dúvidas, citado anteriormente, ajudando a resolver todos os problemas que surgem, respondendo perguntas e abrindo relatórios de erros encontrados no programa e sugestões de melhorias.

Espero que tenham gostado! Esse assunto com certeza será tratado muitas outras vezes aqui dentro do nosso blog.
Caso se interesse em saber mais informações sobre o RASA, clique aqui e fale conosco agora mesmo.

O manual da segurança de dados na AWS e as responsabilidades compartilhadas

Sempre que você tem uma infraestrutura e precisa migrá-la para nuvem surge um questionamento: será que esse procedimento é seguro para o meu banco de dados? Será que as informações da minha empresa estão protegidas em um ambiente totalmente digital? Quão confiável pode ser uma estrutura em nuvem? 

A segurança do banco de dados na nuvem pode ser muito parecida com a segurança dos datacenters locais, mas com menor custo de manutenção. Em um ambiente digital você usa ferramentas que protegem o fluxo de informação da sua empresa. É o caso da AWS (Amazon Web Services), uma das infraestruturas mais seguras do mundo, onde você pode criptografar, mover e gerenciar dados com confiabilidade. 

Segurança na nuvem e porque você deve se preocupar com isso 

A segurança da computação na nuvem oferece as mesmas funcionalidades do modo “tradicional”. Isso quer dizer que todas as informações essenciais estão protegidas contra vazamentos, roubos ou possíveis exclusões. Basicamente, a segurança na nuvem não vai alterar seu modo de gerenciamento atual, mas vai fazer com que a prevenção, detecção e correção de falhas seja feita de uma forma muito mais ágil. 

Além disso, o serviço de armazenamento de dados necessita de requisitos de conformidade, principalmente em informações de saúde ou bancárias, por exemplo. Por isso, muitos serviços oferecem relatórios de auditoria, elaborados por terceiros, para atestar a eficiência do processo interno no gerenciamento de dados. 

Cada vez mais é preciso ter controle e confiança para exercer um trabalho de retenção de banco de dados. Para isso é necessário ter de uma rede que proteja informações, identidades e aplicações, além de atender a requisitos de proteção e confidencialidades de dados. Afinal de contas, uma nova lei de proteção de dados vem aí e, mais do que nunca, é preciso ser extremamente cuidadoso com seu banco. 

No Amazon Web Services é possível automatizar tarefas de segurança de forma manual, pagando apenas pelo que for usado pela sua empresa. O serviço tem ofertas tão seguras para cargas secretas de trabalho que empresas como a Netflix, o Slack e até o governo americano trabalham na nuvem da AWS. E acredite, do menor ao maior negócio, a segurança e credibilidade continuam iguais. 

Mas como isso funciona na prática? 

A AWS foi projetada para ser um dos serviços de cloud computing mais seguros disponíveis no mundo. Uma infraestrutura criada para satisfazer um alto rigor de segurança, com requisitos para atender organizações com informações altamente confidenciais como bancos globais e serviços militares. Segundo a própria plataforma, a AWS conta com 90 normas de segurança e certificações de conformidade e todos seus serviços de armazenamento de dados oferecem criptografia.

Independentemente do serviço contratado dentro da AWS, suas cargas de trabalho são protegidas com uma série de níveis de proteção que são básicos da plataforma. Isso garante a confiabilidade do processo. 

Proteção de dados e da infraestrutura

A AWS protege seus dados, contas e cargas de trabalho de acessos não autorizados. A plataforma fornece criptografia para os 117 tipos de armazenamento e também gerenciamento de chaves e detecção de ameaças. 

Além disso, a plataforma ainda protege sua infraestrutura com regras que você mesmo cria, possibilitando o bloqueio de padrões comuns de ataque. Isso tudo porque faz um monitoramento contínuo das atividades na rede. 

AWS IAM

O Identity and Access Management permite que você gerencie as identidades e permissões de acesso a nuvem. Você configura e habilita seus usuários através de um token físico ou virtual, tudo na forma ideal para que você gerencie o mais rápido sua forma de trabalho. 

Testes de penetração 

A AWS permite em sua plataforma avaliações de segurança e testes de penetração em sua infraestrutura. Alguns testes não são permitidos e precisam ser informados com antecedência para a AWS, como ataques de negação de serviço, por exemplo. Se qualquer tipo de desalinhamento ou problema de segurança for detectado, é necessário entrar em contato imediatamente com a AWS Security.

E o que são as responsabilidades compartilhadas? 

Independentemente da atuação no mercado, toda empresa se preocupa com a segurança dos seus dados. Por este motivo, a AWS oferece controle e propriedade sobre os dados através de uma ferramenta avançada que permite gerenciar permissões, acessos, armazenamentos e mais diversos recursos do sistema. Tudo para que nada seja acessado sem a devida autorização. 

As responsabilidades compartilhadas são um ponto crucial dentro da segurança na AWS. Da mesma forma com que a AWS trata e protege os dados, também é necessário que o cliente tenha certos cuidados. Segundo a plataforma, a AWS é responsável pela segurança “da nuvem” e o cliente pela segurança “na nuvem”. Basicamente, a AWS se responsabiliza por proteger a infraestrutura que executa os serviços oferecidos: hardware, software, redes e instalações. 

As responsabilidades do cliente são com relação ao sistema operacional de visitantes, de toda a parte de criptografia e transferência de dados, tanto dados em repouso quanto dados em trânsito. O cliente determina onde o conteúdo será armazenado, o tipo de armazenamento e a região. A AWS dá todo o suporte e chaves de criptografia para que ele consiga operar sua responsabilidade da forma mais correta e eficiente possível. Tudo muito bem configurável. 

A responsabilidade do cliente é definida pelos serviços contratados e selecionados por ele na nuvem. Isso determina a quantidade de operações que ele deverá executar como suas responsabilidades de segurança. Alguns serviços, inclusive, exigem que o cliente tenha total liberdade para fazer configurações e gerenciamentos de segurança. 

A computação em nuvem permite que você inove e transforme totalmente a área de tecnologia do seu negócio. Com a certeza da segurança do seu banco de dados é muito mais fácil poder pensar a escalabilidade da sua empresa. Isso fica muito mais simples com um serviço que monitora 24 horas por dia, 7 dias na semana e ajuda a proteger a confidencialidade, integridade e a disponibilidade de dados.

Facilitar a forma de trabalho das empresas é apenas um dos nossos objetivos. Quer saber mais? Fale com a Viceri. Nós temos um time completo, certificado em AWS e pronto para ajudar você a fazer o seu negócio crescer. 

Como funciona a migração de banco para AWS em empresas de médio porte?

Uma empresa de médio porte enfrenta desafios como uma gigante. Isso acontece diariamente e todo gestor é bem ciente disto. Mas muito além de todos estes desafios, ainda é preciso se preocupar com a segurança da sua base de dados. Arquitetar, proteger, migrar entre outras coisas, são necessidades que poderiam ser mais práticas se seu banco estivesse na nuvem. Isto daria mais tempo para  você se ocupar com o crescimento dos negócios.

As necessidades de uma empresa se transformam com o tempo e, por este motivo, a forma como trabalhamos também precisa mudar. Fazer a migração  do banco de dados para um serviço de nuvem gerenciado é uma vantagem para que você tenha um controle maior sobre as escalabilidade dos seus dados. E neste sentido, a AWS (Amazon Web Services) oferece o AWS Database Migration Service, um serviço disponibilizado pela Amazon para migrar os dados, tabelas e chaves primárias para a nuvem.

Como este tipo de migração acontece

O AWS Database Migration Service faz a migração do banco de dados para a AWS de um jeito muito rápido e em segurança. O banco de dados de origem pode permanecer operacional durante o processo, dependendo do tipo de migração que será feita. O AWS Database Migration Service viabiliza migrações homogêneas, onde o banco de dados de origem e destino são totalmente compatíveis. Viabiliza também migrações heterogêneas, onde o sistema gerenciador de banco de dados de origem e destino são diferentes.  

Sem complicações e com baixo custo

O AWS Database Migration é muito simples de usar. Você não precisa instalar um driver ou aplicativo e praticamente não são exigidas mudanças no banco de dados de origem. A migração do banco de dados pode ser feita em poucos cliques no Console de Gerenciamento da AWS. A complexidade do processo fica por conta do DMS, que replica automaticamente qualquer alteração que ocorra nos bancos de origem durante o processo. 

Também é possível configurar uma tarefa de migração, ou seja, os parâmetros que o serviço irá utilizar para executar o trabalho. Tudo isso em poucos minutos dentro do AWS Database Migration Service. É possível fazer configurações de conexões com bancos de dados de origem e destino e também a escolha da instância de replicação usada para executar o processo de migração. Depois, a mesma tarefa pode ser usada para teste antes que o trabalho seja de fato executado. 

O outro ponto positivo é que o AWS Database Migration Service tem um custo baixo. Você paga pelos recursos computacionais usados no processo de migração e por armazenamentos adicionais de log. Seja qual for o tipo de migração, é um grande contraste com a maioria dos métodos que geralmente são muito caros.

Compatibilidade 

No AWS Database Migration Service é possível fazer a migração da maioria dos bancos de dados comerciais e de código aberto utilizados. Elas podem ocorrer de bancos de dados locais para o Amazon RDS ou o Amazon EC2, bancos em execução no EC2 para o RDS, vice-versa, ou de um banco do RDS para outro RDS. Ele também permite migrar dados entre SQL, NoSQL e destinos baseados em textos.

Bancos RDS

O RDS (Relational Database Server) é um serviço que oferece uma abstração para um determinado banco de dados suportado (MySQL e PostgreSQL, por exemplo) com objetivo de facilitar o gerenciamento de bancos de dados relacionais na nuvem, tornando mais fácil a escalabilidade e backup desse recurso. 

RDS é um serviço para banco de dados relacional que serve apenas para isso. Se difere por ser autogerenciável. Você não tem acesso a máquina de modo geral, só ao banco de dados. 

Bancos EC2

O EC2 é um serviço da Amazon com o objetivo de oferecer instâncias computacionais (máquinas) escaláveis sob demanda, que podem ser utilizadas para fins mais gerais. Nesse serviço, é possível utilizar essas instâncias para hospedar uma aplicação web ou até mesmo um banco de dados. Lá você tem acesso ao sistema operacional convidado, com liberdade para usá-lo por completo, configurar firewall, instalar aplicações, entre outras coisas. É como se fosse um computador pessoal, mas hospedado na nuvem. 

Por que fazer a migração do meu banco de dados? 

Existe uma série de vantagens de migrar um banco de dados para a nuvem. Desde as vantagens financeiras e a diminuição de gastos, passando pelos processos diários de trabalho que são facilitados, e chegando até às questões jurídicas com a adequação da sua empresa com a nova LGPD.

◼️ Leia também: Tudo o que você precisa saber sobre a proteção de dados na sua empresa

Vantagens econômicas e de processos de trabalho

Com a migração do banco de dados para nuvem você terá um controle maior da escalabilidade. Por exemplo, vamos supor que sua equipe dimensionou um computador para o banco de dados existente. No entanto, você tem uma previsão de duplicar seu banco no próximo ano. Você irá comprar um servidor maior, pois está com a ideia de que no próximo ano precisará do dobro de tamanho. Então acontece um superdimensionamento, e enquanto você não usa metade da disponibilidade do servidor, a sua máquina se desvaloriza,  tempo passa e ela fica ultrapassada. 

Ao contrário da nuvem. Com a migração do banco de dados para a nuvem você pode começar com um dimensionamento mais conservador e aumentar de acordo com a sua necessidade. Quando necessitar de um servidor maior, com alguns cliques você pega outro e seleciona uma máquina maior. Dessa forma, não tem prejuízo com um sistema defasado e nem a necessidade de comprar uma nova máquina.

É importante pensar que o impacto nos custos e os benefícios financeiros vão variar de acordo com a infraestrutura de tecnologia da empresa, de quais aplicativos são executados e também dos serviços de nuvem que já estão em uso, entre outros diversos fatores.

Vantagens jurídicas e adequações à nova LGPD

As adequações à nova Lei Geral de Proteção aos Dados Pessoais podem ser bem complicadas. No entanto, fazer a migração do banco de dados para a nuvem pode ser uma decisão acertada que deixa o processo mais tranquilo. Só ao migrar a carga de trabalho para a nuvem já garante que a empresa cumpra boa parte dos pontos estabelecidos. 

Pois bem, “boa parte” não é todo o processo. Mesmo após migrar tudo para nuvem, ainda é preciso rever alguns processos de tratamento de dados. Isso inclui regras de captação de dados, mapeamento de informações que a empresa já possui, políticas de acesso, entre outras coisas. 

A facilitação das formas de trabalho tem se tornado uma estratégia de negócio para as empresas. São novas maneiras de se atualizar no mercado e garantir mais segurança ao banco de dados da sua empresa. Quer saber mais? Fale com a gente. A Viceri tem um time de engenheiros certificados em AWS prontos para ajudar você a fazer o seu negócio crescer. 

LGPD: tudo o que você precisa saber sobre a proteção de dados na sua empresa

Quando o jovem americano Mark Zuckerberg desenvolveu o FaceMash, uma versão bem inicial do Facebook e exclusivo do público das universidades americanas em 2003, ele já possuía uma visão muito além de seu tempo. No boom das commodities dos anos 2000, enquanto a maioria dos empreendedores ligavam seus holofotes em metais, químicos e metais preciosos, os olhos do estudante miravam dados.

De fato, Zuckerberg foi tão visionário em sua investida no que hoje se tornaria uma das maiores potências tecnológicas do mundo que ele previu um movimento que somente recentemente ganhou nome: a Indústria 4.0. Considerada a Quarta Revolução Industrial, essa indústria é o símbolo da importância que os dados ganharam nos últimos anos. Para você ter uma ideia de quão grande isso é, o Senai anunciou o investimento de R$1,4 mi nesse segmento da indústria. 

A Indústria 4.0 representa a captura de dados, a adoção de automação e a Inteligência Artificial em basicamente tudo que possamos imaginar: detecção de fraudes, opiniões e sentimentos dos clientes em redes sociais, propagandas perfeitamente direcionadas a cada pessoa e até mesmo carros futuristas já construídos pelo Google. Isso é praticamente um dos  segmentos mais importantes dentro da lógica capitalista dos próximos anos.

Mas uma vez que se entende quão importantes são os dados é impossível não pensar: e quem garante a segurança disso tudo? Quem garante que os dados de cada indivíduo não será utilizado para fins não legais? É nesse contexto que vem à tona a criação da Lei Geral de Proteção de Dados, também conhecida como LGPD ou Lei 13.709. Essa novidade vem diretamente para garantir a proteção de dados a todos os usuários do mundo.

O QUE É LGPD?

Essa sigla vem de Lei Geral de Proteção de Dados. Ela foi sancionada em agosto de 2018 e vai entrar em vigor a partir do dia 3 de maio de 2021, isso se não for postergada pelo Congresso Nacional. A LGPD tem tirado o sono de praticamente todos os empresários e gestores, visto que seus negócios devem fazer um esforço significativo para se adequarem à lei. Para entender o funcionamento da Lei de Proteção de Dados é preciso antes entender o contexto de sua criação.

Como foi citado no início do artigo, as informações nas quais navegamos diariamente são os bens mais valiosos para a geração de negócios. Entende-se como informação a combinação de dados, análise e organização. A maneira como as empresas usam informações se tornou o mais importante diferencial no mundo dos negócios.

Baseado nisso podemos entender que os fundamentos e objetivos da LGPD são:

  • Respeito à privacidade e liberdade de expressão;

  • Informação, comunicação e opinião;

  • Inviolabilidade da intimidade, honra e imagem de alguém;

  • Desenvolvimento econômico tecnológico e inovador;

  • Livre iniciativa;

  • Livre concorrência;

  • Defesa do consumidor;

  • Direitos Humanos;

  • Livre desenvolvimento da personalidade;

  • Dignidade;

  • Exercício da cidadania.

COMO SURGIU A LGPD? 

A discussão sobre proteção de dados não surgiu ontem, mas vários episódios influenciaram na criação da LGPD no período atual. Entre eles a aprovação do Marco Civil da Internet, a entrada em vigor da General Data Protection Rules (GDPR) na União Europeia, o escândalo Snowden e, óbvio, as eleições nos EUA em 2018. Baseada na GDPR, a nova lei de proteção de dados veio para regular o tratamento de dados pessoais, ou seja, o armazenamento físico ou digital.

Inicialmente prevista para entrar em vigor em agosto de 2020, a LGPD teve seu adiamento votado recentemente pelo Senado por causa da crise do coronavírus. A lei passou pela Câmara dos Deputados e pela sanção do presidente Jair Bolsonaro. Em outras palavras, o que foi alterado foi apenas o tempo que a lei passará a vigorar após ser promulgada. Devido à urgência do tema, a lei de dados passa a ser oficializada em 3 de maio de 2021.

“A LGPD também é importante porque ela traz um conceito expansionista e consequencialista do dado pessoal”, explica Flávia Carvalho, advogada especialista em Direito Digital e Compliance pela UFPE, além de ser membro da Comissão de Direito da Tecnologia e Inovação da OAB/PE e realizar atividades de conscientização sobre o uso seguro e consciente da rede com o apoio da SaferNet Brasil. “Apesar de termos em vigor o Marco Civil da Internet, ele é considerado um microssistema de proteção de dados que funciona apenas dentro Internet e não abrange, por exemplo, empresas físicas”, avalia.

Qual a importância da LGPD?

Em qualquer transação que realizamos é comum fornecermos diversos dados que são classificados em duas categorias: pessoais e sensíveis. Dados pessoais são informações como nome, CPF, endereço, telefone e e-mail. São considerados dados sensíveis informações como origem racial, orientação sexual, religião, filosófica, política, filiação a sindicatos, dados genéticos e biométricos. A lei regulamenta o tratamento de todos os dados, sejam eles pessoais ou sensíveis.

O ponto mais importante na Lei Geral de Proteção de Dados é o direito à privacidade que todo ser humano possui. A lei não veio para vedar o uso de dados pessoais por parte das empresas, mas para estabelecer princípios e regras para o tratamento desses dados. 

“Muitas empresas não fazem ideia de que precisam se adequar à nova lei de proteção de dados”, diz a especialista Flávia. Ela ainda reforça a importância do conhecimento técnico legal para todas as empresas: “A LGPD não vai valer apenas para empresas digitais. Se eu tiver uma loja pequena de roupas, por exemplo, e não tiver nenhum tipo de cadastro online, mas eu tiver dados das pessoas em um caderno, meu negócio vai ser afetado”, comenta.

Quem ficará responsável pela fiscalização da nova lei de dados é a Autoridade Nacional de Proteção de Dados (ANPD), órgão federal. Espera-se, porém, que as próprias empresas indiretamente vão acabar realizando essa fiscalização, já que elas precisam ter a garantia de que seus fornecedores e parceiros também estejam em conformidade com a lei.

Qual é o prazo da LGPD?

A entrada em vigor da LGPD estava marcada para 16 de agosto de 2020, mas, devido à crise do coronavírus e as discussões do Senado, foi adiada para 3 de maio de 2021. Um novo prazo para adequação da lei deve ser divulgar nas próximas semanas.

Segundo uma pesquisa realizada pelo Reclame Aqui em 2019, 41,6% das empresas não sabem o que é LGPD. A especialista Flávia ainda afirma que o usuário leigo ainda não está informado sobre a importância de seus próprios dados. “Quando a Uber sabe o quanto de bateria tem seu celular: por que ela tem esse dado? A empresa precisa agora apresentar o por quê ela precisa desse dado”, explica. “A LGPD vem para impedir que farmácias vendam dados para um plano de saúde para que ele fique mais caro, por exemplo”.

No próximo artigo vamos abordar mais a fundo essa nova lei, quais os primeiros passos para você se adequar, quem procurar e quais as possíveis penalidades que o não-cumprimento dela por trazer para o seu negócio.  Caso tenha dúvidas, a Viceri conta com um time de especialistas para ajudar a sua empresa a entrar em conformidade com a nova lei de proteção de dados.