Como alavancar a qualidade dos softwares com suporte de IA? 

Quando falamos sobre qualidade de software, estamos tratando muito mais do que apenas a funcionalidade ou desempenho de um produto digital, mas nos referindo também a um conjunto de práticas, processos, padrões e ferramentas que são necessárias para que a solução seja capaz de atender às expectativas, sendo confiável e seguro. 

Nesse contexto, é importante entendermos os problemas enfrentados pela falta de implementação dos processos de garantia da qualidade e o que ela pode trazer para os negócios. Segundo informações publicadas no relatório ’The Cost of Poor Software Quality in the USA 2022 Report ‘ realizado pela Synopsys Inc., estima-se que as falhas de software tenham custado às empresas US$ 2,41 trilhões em 2022. 

Deste modo, atuar dentro de processos estruturados, bem definidos, e, principalmente, automatizados, garante um maior sucesso quando o assunto é gerar um produto de valor, visando deixar o cliente satisfeito com o que está sendo entregue. Caso contrário, a falta desses elementos pode deixar todo o processo sob o risco de retrabalho – que pode ser causado por conta de defeitos ou problemas que não foram detectados precocemente na fase de desenvolvimento, afetando diretamente no maior consumo de tempo e recursos, influenciando nos prazos e valores entregues. 

Visando eliminar esses riscos, a utilização de tecnologias especializadas com o auxílio da Inteligência Artificial nas etapas dos processos, torna possível e efetiva a garantia de qualidade em todas as pontas. Isso porque, os recursos fornecem ferramentas que geram a capacidade de construir um produto com alta qualidade e em menor tempo, uma vez que os aceleradores se fazem presentes para aumentar a produtividade.  

Hoje, já existem diversas ferramentas que possibilitam uma boa organização e integração entre requisitos e casos de teste, juntamente com seus status de execução e respectivas evidências. Nesse cenário, o uso de IA generativa colabora durante a criação dos cenários de teste, contribuindo para uma cobertura mais completa dos principais pontos e acelerando sua documentação, bastando, para isso, criar um contexto e passar a funcionalidade com os critérios de aceite e suas respectivas regras de negócio. 

Uma vez finalizadas as fases de testes, documentação de evidências e registros de eventuais falhas, os indicadores podem ser criados ao integrar os resultados em dashboards para acompanhamento da qualidade do projeto e suas partes mais críticas, oferecendo recursos de IA (linguagem natural) na análise da massa de dados e facilitando a identificação de módulos sensíveis, antes que esses possam impactar a qualidade de forma mais significativa. 

Já na parte de análise do código e segurança, há outras ferramentas com seus “Quality Gates”, que podem auxiliar exibindo de forma simplificada e automatizada, quando integrado a um pipeline de execução, a quantidades de bugs, vulnerabilidades, code smells e duplicidades presentes no código do produto.   

E, por falar em pipelines, a utilização desse processo traz praticidade quando o assunto são tarefas rotineiras, que podem ser automatizadas, publicando resultados dos testes, criando artefatos com o produto construído e até mesmo publicando essas construções em seus respectivos ambientes. Essa automação cria mais tempo para os envolvidos poderem atuar em outras tarefas, otimizando a produtividade ao delegar essas que foram automatizadas para que sejam executadas de forma customizadas pelos scripts desenvolvidos e vinculados.  

Para os testes de API (interfaces de integrações) há também boas ferramentas de mercado. Nelas, as avaliações podem ser criadas para que a cada desenvolvimento, o produto tenha sua integração realizando o esperado, garantindo que os novos recursos estejam cobertos e que os recursos regressivos – aqueles que já existiam no código – continuem funcionais.  

Porém, quando vamos falar de garantia desses cenários regressivos, de pronto nos vem à cabeça: qual deve ser o custo e a complexidade de garantir todo o funcionamento do sistema a cada vez que uma nova funcionalidade é desenvolvida? Como garantir que tudo esteja em seu devido lugar se a cada novo teste o sistema como um todo cresce e de nenhuma forma deixar de garantir a qualidade dos recursos já existentes pode ser uma opção? É aí que entram testes automatizados.  

Dentro dos tópicos que necessitam codificação, como os testes automatizados de interface de usuário e os unitários, o universo de Inteligência Artificial nos fornece algo bem interessante: as chamadas “IAs copilotas”. Sua principal função é acelerar a execução de tarefas mais complexas, agindo como um copiloto junto a quem estiver desenvolvendo o código para esses testes automatizados. Ele sugere trechos de códigos em tempo real e gera sugestões contextuais de acordo com o que está sendo programado, aprendendo o padrão do código e as necessidades individuais de cada cenário, comprovando até 55% de redução de tempo nas codificações, segundo levantamento do GitHub em setembro de 2022. 

Em suma, investir na qualidade de software não é somente uma medida preventiva, mas também uma estratégia superimportante para o sucesso do produto a longo prazo. A realidade é que a Inteligência Artificial chegou com tudo, e a utilização desses aceleradores juntamente com as devidas ferramentas, auxiliam no alcance dessas garantias com muito mais assertividade. E quando aplicado em conjunto com processos maduros, torna possível construir produtos mais robustos e eficazes, mitigando riscos, reduzindo custos, antecipando entregas e tendo mais tempo para impulsionar a inovação e a produtividade do negócio. 

Christian Henrique de Oliveira é Analista de Qualidade de Software da Viceri-SEIDOR. 

Sobre a Viceri-SEIDOR:

A Viceri-SEIDOR é uma empresa de Tecnologia da Informação que, há mais de 31 anos, apoia a transformação digital das organizações por meio da entrega do ciclo completo de desenvolvimento de produtos digitais. Com 83 escritórios divididos em 40 países, a empresa já soma mais de 8 mil clientes. Saiba mais em: www.viceri.com.br

ITO: mais do que uma sigla, uma estratégia organizacional

Você já ouviu falar sobre a ITO? Apesar de soar como uma abordagem nova, este é um tema muito presente no universo corporativo. A Information Technology Outsourcing ou, em português, terceirização de tecnologia da informação, como o próprio nome já remete, nada mais é que o processo de terceirização de serviços relacionados à área de TI. No entanto, quando tratamos desse assunto, é necessário considerar que ele abrange todo o vasto universo que permeia a tecnologia da informação

O setor de TI contempla diversas abordagens que vão desde o suporte/help desk, segurança da informação, cloud computing, gestão da infraestrutura, business analytics, desenvolvimento e evolução de softwares, até serviços ainda mais especializados, a exemplo da IA e IoT. Sendo assim, em uma ou mais frentes desse universo, é natural a ocorrência de terceirizações pelo simples fato de que não é viável e nem possível para a empresa, absorver todos os desafios relacionados a esses trabalhos.

Além disso, área de tecnologia da informação vem se tornando cada vez mais especializada e suas carreiras estão se desdobrando em caminhos específicos, os quais exigem muitos anos de preparação para formar profissionais capacitados. Isso é, já se foi o tempo em que o profissional de TI cuidava da rede e dos servidores, alterava dados no banco, formatava computadores e, não raro, até desenvolvia pequenos softwares.

Hoje, seja pelo aumento crescente de serviços de TI dentro do ecossistema empresarial, como também pela sua gradativa especialização, se torna essencial ter profissionais capacitados em cada frente necessária, à disposição para a sustentação do negócio. Nesse sentido, algumas empresas – seja por cultura ou contexto – optam por formar times internos para compor a frente responsável por tais demandas, enquanto outras preferem o outsourcing, em busca de custos menores e/ou, justamente, da diversidade de especializações.

No entanto, encontrar e custear todos os diferentes tipos de especialistas é geralmente um grande esforço para as empresas, e quando isso se distancia do core do negócio, manter times internos pode até deixar de ser sustentável e estratégico. Segundo o estudo “IT Trends Snapshot” de 2023 da Logicallis, 94% dos gestores que responderam à pesquisa, afirmaram já terem sofrido com a falta de recursos humanos na área de TI, o que evidencia que suprir as demandas de especialistas na área, de fato é uma rotina desafiadora.

Quando olhamos com a ótica de desenvolvimento de softwares, é inegável o avanço tecnológico das linguagens de programação e boas práticas de desenvolvimento. Elas não somente evoluíram as exigências quanto a usabilidade, interface, inteligência e automação, como também, foi natural o acoplamento de exigências relacionadas a camadas de segurança, clean code, controle de versionamento, preocupações com escalabilidade, evolução da aplicação, arquitetura, integrações, entre outras.  

Dessa forma, atualmente, bons times de desenvolvimento de software são multidisciplinares e possuem diferentes tipos de especialistas, com expertises diferentes que se complementam em cada atividade de desenvolvimento. A ITO aqui se torna um fator preponderante, já que empresas especializadas no desenvolvimento de soluções, tendem a estar mais capacitadas e mais bem estruturadas para lhe dar com essa dinâmica complexa e exigente.

Ademais, o entendimento de que manter especialistas dentro de casa, custa menos e traz resultados mais rápidos, pode se mostrar equivocado em alguns contextos. Por isso, quando as exigências para uma entrega extrapolam as limitações tecnológicas, de recursos, gestão e soluções do time, a terceirização deixa de ser uma mera opção para o negócio e passa a ser uma decisão estratégica.

Obviamente, para que a ITO otimize o negócio, é indispensável que ela ocorra por meio de bons parceiros. Na mesma medida que encontrar profissionais capacitados para as realidades de seu negócio possa ser uma tarefa complexa, encontrar empresas capacitadas em recursos, know-how e experientes, pode não ser fácil.

De acordo com a pesquisa “Uso da TI nas Empresas” da FGV EAESP de 2023, foi apontado que em 2022, as empresas brasileiras investiram em média 9% de suas receitas em TI e, embora esse percentual seja menor que o do EUA (14%) e da Europa (10%), ele demonstra o peso e importância da tecnologia da informação em um contexto geral. Entretanto, para que esses investimentos possam se traduzir em valor real para o negócio, eles precisam ser analisados adequadamente e, em caso da ITO, com parceiros estratégicos e comprometidos.

No universo de TI não há um só caminho, não há uma só solução. O melhor resultado para sua empresa é aquele proporcionado dentro de seu contexto, extraindo a parte mais coerente das muitas possibilidades e abordagens, observando cada desafio em si. Não existe um mapa para o sucesso quando falamos em TI, mas poder contar com bons guias como a ITO, torna a viagem menos arriscada e sempre mais eficaz.

José Augusto Lunardelli é Product Owner da Viceri-SEIDOR.

Sobre a Viceri-SEIDOR:

A Viceri-SEIDOR é uma empresa de Tecnologia da Informação que, há mais de 31 anos, apoia a transformação digital das organizações por meio da entrega do ciclo completo de desenvolvimento de produtos digitais. Com 83 escritórios divididos em 40 países, a empresa já soma mais de 8 mil clientes. Saiba mais em: www.viceri.com.br

Tecnologia é lugar de mulher?

Há quem diga que as mulheres irão dominar o mundo. Mas, será que elas ainda podem dominar a área de TI? Historicamente, as mulheres sempre foram sub-representadas no setor de tecnologia. No entanto, podemos observar uma mudança positiva, com empresas reconhecendo a importância da diversidade e implementando iniciativas para promover oportunidades justas, aplicando o princípio da imparcialidade. Este, sem dúvidas, é um sinal promissor para o futuro, onde a inclusão e a igualdade continuarão a ser prioridades na construção de equipes de TI eficazes e inovadoras. 

A mudança foi significativa, mas ainda temos muito para desbravar e conquistar. Até porque, nesse mesmo contexto, de acordo com o relatório Mulheres na Tecnologia, feito pelo portal TrustRadius em março de 2021, 72% das equipes que trabalham na área contam com uma mulher para cada dois homens. Além disso, no que diz respeito à liderança, uma pesquisa realizada pelo Boston Consulting Group mostrou que apenas 9% dos cargos de CEO de empresas de tecnologia são ocupados por profissionais do gênero feminino. 

Em contrapartida, ao olharmos para nossa realidade, o dado chama atenção tendo em vista que, segundo o Cadastro Geral de Empregados e Desempregados (CAGED), entre os anos de 2015 e 2022, o aumento da participação feminina foi de 60% no setor de tecnologia. O dado evidencia que, embora as mulheres tenham conseguido um espaço significativo na área de TI, ainda não possuem a mesma credibilidade para ocupar cargos de liderança. 

Lidar com constantes desafios já faz parte da realidade de toda mulher. E, para aquelas que almejam ingressar no setor de tecnologia, eles começam desde a formação. Muitas são desacreditadas e incentivadas a buscarem outra profissão, o que faz com que, de acordo com o Mapa do Ensino Superior 2023, elaborado pela SEMESP, no Brasil, somente 16,5% das vagas dos cursos de TI sejam ocupadas por mulheres – criando um contraste com as demais áreas em que a média da participação feminina é de 60,7%. 

Além disso, quando começam a buscar oportunidades no mercado de trabalho, encontram obstáculos ainda maiores, que vão desde diferenças salariais até a exposição à episódios de desconfianças em relação ao nível de comprometimento, obrigatoriedade de apresentar resultados diários, eficiência e disponibilidade para o trabalho, principalmente, se tiverem filhos – algo que é considerado, por algumas empresas, fator de eliminação para efetivar uma contratação ou promoção.  

E, para mudar essa realidade que, continuamente, ainda as aflige, trabalhar o aspecto cultural e de governança nas companhias é algo essencial.  Criar oportunidades que visem potencializar o crescimento dos colaboradores sem usar o gênero como fator de avaliação, mas sim as habilidades técnicas de cada um, é um aspecto fundamental para capacitar e estabelecer critérios justos de avaliações acerca do rendimento e competência para assumir um cargo de liderança. 

Por sua vez, precisamos também chamar atenção que este é um trabalho de via dupla. Ou seja, para conquistar sucesso na área de TI, é essencial estar alinhado com as melhores práticas e tendências do mercado para garantir entregas de qualidade e produtividade. Até porque, há muito tempo, o segmento deixou de ser algo voltado apenas para uma função técnica e operacional, o que eleva ainda mais o engajamento para a criação de oportunidades para atração de novos talentos, inclusive, as mulheres.  

Certamente, o setor de TI ainda tem um longo caminho para desmistificar o conceito de que é um segmento criado para os homens. Afinal, considerando que, de acordo com o IBGE, 51,5% da população brasileira são mulheres, cada vez mais a presença feminina nas organizações será uma realidade, o que reforça a necessidade de gerar oportunidades aplicando o ideal da igualdade e imparcialidade no ato de contratação e promoção de cargos mais altos. 

Para isso, conscientizar e estabelecer a mudança de posicionamento e aculturamento empresarial são elementos-chave para transformar o cenário que temos atualmente na área de TI, fazendo com que o setor também integre o leque de opções de profissões a serem seguidas e contribua para que seja ampliado o slogan de que não só o lugar de mulher é onde ela quiser, mas o de todos que almejarem independente do gênero. 

Romênia Cavalcanti, gerente de desenvolvimento e operação da Viceri-SEIDOR. 

Sobre a Viceri-SEIDOR:

A Viceri-SEIDOR é uma empresa de Tecnologia da Informação que, há mais de 31 anos, apoia a transformação digital das organizações por meio da entrega do ciclo completo de desenvolvimento de produtos digitais. Com 83 escritórios divididos em 40 países, a empresa já soma mais de 8 mil clientes. Saiba mais em: www.viceri.com.br

Design to Code: como essa prática pode beneficiar as empresas?

A busca pela aceleração de desenvolvimento vem, cada vez mais, fazendo parte da rotina das organizações. Isso é, à medida em que os níveis de competitividade no mercado vão aumentando, mais do que obter ferramentas de gestão, é fundamental que a empresa amplie suas iniciativas internas, a fim de obter uma performance assertiva e eficiente nos negócios. E, dentre essas ações, investir no Design to Code é uma excelente alternativa.

Diariamente, as companhias aplicam o uso de códigos para diferentes tipos de tarefas e ações com toda equipe. No entanto, para que esse processo tenha total assertividade, é necessário que haja um projeto de padronização a fim de evitar possíveis gargalos na gestão. É justamente neste aspecto que o Design to Code ganha relevância, uma vez que o conceito atua com foco em auxiliar no desenho da arquitetura da solução e deixá-la aderente aos processos da empresa, garantindo sua aceleração e desempenho.

Embora essa prática não seja algo novo, ainda assim, sua aplicação é um grande desafio nos empreendimentos. Afinal, temos um cenário em que muitas organizações ainda têm enviesado o entendimento de que apenas o uso de uma ferramenta irá sanar os problemas de gestão e, além disso, caso seja necessária alguma customização, o time de desenvolvedores realiza a execução conforme a demanda apresentada, sem que haja necessariamente uma padronização.

E o resultado disso? A organização passa a ficar exposta a uma sucessão de erros e falhas, considerando que cada atualização foi feita sem um direcionamento específico,

o que resulta na perda de vantagem competitiva, falta de segurança, gargalos operacionais, inconsistências de dados e informações e, principalmente, no aumento de custos. Até porque, a partir do momento em que a empresa precisa buscar por elementos externos para garantir sua execução, os gastos aumentam de forma desproporcional.

A boa notícia é que, atualmente, já existem no mercado diversas opções de softwares que auxiliam na execução do Design to Code, deixando os processos mais assertivos e aderentes, sem que haja a necessidade de retrabalhos, bem como impedindo o nascimento da prática de Shadow IT, que consiste na utilização de recursos de TI por colaboradores e usuários finais, sem que tenha aprovação ou supervisão do departamento de tecnologia da informação.

Contudo, é importante alertar que, de nada adianta obter uma ferramenta engessada, sem que tenha integradas aplicações que favoreçam que a empresa aplique boas práticas de gestão. Dessa forma, é crucial que, no ato da escolha, a companhia como um todo esteja atenta em optar por aquela solução que tenha diferenciais em sua estrutura, garantindo segurança, padronização, recursos tecnológicos e, principalmente, que opere de acordo com os principais órgãos regulatórios.

Além disso, por meio do sistema, a organização passa a obter de forma acelerada os MVPs (Minimum Viable Product), ou em português “Produto Mínimo Viável”, que permite a organização a testar suas ideias, “falhar rápido”, tudo isso com agilidade de solução e menor custo envolvido em sua aplicação.

Entretanto, precisamos enfatizar que nenhuma solução tem o poder de sozinha, mudar a realidade e acelerar o crescimento da empresa. Todo software opera como um auxiliador, porém a verdadeira mudança ocorre quando a organização reestrutura sua cultura organizacional, compreendendo a importância da transformação e dos benefícios a serem obtidos.

Para que isso aconteça, é necessário o envolvimento da alta gestão nesse processo, com amplo entendimento da importância do investimento, bem como da equipe de desenvolvedores, expandindo seu olhar técnico e estando abertos para conhecer e aplicar o novo – o que dá margem para que o time como um todo possa abranger os conhecimentos acerca do negócio, tendo a oportunidade de se dedicar a tarefas pontuais e estratégicas.

Certamente, todo esse processo não acontece da noite para o dia. Por isso, nessa jornada, contar com o apoio de uma consultoria especializada nessa abordagem é uma boa opção. Afinal, o time de especialistas pode ajudar a empresa nas etapas de planejamento e execução, bem como aplicar o conceito de Discovery e localizar pontos de atenção que precisam ser sanados, além de auxiliar na escolha da melhor ferramenta.

O conceito de Design to Code é algo amplo, uma vez que seu sucesso depende de uma gama de ações que envolvem desde aspectos técnicos e operacionais, até culturais da organização. É importante destacar que, atualmente, nem todas as empresas estão preparadas para vivenciarem a aceleração dos negócios. Por isso, considerando os novos rumos do mercado, é essencial que essas companhias repensem o quanto antes a forma que estão conduzindo a sua gestão. Afinal, não se deve deixar para amanhã aquilo que pode ser feito hoje.

Diego Dalben é Arquiteto de Softwares do P&D da Viceri-SEIDOR.

Romulo Costa é Arquiteto de Softwares do P&D da Viceri-SEIDOR.

Sobre a Viceri-SEIDOR:

A Viceri-SEIDOR é uma empresa de Tecnologia da Informação que, há mais de 31 anos, apoia a transformação digital das organizações por meio da entrega do ciclo completo de desenvolvimento de produtos digitais. Com 83 escritórios divididos em 40 países, a empresa já soma mais de 8 mil clientes. Saiba mais em: www.viceri.com.br

IA: mais do que o futuro, uma realidade 

Ao longo deste ano, certamente, você ouviu falar sobre a Inteligência Artificial (IA) e da categoria de IA Generativa, que trará com certeza, uma forte disrupção ao mercado. Não há como negar que essa tecnologia deu o que falar nos últimos meses. À medida que 2023 avançava, indivíduos e organizações ao redor do mundo começaram a sentir o impacto transformador, principalmente, via ChatGPT, percebendo uma nova era de interação digital e possibilidades ilimitadas. 

No entanto, começamos a pensar nas consequências da utilização da ferramenta, desde a perda de postos de trabalho, a necessidade de regulação e ética, até a grande eficiência que podemos conquistar nas empresas e nas nossas vidas pessoais. Isso é, os jovens começaram a utilizar como ferramenta de estudo, muitos advogados prepararam suas defesas através do ChatGPT, as equipes de marketing produziram peças interessantíssimas e, profissionais de todas as áreas, realizaram inúmeras pesquisas que levariam muito tempo utilizando as tradicionais ferramentas de busca.  

Embora a Inteligência Artificial seja uma novidade para muitos, essa não é, de longe uma tecnologia nova, uma vez que o conceito foi criado na década de 1950.  A democratização do acesso que temos hoje, deve-se principalmente aos preços de utilização que se tornaram acessíveis ao público, seguindo a trajetória comum de inovações tecnológicas, onde os custos inicialmente elevados decaem à medida que a infraestrutura necessária para suportar tais ferramentas se torna mais barata e robusta. 

Por sua vez, considerando que um novo ano se aproxima, já vemos movimentações no mercado indicando que este tema continuará em evidência em 2024 e no futuro, o que leva o questionamento: será que as organizações estão preparadas para essa tecnologia? 

Infelizmente, a resposta é não. Isso é, ao mesmo tempo em que muitas empresas estão se movimentando a fim de acompanhar os avanços da IA, outras ainda não têm nenhum plano ou visão em como utilizá-la em seus negócios. Contudo, o mercado está se movimentando. Não à toa, segundo dados da “Pesquisa Indústria 2027”, realizada pela CNI, o mercado mundial de inovações para Inteligência Artificial irá movimentar, até 2025, US$ 60 bilhões ao ano. 

É importante chamar atenção que, mais do que aproveitar o hype do momento com a popularidade dessa ferramenta, é essencial para as empresas realizarem uma análise detalhada e implementar a inteligência artificial onde ela possa trazer significativo valor agregado ao negócio. Do contrário, a ausência de uma estratégia bem definida para a adoção de IA pode levar a investimentos substanciais sem alcançar os resultados desejados, o que possivelmente trará frustração e impactará na sua adoção a longo prazo. 

Além disso, para garantir o sucesso na implantação da IA, é imprescindível não apenas definir claramente os objetivos, impactos, resultados esperados e o retorno sobre o investimento (ROI), mas também assegurar a disponibilidade de dados de alta qualidade e em volume adequado. A eficácia da IA depende intrinsecamente da riqueza e precisão dos dados fornecidos, sejam eles estruturados ou não.  

Não podemos deixar de lado o papel crucial das equipes humanas na curadoria e gestão desses dados, reforçando a ideia de que a tecnologia não busca substituir a mão de obra humana, mas sim complementá-la, elevando os níveis de eficiência e eficácia nos processos empresariais. Ao considerar a vasta gama de oportunidades que a tecnologia apresenta, torna-se igualmente imperativo exercer um cuidado e atenção rigorosos em sua utilização, com um enfoque especial na segurança da informação e na proteção contra a exposição indevida de dados e informações sensíveis.  

Neste contexto, o investimento em uma governança robusta e em práticas de compliance rigorosas é essencial. Tal investimento não apenas assegura a máxima proteção dos dados, mas também garante sua utilização ética e responsável. Até porque, a implementação de estratégias eficazes de segurança da informação e governança de dados é, portanto, um pilar crítico na era digital, crucial para manter a integridade e a confiabilidade das operações empresariais e para fomentar a confiança dos usuários e partes interessadas. 

Em última análise, para colher plenamente os frutos da revolução digital, as empresas devem abraçar não só as ferramentas de IA, mas também promover uma cultura que apoie, integre e evolua com estas inovações transformadoras. 

A Inteligência Artificial é um campo que ainda tem muito potencial a ser explorado, mas o retorno de seu investimento dependerá do quanto as organizações buscarão se preparar para usufruir com eficiência este recurso. Tudo indica que, em 2024, continuaremos a ver a expansão da IA nas empresas, bem como a abertura de uma gama de possibilidades a serem conquistadas, o que irá mostrar as razões pelas quais, mesmo as empresas que ainda não amam a IA, não devem deixá-la.   

Marcel Pratte é CEO da Viceri-Seidor. 

Sobre a Viceri-Seidor: 

A Viceri-Seidor é uma empresa de Tecnologia da Informação que, há mais de 40 anos, apoia a transformação digital das organizações por meio da entrega do ciclo completo de desenvolvimento de produtos digitais. Com 83 escritórios divididos em 40 países, a empresa já soma mais de 8 mil clientes. Saiba mais em: www.viceri.com.br 

Qual a importância do discovery para o sucesso dos projetos da empresa?

Obter êxito na execução de projetos é o objetivo de toda empresa. Entretanto, para conquistar esse resultado, é fundamental ter explícito aspectos importantes que guiem essa jornada, desde o cálculo do orçamento até a elaboração de um roadmap aderente para toda equipe. Certamente, deixar claro todos esses pontos pode ser uma tarefa complexa, o que reforça a importância da utilização de métodos de auxílio, como é o caso do discovery.

Antes da realização de qualquer projeto, é necessário compreender a fundo quais as dificuldades que precisam ser supridas por meio deste trabalho. Sendo assim, o Discovery,ou descoberta, trata-se do processo de imersão exploratório que antecede a fase de desenvolvimento, e tem como missão principal descobrir qual o problema mais importante a ser resolvido para que, a partir disso, consiga formular a melhor solução a ser adotada.

Por mais que possa parecer uma atividade simples a ser seguida, muitas organizações têm dificuldades quanto a aplicação dessa prática. Isso é, na maioria das vezes, se tem o entendimento da importância de melhorias que precisam ser feitas na empresa, mas não é determinado, com clareza, três pontos fundamentais para essa assertividade: o que precisa ser feito, por que é importante, e como fazer isso.

Além disso, quando falamos de uma metodologia como o discovery, sua aplicação é relacionada ao uso exclusivo da tecnologia. Sendo assim, se uma empresa já tem o setor TI, logo a área pode se encarregar da gerência de tais projetos, certo?  Errado. Até porque, de nada adianta desenvolver algo super tecnológico, mas que não se enquadre na expertise do negócio e não atenda os objetivos esperados.

Por isso, o discovery destaca-se nessa abordagem, uma vez que além de ajudar no aprofundamento das dores enfrentadas pela companhia, também são intrínsecos em sua aplicação as fases de experimentar, idear, inovar, prototipar e testar. Assim, a empresa pode compreender o que realmente precisa, bem como avaliar aquilo que irá trazer melhor custo e benefício.

Claramente, os ganhos que essa metodologia pode render no processo de desenvolvimento de projetos brilham os olhos. Porém, para que sua prática seja assertiva, é primordial estabelecer um processo democrático, em que os membros da equipe sejam envolvidos por meio de reuniões e alinhamentos, abrindo espaço para que exponham e compartilhem ideias, participando de todo o processo de desenvolvimento.

É importante enfatizar que o discovery não é realizado do dia para a noite, uma vez que diversos aspectos da companhia precisarão ser visitados para a formulação do documento final que irá nortear o projeto. Nessa jornada, ter o apoio de uma consultoria especializada nesse tipo de abordagem, é um importante passo rumo ao sucesso.

Afinal, o time terá apoio de profissionais que irão ajudar a empresa por meio de cada etapa de alinhar os objetivos, bem como equiparar os resultados que farão a diferença no final, que levarão em conta as dificuldades e dores que precisam ser sanadas – tudo isso, alinhado às melhores práticas do mercado, eliminando os riscos e chances de erros.

Toda empresa almeja obter o sucesso nos seus projetos, mas isso dependerá de qual o caminho será seguido e de que forma isso irá acontecer. Tendo em vista essa relação, o dicovery se destaca como um dos principais elementos que contribui para a maior e melhor assertividade, garantido o retorno rápido e favorável que vem ao encontro do buscado pela companhia, unificando três alicerces: tecnologia, negócio e o cliente.

Ao conciliar esses pilares, é possível traçar metas e objetivos com agilidade e eficiência, e garantir assertividade em toda execução do projeto. Afinal, mais do que ajudar a desenvolver, o discovery tem a missão de guiar na descoberta, e favorecer o encontro do caminho mais lucrativo.

José Augusto Lunardelli é Product Owner da Viceri-Seidor.

Sobre a Viceri-Seidor:

A Viceri-SEIDOR é uma empresa de Tecnologia da Informação que, há mais de 31 anos, apoia a transformação digital das organizações por meio da entrega do ciclo completo de desenvolvimento de produtos digitais. Com 83 escritórios divididos em 40 países, a empresa já soma mais de 8 mil clientes. Saiba mais em: www.viceri.com.br

O caos e a ordem: como unir esses mundos rumo à inovação?

por Marcel Pratte*

Junho de 2022 – O mundo mudou com os atropelos da pandemia, que deixou clara a necessidade das empresas em se anteciparem no quesito inovação. Nos demos conta de que as crises em proporções globais podem ocorrer de forma inesperada, inclusive, nesse momento, estamos em uma nova crise mundial com a guerra entre a Rússia e a Ucrânia. Mas como se preparar para esses eventos que estão cada vez mais rotineiros? Como atender o cliente que se tornou mais exigente e passou a demandar produtos inovadores e de qualidade em uma velocidade que a maioria das empresas não estão preparadas para tal?

Essas perguntas passaram a ser pauta de discussão tanto para os CEOs, que precisam manter suas operações competitivas e lucrativas, quanto para os CIOs, que suportam esse desafio, principalmente porque, a partir de agora, é nítida a necessidade de toda empresa ser baseada na tecnologia, afinal de contas, ela é um dos pilares fundamentais em qualquer negócio na era digital.

Na encruzilhada entre lucratividade, disrupção, reinvenção e conseguir se modernizar a cada, no máximo, um ano e meio ou a cada crise, o primeiro passo é implantar uma cultura empresarial que permita manter viva os pilares ‘inovação, eficiência, resiliência e velocidade’.

Mas como atender o cliente, suprir seus desejos, ter velocidade, operar no meio do caos e ainda se destacar tanto em relação à posição do mercado, quanto à capacidade de manter uma operação eficiente e lucrativa? Nesta equação, volto a ressaltar o poder das empresas ambidestras, que buscam manter o equilíbrio entre a excelência operacional e a inovação, ou seja, as chaves para prosperar no novo mercado e obter diferencial competitivo.

As empresas ambidestras trabalham no modelo caórdico, ou seja, administram o caos e a ordem ao mesmo tempo. O caos é ser ágil, flexível e atender as expectativas do mercado atual e futuro, e, ainda, adaptar-se às crises. A ordem é fazer isso seguindo uma governança corporativa e processos que tragam segurança ao negócio. É ter uma definição clara dos objetivos e resultados esperados e acompanhá-los rigorosamente.

A área de Tecnologia da Informação foi uma das primeiras a implantar esse modelo através de pequenos times multidisciplinares para atender o negócio de forma autônoma, a famosa squad. O importante aqui é o modelo caórdico. Uma squad se adapta rapidamente ao mercado e ao cliente atendido (caos), as decisões são tomadas de forma autônoma (caos), porém dentro de sua alçada (ordem), ela segue objetivos e resultados claros que lhe foram definidos (ordem), que, na maioria das vezes, são trimestrais (caos e ordem), e segue padrões e regras já pré-estabelecidos para o desenvolvimento dos projetos (ordem).

Esse modelo pode ser implantado para qualquer área da empresa, tornando-a muito mais horizontal, levando assim, a diminuição da necessidade do famoso “comando-controle”. Isso tudo sem perder a governança do negócio.

Essa é uma mudança cultural que exigirá muito da sua liderança, mas é passo fundamental para se reinventar e ter longevidade nos negócios.

*Marcel Pratte é CEO da Viceri-Seidor, empresa de Tecnologia da Informação que há mais de 31 anos atua no desenvolvimento de software customizado, consultoria e produtos digitais. A Viceri-Seidor faz parte do Grupo Seidor, multinacional europeia de tecnologia e inovação com mais de 40 anos de atuação.

5 mitos e verdades sobre a segurança de dados

Por Washington Fray, diretor de marketing e vendas da Viceri,

Entre os impactos da pandemia da Covid-19 no mundo corporativo, um deles foi o aumento da preocupação acerca da segurança de dados. As noites mal dormidas dos líderes são resultado do que o Coronavírus se tornou: além de um problema de saúde pública, um caso de atenção à segurança digital devido à adoção massiva do trabalho remoto, que foi responsável por expor as vulnerabilidades das organizações e, assim, facilitar as invasões e os vazamentos de dados.

Neste sentido, enquanto muitas organizações evoluíam suas operações para o ambiente digital, migrando sua operação à nuvem, a pauta de segurança de dados se tornava tanto limitante quanto desencorajadora para os líderes, afinal, apenas no Brasil, foram registradas mais de 8,4 bilhões de tentativas de ataques cibernéticos durante o ano 2020, de acordo com o laboratório de inteligência de ameaças FortiGuard Labs.

Para ajudar nesta decisão de migração e encorajar os líderes de tecnologia que ainda estão inseguros sobre este assunto, alguns mitos e verdades sobre a nuvem podem ajudar nesta escolha:

1. Posso manter meus dados na empresa e evitar a invasão aos sistemas utilizando senhas fortes.

Mito. Infelizmente, as senhas não têm a capacidade de impedir que hackers invadam sistemas de empresas, apesar de terem sua contribuição, obviamente. Senhas complexas funcionam apenas como a primeira barreira de dificuldade para os invasores cibernéticos. Por outro lado, há também os riscos internos de colaboradores que tenham acesso às senhas e podem prejudicar a operação a qualquer momento. Ou seja, as ameaças vêm de fora e de dentro.

2. A nuvem detém baixo custo, rápido retorno de investimento e ampliação da colaboração.

Verdade. Estima-se que a adoção da nuvem gera uma economia de 20% quando comparado à infraestrutura tradicional de TI, que demanda espaço, equipamento e pessoas. Não é à toa que o IDC estima o investimento de US$ 11 bilhões na nuvem por empresas que operam na América Latina. A adesão já é demonstrada nas receitas da Amazon. Os serviços da AWS já representam 29% da receita da gigante, o que equivale a US$ 27,8 bilhões, motivando novos investimentos, inclusive no espaço, como é o caso do serviço AWS Ground Station, que permite controlar a comunicações por satélite.

3. Empresas pequenas não precisam de segurança.

Mito. A afirmação é o contrário. Normalmente as pequenas empresas possuem a segurança de dados mais frágil e, portanto, são mais vulneráveis às invasões de sistemas por criminosos digitais.

4. Ameaças são rapidamente detectadas na nuvem e os serviços Cloud são atualizados constantemente, favorecendo as melhorias.

Verdade. A maioria dos provedores possuem ferramentas que protegem os sistemas contra ameaças e, mais que isso, a computação em nuvem passa por frequentes atualizações e de forma automática, evitando que a medida protetiva seja tomada antecipadamente e não apenas numa suspeita, ou pior, quando uma invasão já ocorreu.

5. Segurança de dados em nuvem é vulnerável.

Mito. A falta de confiança em armazenar informações sigilosas e confidenciais fora de um ambiente físico muitas vezes bloqueia uma tomada de decisão estratégica. Porém, os provedores de Cloud funcionam a partir de camadas de proteção criadas para impedir vazamentos ou qualquer outro movimento sem autorização prévia. Dessa forma, a gestão de dados consegue reduzir consideravelmente possíveis ameaças de ataques cibernéticos.

Informação é poder e, tendo esses mitos desmascarados e as verdades confirmadas, os líderes podem planejar estratégicas de segurança de dados com mais assertividade, abandonando receios infundados que impeçam o crescimento do negócio.

Formatos de dados necessários para treinar seu chatbot – Parte II

Este artigo é uma continuação do que falamos no último texto sobre os formatos necessários para treinar seu chatbot, que você pode ler clicando aqui. Vamos seguir vendo os formatos como são guardados os dados dentro dos arquivos do RASA. Vamos ver também como colocamos as respostas que o chatbot dará durante uma conversa com o usuário e quais as opções que temos para respostas. Falaremos também sobre os arquivos de NLU, que são os exemplos de frases em que o chatbot irá interpretar e descobrir a intenção do usuário.

Vamos lá?

As respostas do chatbot ficam dentro da seção de respostas do arquivo domain.yml. Cada resposta pode ser simplesmente uma frase, ou uma frase entre algumas opções de frase. Além disso, podemos mostrar botões para o usuário que servem como atalhos para frases do usuário. Caso ele clique em um botão, seria como se ele tivesse digitado um texto. Cada frase-resposta ou grupo de frases-resposta possui um nome que, como vimos anteriormente, começa com “utter”. Um exemplo para uma saudação seria:

responses:

  utter_saudacao:

    – text: “Olá, como vai?”

Neste caso, se numa estória o chatbot ver que deve chamar o “utter_saudacao”, aparece para o usuário a frase “Olá, como vai?”. É muito importante você deixar as linhas da forma que estão no exemplo com dois espaços antes do nome do utter, que é seguido de dois pontos, e o texto começa com 4 espaços, um hífen e um espaço, seguido de text e dois pontos. Em alguns casos é possível não usar aspas, mas para evitar erros futuros, sempre coloque o texto entre aspas duplas. Por exemplo, se você não colocar aspas duplas e tiver um hífen na frase, vai dar erro.

Uma coisa que pode tornar as conversas mais parecidas com as conversas de um atendente humano, é dar variações, para que o chatbot não responda sempre com a mesma frase. Para fazer isto, basta colocar várias frases diferentes como no exemplo abaixo:

responses:

  utter_saudacao:

    – text: “Olá, como vai?”

    – text: “E aí, como estão as coisas?”

    – text: “Opa, como você está hoje?”

Agora, se o chatbot achar que deve mostrar o utter_saudacao, irá escolher uma das opções de forma aleatória. Ou seja, para cada conversa, você nunca sabe qual opção o chatbot vai escolher.

Entre um utter e outro, devemos deixar sempre uma linha em branco, e só precisamos da linha “responses:” uma única vez. Lembre-se de que todos os nomes das respostas devem aparecer na seção de ações do arquivo também.

Outro detalhe importante: se você quiser alterar uma resposta, uma estória ou os dados de exemplo, você precisará treinar novamente seu modelo para ver as alterações surtirem efeito. Também podemos dar uma opção para o usuário escolher através de botões:

responses:

  utter_saudacao:

    – text: “como você está hoje?”

      buttons:

      – title: “Estou feliz”

        payload: “feliz”

      – title: “Estou triste”

        payload: “triste”

Do jeito que estão definidos, irá aparecer a frase “como você está hoje?”, seguido de dois botões, um escrito “estou feliz” e o outro escrito “estou triste”. Se o usuário clicar em cima de um botão, será como se ele tivesse digitado “feliz” ou “triste”. Se quisermos tratar o texto como se tivesse sido digitado, podemos deixar dessa forma, mas também podemos “forçar” uma intenção colocando uma barra e o nome da intenção. Veremos mais sobre intenções e daremos um  exemplo disso quando formos falar de NLU.

As informações sobre a sessão o usuário 

Depois de colocarmos todas as respostas do chatbot, passaremos para as informações sobre a sessão do usuário. A configuração padrão é a seguinte:

session_config:

  session_expiration_time: 60

  carry_over_slots_to_new_session: true

A primeira opção session_expiration_time informa quantos minutos uma conversa fica ativa se o usuário parar de enviar frases. No caso, após uma hora sem mandar nenhuma frase para o chabot é entendido que o usuário foi embora. Se ele voltar a fazer perguntas, é como se fosse uma nova conversa.

A opção carry_over_slots_to_new_session determina se as informações contidas nos slots permanecem de uma sessão para outra. No exemplo padrão, os valores contidos nos slots permanecem.

NLU – Compreensão de Linguagem Natural

Vamos para os arquivos NLU, que é onde os exemplos de frases são definidas. O formato do arquivo é um pouco diferente, pois usa atualmente a sintaxe markdown. Uma intenção começa com duas hashtags, e em seguida seu tipo, e o seu nome. Todas as intenções começam então com ## intent: <nome da intenção>. Novamente, o nome da intenção não pode conter acentos, símbolos ou espaços (somente o sublinhado), e não pode começar com um número.

## intent: saudacao

– oi

– boa noite

– boa tarde

– bom dia

– oie

– oieeee

– e aí cara?

– bão

Veja que este não é um exemplo muito bom de intenção, pq todos os exemplos possuem apenas poucas palavras. Uma frase exemplo não precisa ser tão curta. O importante no momento é colocar variações para “ensinar” o chatbot o que é uma saudação. O chatbot pode analisar a gramática e sinônimos de palavras e entender que “tarde!” é um tipo de saudação, mesmo que não tenha explicitamente um exemplo desses.

Quanto mais exemplos a gente colocar, melhor será a interpretação da intenção por parte do chatbot, e é comum a gente colocar 10, 20 ou até mais exemplos. O trabalho de melhoria dos diálogos do chatbot é um trabalho contínuo e deve ser analisado conversas com usuários para ver onde é necessário colocar mais exemplos alterar o fluxo das conversas para melhorar a experiência de usuários no futuro.

Podemos colocar intenções de onde tiramos informações (as entidades!). Para isto, devemos colocar exemplos de informações nas frase exemplo. Por exemplo, se quisermos informar uma cor, podemos usar algo assim:

## intent: define_cor

– a cor é [verde](cor)

– prefiro [azul](cor)

– pode ser [vermelho](cor)

– vou escolher o [amarelo](cor)

– cor [laranja](cor)

Com estes exemplos, caso a pessoa digite “a cor é” e qualquer dos exemplos de cor, o chatbot irá extrair a entidade “cor”, e salvar num slot do mesmo nome. Posso escrever “a cor é laranja”, “cor azul”, “prefiro verde”, que o chatbot irá entender a intenção “define_cor”, e preencher o slot “cor” que o que o usuário digitou. No próximo artigo vamos falar sobre os arquivos de estórias!

Gostou deste artigo? Veja outros insights no nosso blog ou fale com um dos especialistas da Viceri.

Arquiteturas de Redes Neurais Convolucionais para reconhecimento de imagens

Dando continuação ao artigo anterior, vamos entender agora como o conceito da convolução se relaciona com as redes neurais para reconhecimento de imagens. Para este tipo de classificação, é necessária uma boa performance, geralmente alcançada através da utilização de Deep Learning, ou seja, uma rede neural de múltiplas camadas, mais especificamente uma rede neural convolucional – conhecida pela sigla CNN.

Ela recebe este nome porque possui camadas de convolução que, juntamente com outros tipos de camadas, determinam uma arquitetura específica para esta finalidade, como veremos adiante. Uma rede neural profunda possui camadas de neurônios: uma camada de entrada, algumas camadas intermediárias (ou ocultas), e uma camada de saída:

Hipoteticamente, em uma rede completamente conectada, teríamos cada pixel de uma imagem 300×300 – por exemplo – ligado a cada um dos neurônios na entrada. Para isso, precisaríamos de 90 mil neurônios, resultando em uma quantidade extremamente alta de parâmetros, e uma descorrelação espacial entre os pixels da imagem, ou seja, um enorme desperdício de recurso.

Por isso, a aplicação de camadas convolucionais sobre os pixels da imagem, reduz muito a quantidade de parâmetros e facilita a descoberta de padrões. Geralmente utiliza-se filtros espaciais lineares como visto no artigo anterior.

Uma camada convolucional realiza o aprendizado de múltiplos filtros, onde cada filtro – ou kernel – extrai uma informação da imagem. Como dito anteriormente, outras camadas são utilizadas em conjunto com a convolucional. O módulo Keras para desenvolvimento de uma CNN fornece uma camada convolucional para imagens, chamada de Conv2D, e também outras camadas (ou layers) para se utilizar em combinação sequencial. São elas:

MaxPooling2D

● Dropout

● Flatten

● Dense e

● Activation

Na camada Conv2D: realiza-se a convolução e deve-se especificar a quantidade de filtros, e o tamanho do kernel;

Na camada Activation: utiliza-se uma função de ativação, ao final de uma camada Conv2D e da camada Dense. A inspiração biológica é que inicialmente acreditava-se que os neurônios só conseguiam transmitir uma informação adiante pelo axônio após receberem um certo nível de estímulo (ou de saturação), e nessa situação estariam ativados. Esta função tentava representar esse cenário. Na prática, a função de ativação insere um comportamento necessário de não-linearidade, após a função linear dos pesos com as entradas, do corpo da célula:

 

As principais funções de ativação 

‒ Sigmóide: muito utilizada para aprendizado de funções lógicas, pois espreme os valores entre 0 e 1. Não é centrada em torno de zero, o uso de exponencial é relativamente custoso, e não é boa para reconhecimento de imagens;

‒ Tangente Hiperbólica: utilizada em redes LSTM (um tipo de rede neural recorrente), esta função espreme os valores entre -1 e 1, mas não é boa para funções binárias (pelo intervalo negativo);

‒  ReLU (Unidade Linear Retificada): muito utilizada para imagens, não satura na região positiva, converge bem mais rápido do que a sigmóide ou tangente hiperbólica sobre imagens, não é centrada em zero, porém é ruim para funções lógicas, e não é utilizada em redes recorrentes;

‒  Leaky ReLU: esta função nunca satura, é semelhante a ReLU porém faz tratamento para entradas negativas;

‒  ELU (Unidade Linear Exponencial): apresenta todos os benefícios da ReLU, produz saídas com médias próximas de zero, porém necessita de exponencial para seu cálculo;

‒ Softmax: esta função produz uma distribuição das probabilidades para cada classe de imagem durante uma classificação, diferente da sigmóide capaz de lidar com apenas duas classes. É utilizada na camada de saída da CNN.

Na camada de Pooling ou Agrupamento: geralmente usa-se a função de valor máximo para processamento de imagens. No Keras é a função MaxPooling2D que age reduzindo ou agrupando pixels de uma determinada região, com a finalidade de diminuir a variância a pequenas alterações e também de reduzir a quantidade de parâmetros. O pooling também pode ser feito por função de soma ou de média.

Na camada Dropout: realiza-se um regularização, onde alguns neurônios são desligados aleatoriamente, juntamente com suas conexões, durante o treinamento apenas. Durante a predição todos os neurônios são mantidos ativos. O motivo de se fazer isso é evitar overfitting no treinamento. Deve-se informar a porcentagem de desligamento.

Na camada Flatten: a matriz resultante das camadas anteriores de convoluções e poolings é redimensionada para se tornar um array linear, de uma única dimensão. Esta etapa é um preparo para se entrar na camada principal da rede neural totalmente conectada.

Na camada Dense: é implementada a rede neural totalmente conectada, ou fully connected (conhecido pela sigla FC em inglês), e deve-se informar a dimensão da saída e a função de ativação a ser utilizada. No contexto de reconhecimento de imagens é comum se projetar esta camada densa com a função de ativação ReLU e, por fim, outra camada densa com a dimensão igual a quantidade de classes a serem classificadas com a função de ativação softmax (para múltiplas classes).

Fonte da imagem: site https://medium.com

Arquiteturas de CNNs ou ConvNETs

Sobre arquiteturas de CNNs ou ConvNETs, inicialmente podemos citar três projetos que contribuíram para as arquiteturas atuais: 

LeNET: foi proposta em 1998 e já continha camadas de convolução com filtros 5×5 e passo 1, e agrupamentos com filtros 2×2 com passo 2, intercaladas, seguidas de camadas FC. A sequência de camadas eram: CONV-POOL-CONV-POOL-FC-FC.

AlexNET: proposta em 2012, bem mais complexa que a LeNET. Essa arquitetura continha cinco camadas de convolução, batch de tamanho 128, e primeiro uso da função de ativação ReLU.

VGG: em 2014 surge a arquitetura VGG com a ideia de filtros menores (3×3) em redes mais profundas com mínimo de 12 convoluções e maxpooling com filtros 2×2. Filtros menores geram menos parâmetros. Porém as camadas FC geravam uma quantidade muito grande de parâmetros e, as convoluções iniciais utilizavam muita memória RAM, tornando essa rede muito pesada.

Sobre as redes mais recentes, podemos citar dois projetos: a GoogleNET e ResNET.

GoogleNET: também em 2014 surgiu a ideia de se utilizar filtros de forma paralela, mais especificamente, fazer uso de uma nova camada chamada Inception, que se tornou elemento básico desta rede, onde tinha-se em sequência, nove módulos do tipo Inception. Este módulo possui convoluções 3×3 e 5×5 precedidas de convoluções 1×1 a fim de se reduzir o custo computacional.

ResNET: ou rede residual, proposta em 2015, de forma simplificada, a ideia é de se realizar um curto-circuito a cada duas convoluções, acrescentando um resultado anterior ao resultado futuro. Assim, diferentemente de uma rede tradicional, quanto mais camadas, menor o erro. Porém para os atuais projetos ResNET de 50, 101 e 152 camadas, ao invés de se trabalhar com 2 camadas convolucionais de 3×3, uma é retirada e são inseridas duas convoluções 1×1, diminuindo o custo computacional, como visto na GoogleNET.

Gostou deste artigo? Acompanhe outros textos aqui no nosso blog ou entre em contato com um dos nossos especialistas.