*Por Renato Carneiro
Todo projeto ou solução de tecnologia precisa de uma base em que possa se desenvolver com segurança, consistência e alguma previsibilidade. Mas nenhum CIO acorda, um belo dia, pensando em modernizar o seu ambiente de TI se tudo estiver funcionando ao menos razoavelmente bem. A atualização da infraestrutura tecnológica e de redes sempre foi condição – mas também consequência – da busca por eficiência, segurança, otimização de custos e inovação, exigindo, todos os anos, novos investimentos. E o que mudou, então? É que, na atual velocidade de adoção de novas tecnologias, essa fundação está sempre precisando ser atualizada.
Ainda que este seja só o início da expansão da inteligência artificial nas aplicações de negócio, os investimentos em data center para suportar a IA generativa – e, em geral, o uso massivo de dados – estão em alta. Na previsão do Gartner, os gastos com hardware otimizado para a IA deverão corresponder a algo como 60% de todo o montante investido em infraestrutura de TI em 2024. Obviamente, os provedores de serviços em nuvem estão na dianteira dessa campanha pela infraestrutura de ouro, a fim de levar as capacidades da genAI para produtos e serviços existentes, além de novas soluções.
Nas empresas, qualquer projeto que não esteja estabelecido sobre a arquitetura certa, dentro de uma infraestrutura de redes robusta, distribuída, com mais capacidade de processamento para rodar as ferramentas de IA e para diminuir a vulnerabilidade a ameaças de segurança, virá a desmoronar entre as lacunas dessa fundação. Então, se a gente já sabe de tudo isso, o que pode permitir a um líder de TI não ter que acordar todos os dias pensando: “O que eu estou deixando de fazer?”.
Quero dividir, a seguir, alguns pensamentos sobre isso.
Mas onde estão os meus dados?
Vamos lembrar o que aconteceu, anos atrás, com a expansão dos serviços de internet. Quando as grandes operadoras não tinham interesse em atender regiões menos populosas, os ISPs (internet service providers) começaram a olhar para cidades menores e planas, e ver, nelas, a oportunidade de cobertura via cabos e fibra óptica. Lembro que chegamos a ter mais de três mil ISPs no Brasil. E não precisava ser um gênio para prever o que aconteceria em seguida: as operadoras de telecom foram comprando essas empresas, de forma a expandir a suas redes.
Voltemos ao presente. É fato que poucas gigantes dominam o mercado de computação em nuvem no mundo, e eu não preciso dizer quais são elas. Mas também há um movimento relativamente parecido com o que vimos acontecer com os ISPs no passado. As empresas estão testando aplicações não-críticas em provedores de nuvem menores, na tentativa de eliminar gargalos deixados pelos provedores tradicionais.
E esses novos players não estão surgindo do nada. Acontece que, ao gerenciarem o uso da nuvem de seus clientes e o relacionamento deles com os grandes provedores de cloud, essas empresas identificaram o desafio muitas vezes não correspondido do CIO: maior especialização, flexibilidade, customização e, claro, otimização dos serviços em nuvem. Assim, criaram suas próprias clouds e estão brigando por uma fatia de mercado. E qual deverá ser uma próxima fase desse movimento? Bem, a história dos ISPs nos dá uma pista.
Se ir para a nuvem é um fato irreversível no mundo das empresas, a pergunta “onde meus dados estão?” torna-se, portanto, mais exigente. Nesse sentido, uma outra preocupação ronda especialmente as organizações globais: a possibilidade de uma guerra cibernética entre nações que pode afetar de forma significativa a segurança de seus dados. Ou ainda: num mundo abalado por eventos geopolíticos, econômicos e climáticos, onde estão fisicamente os datacenters e as pessoas que prestam serviços para a minha organização? Quais territórios oferecem a segurança que eu preciso?
E quem vai cuidar de tudo isso?
Para todos os problemas que hoje as áreas de TI precisam resolver, há um fator inevitável: a complexidade do ambiente tecnológico. No mundo dos dados, tanto os desafios, quanto as soluções a eles, ganharam um alto nível de sofisticação e, com isso, é praticamente impossível manter, dentro de casa, gente especializada em tudo isso. Muitas organizações se deparam com a falta de profissionais qualificados para gerenciar efetivamente áreas críticas como nuvem e segurança da informação. É por isso que a demanda por serviços gerenciados cresce tanto.
Nas projeções da Mordor Intelligence, os gastos globais com serviços de TI devem superar 1,5 trilhão de dólares em 2024, com um crescimento anual de cerca de 10%. A longo prazo, o mercado de managed services deve atingir impressionantes 410 bilhões de dólares até 2029, com um avanço contínuo de quase 8% ao ano. Na América Latina, segundo pesquisas da Cisco, a receita com serviços gerenciados atinge, atualmente, 11 bilhões de dólares e deve crescer a um ritmo anual de até 12%.
Os serviços gerenciados tornam-se, portanto, uma solução estratégica para o CIO, que precisa integrar diversas tecnologias de maneira eficiente. Entretanto, mais do que segurança, o que as organizações buscam é confiança. A relação entre as empresas e seus provedores de managed services precisa ser baseada em transparência e integridade, criando um ambiente propício para a inovação.
E como enxergar tanta informação?
Como eu disse, os projetos de atualização de infraestrutura de redes sempre têm lugar na agenda de investimento em tecnologia, ainda que sejam motivados por desafios mais iminentes.
Em virtude da necessidade de se proteger das vulnerabilidades cibernéticas, é mandatório atualizar sua infraestrutura pensando em microssegmentação da rede, criando camadas de acesso às aplicações, para ter a possibilidade de isolar possíveis ataques. Ou ainda, de se utilizar uma arquitetura de zero trust, para se ter certeza de quem exatamente está utilizando a rede, e em que condições, antes de ganhar acesso a ela.
Mas esse é só o começo da história. Para gerenciar redes com tamanho nível de distribuição e complexidade, há ainda que preparar sua infraestrutura com soluções de observabilidade. Como eu consigo, afinal, enxergar tantas variáveis e atuar com inteligência dentro desse ambiente?
Podemos dizer que a observabilidade é uma evolução do gerenciamento das redes e das soluções de APMs (as ferramentas de monitoramento de performance de aplicação). Isso porque ela consegue entender o desempenho e o comportamento da conectividade e de sistemas mais complexos, com detecção proativa de problemas e geração de insights em tempo real. E a observabilidade abrange ainda, uma compreensão mais profunda das interações entre infraestruturas por onde o usuário passa para chegar até as aplicações que pretendem acessar.
Apenas como exemplo, no mundo da Cisco, a capacidade de percorrer todos esses caminhos é garantida por soluções como AppDynamics, Splunk e Thousand Eyes, que podem ser integradas e vistas como uma única solução.
Pensar em perguntas exigentes como essas e outras, que devem estar nos pensamentos dos líderes de TI ao acordarem todos os dias, é extremamente importante para que se encontre as melhores respostas para tornar o caminho de atualização da infraestrutura de rede mais fácil e mais natural.