Básico em Infraestrutura de TI

 BÁSICO EM INFRAESTRUTURA DE TI 

 

 

Segurança, Monitoramento e Boas Práticas

Segurança em Infraestrutura

 

1. Introdução

A segurança da informação tornou-se um dos pilares fundamentais da infraestrutura de tecnologia da informação (TI) nas organizações modernas. Com o avanço da transformação digital e a crescente dependência de sistemas computacionais e redes, proteger os dados e os recursos tecnológicos tornou-se essencial para a continuidade dos negócios, a proteção da privacidade e a conformidade com legislações.

Segundo Stallings (2017), a segurança da informação consiste na aplicação de medidas, políticas e tecnologias que visam garantir a confidencialidade, integridade e disponibilidade das informações — princípios conhecidos pela sigla CID. A infraestrutura de TI, composta por servidores, redes, sistemas e usuários, é o ambiente onde esses princípios devem ser aplicados de forma contínua e integrada.

Proteger a infraestrutura envolve não apenas ferramentas tecnológicas, como firewalls e antivírus, mas também a adoção de políticas, boas práticas e conscientização dos usuários. A segurança deve ser vista como um processo dinâmico e estratégico, e não apenas como uma ação técnica isolada.

2. Conceitos Básicos de Segurança da Informação

A segurança da informação é o conjunto de processos e práticas voltados à proteção dos ativos informacionais contra acessos não autorizados, uso indevido, divulgação, modificação ou destruição. Conforme Laudon e Laudon (2020), seu principal objetivo é preservar o valor das informações para a organização, assegurando que elas permaneçam disponíveis e confiáveis para quem delas depende.

Os princípios fundamentais da segurança são:

  • Confidencialidade: garante que as informações sejam acessadas apenas por pessoas autorizadas.
  • Integridade: assegura que os dados não sejam alterados de forma indevida, intencional ou acidental.
  • Disponibilidade: garante que os sistemas e informações estejam acessíveis quando necessários.

Além desses, a segurança moderna também inclui princípios como autenticidade, não repúdio e responsabilidade, fundamentais para ambientes corporativos e jurídicos (Tanenbaum & Wetherall, 2011).

As ameaças à segurança podem ser internas ou externas e se manifestam por meio de ataques cibernéticos, falhas humanas, erros de configuração, software malicioso e engenharia social. Por isso, a segurança da informação deve ser implementada em camadas — conceito conhecido como

defesa em profundidade — combinando controles técnicos, administrativos e físicos (Stair & Reynolds, 2018).

3. Firewalls, Antivírus e Controle de Acesso

Entre as ferramentas fundamentais para a proteção da infraestrutura estão os firewalls, os sistemas antivírus e os mecanismos de controle de acesso. Esses componentes atuam de forma complementar na prevenção e mitigação de ameaças.

O firewall é um dispositivo ou software que monitora e controla o tráfego de rede com base em regras de segurança pré-definidas. Ele funciona como uma barreira entre a rede interna (privada) e redes externas (como a internet), filtrando pacotes de dados e bloqueando comunicações não autorizadas. De acordo com Kurose e Ross (2021), os firewalls podem operar em diferentes camadas — de filtragem de pacotes simples até inspeção de estado e análise de aplicativos — e são essenciais para prevenir ataques de intrusão e acessos indevidos.

O antivírus é uma ferramenta projetada para detectar, bloquear e remover softwares maliciosos, conhecidos como malwares — incluindo vírus, trojans, worms, ransomwares e spywares. Seu funcionamento baseia-se na varredura constante do sistema e na comparação de arquivos com assinaturas conhecidas de ameaças. Atualmente, muitos antivírus utilizam inteligência artificial e análise comportamental para identificar ameaças novas e desconhecidas (Silberschatz, Galvin & Gagne, 2018).

O controle de acesso, por sua vez, é o conjunto de mecanismos que restringem o uso de recursos a usuários autorizados. Ele envolve processos de autenticação (verificação de identidade), autorização (definição do que o usuário pode fazer) e auditoria (registro das ações realizadas). A implementação correta desses controles é essencial para evitar o uso indevido de dados e sistemas, sendo uma das bases das normas internacionais de segurança, como a ISO/IEC 27001 (Stallings, 2017).

Essas três ferramentas — firewall, antivírus e controle de acesso — formam a linha de defesa essencial da infraestrutura de TI, atuando na proteção contra invasões, na integridade dos sistemas e na gestão do comportamento dos usuários.

4. Criação de Políticas de Segurança

A tecnologia, por si só, não é suficiente para garantir a segurança da informação. É indispensável a criação e a aplicação de políticas de segurança, que orientem o comportamento dos usuários e definam responsabilidades dentro da organização.

Uma política de segurança da informação (PSI) é um documento formal que estabelece

diretrizes, normas e procedimentos para proteger os ativos informacionais. Segundo Laudon e Laudon (2020), a PSI deve abranger desde o uso de senhas e dispositivos até regras de acesso remoto, cópias de segurança e resposta a incidentes.

Para ser eficaz, uma política deve seguir princípios como:

  • Clareza e objetividade, para que todos compreendam as regras;
  • Apoio da alta gestão, garantindo comprometimento institucional;
  • Treinamento e conscientização, para promover a cultura de segurança;
  • Atualização constante, diante das novas ameaças e tecnologias.

Além disso, é importante a criação de planos de contingência e políticas de continuidade de negócios, que definam as ações a serem tomadas em caso de falhas, ataques ou desastres. Conforme Stallings (2017), uma política de segurança eficaz deve equilibrar proteção e usabilidade, evitando medidas excessivamente restritivas que comprometam a produtividade.

5. Boas Práticas de Senhas e Autenticação

As senhas ainda são o método mais comum de autenticação em sistemas digitais, embora também sejam um dos pontos mais vulneráveis. O uso de senhas fracas, repetidas ou compartilhadas é uma das principais causas de incidentes de segurança em ambientes corporativos.

Para reduzir esses riscos, recomenda-se adotar boas práticas como:

  • Criar senhas complexas, com combinação de letras maiúsculas, minúsculas, números e caracteres especiais;
  • Evitar senhas óbvias ou baseadas em informações pessoais;
  • Alterar senhas periodicamente e nunca as reutilizar em diferentes sistemas;
  • Utilizar gerenciadores de senhas para armazenar credenciais de forma segura;
  • Implementar autenticação multifator (MFA), que combina senhas com outros fatores, como tokens, biometria ou códigos de verificação (Tanenbaum & Wetherall, 2011).

A autenticação multifator tornou-se essencial para ambientes corporativos e serviços online, pois reduz significativamente o risco de invasões, mesmo em casos de vazamento de senhas. Conforme Kurose e Ross (2021), o uso de múltiplos fatores eleva o nível de segurança sem comprometer a experiência do usuário.

Além das boas práticas individuais, as organizações devem implementar políticas automáticas de expiração e complexidade de senhas, além de monitorar tentativas de login e bloqueios automáticos em caso de comportamento suspeito. A combinação de autenticação forte e monitoramento constante forma uma barreira eficaz contra acessos não

autorizados e ataques de engenharia social.

6. Considerações Finais

A segurança da infraestrutura de TI é um processo contínuo que exige integração entre tecnologia, políticas e conscientização humana. Firewalls, antivírus e controles de acesso são componentes técnicos indispensáveis, mas sua eficácia depende da implementação de políticas bem estruturadas e do comprometimento dos usuários com as boas práticas de segurança.

A criação de políticas de segurança, aliada a medidas preventivas como autenticação multifator e gestão adequada de senhas, contribui para reduzir vulnerabilidades e proteger os ativos informacionais. Em um mundo cada vez mais conectado, a segurança da informação deixou de ser apenas uma necessidade técnica e tornou-se um elemento estratégico para a sustentabilidade e reputação das organizações.

Referências Bibliográficas

  • Kurose, J. F., & Ross, K. W. (2021). Redes de Computadores e a Internet: Uma Abordagem Top-Down (7ª ed.). Pearson.
  • Laudon, K. C., & Laudon, J. P. (2020). Sistemas de Informação Gerenciais (15ª ed.). Pearson.
  • Silberschatz, A., Galvin, P. B., & Gagne, G. (2018). Fundamentos de Sistemas Operacionais (9ª ed.). LTC.
  • Stallings, W. (2017). Data and Computer Communications (10ª ed.). Pearson.
  • Stair, R., & Reynolds, G. (2018). Princípios de Sistemas de Informação (13ª ed.). Cengage Learning.
  • Tanenbaum, A. S., & Wetherall, D. (2011). Redes de Computadores (5ª ed.). Pearson.


Monitoramento e Manutenção em Infraestrutura de TI

 

1. Introdução

O monitoramento e a manutenção são processos essenciais para garantir o desempenho, a confiabilidade e a continuidade dos serviços em uma infraestrutura de tecnologia da informação (TI). Em um cenário corporativo altamente dependente de sistemas digitais, qualquer falha pode causar impactos significativos na produtividade, na segurança e na imagem institucional.

De acordo com Laudon e Laudon (2020), o monitoramento contínuo da infraestrutura de TI permite detectar falhas antes que se tornem problemas críticos, enquanto a manutenção — tanto preventiva quanto corretiva — assegura que os equipamentos e sistemas funcionem de forma estável e eficiente. Assim, o gerenciamento proativo dos recursos tecnológicos é um elemento estratégico para o sucesso organizacional.

O presente texto aborda as principais ferramentas e práticas de monitoramento de redes e servidores, os indicadores de desempenho mais relevantes, os

procedimentos de manutenção e a importância dos logs e auditorias no controle e segurança das operações de TI.

2. Ferramentas de Monitoramento de Rede e Servidores

As ferramentas de monitoramento são sistemas utilizados para acompanhar o desempenho, o estado e a disponibilidade dos componentes de uma infraestrutura de TI. Elas permitem a visualização em tempo real de métricas como tráfego de rede, utilização de processadores, memória, espaço em disco e status de serviços críticos.

Segundo Stallings (2017), o objetivo do monitoramento é identificar anomalias e falhas, prever problemas e garantir que os níveis de serviço acordados (SLAs) sejam mantidos. O monitoramento pode ser dividido em dois tipos principais: ativo, quando a ferramenta executa verificações periódicas, e passivo, quando apenas coleta dados gerados pelos sistemas.

Entre as ferramentas mais utilizadas estão:

  • Nagios e Zabbix, voltadas ao monitoramento de servidores, redes e aplicações;
  • PRTG Network Monitor, que fornece visualizações gráficas e alertas em tempo real;
  • SolarWinds e ManageEngine, com foco em ambientes corporativos complexos;
  • Prometheus e Grafana, amplamente usados em ambientes de nuvem e contêineres.

Essas ferramentas oferecem recursos como dashboards, alertas automáticos e relatórios analíticos, que auxiliam na tomada de decisão. O uso de sistemas de monitoramento centralizados é fundamental para garantir visibilidade sobre toda a infraestrutura e reduzir o tempo de resposta diante de incidentes (Kurose & Ross, 2021).

3. Indicadores de Desempenho (CPU, Memória, Tráfego)

O monitoramento de desempenho baseia-se na coleta e análise de indicadores-chave (KPIs) que refletem o estado operacional dos sistemas e redes. Esses indicadores permitem identificar gargalos, planejar capacidade e prever falhas antes que afetem o funcionamento geral da infraestrutura.

Os principais indicadores de desempenho incluem:

  • Uso da CPU (Central Processing Unit): indica o percentual de processamento em uso. Altos níveis de utilização por períodos prolongados podem sinalizar sobrecarga ou má configuração de software.
  • Memória RAM: mede o consumo de memória pelos processos em execução. O monitoramento é essencial para evitar trocas excessivas de memória virtual (swap), que degradam o desempenho (Silberschatz, Galvin & Gagne, 2018).
  • Tráfego de Rede: monitora o volume de dados transmitidos e recebidos. Um aumento anormal pode
  • indicar ataques de negação de serviço (DDoS), mau dimensionamento da largura de banda ou falhas de configuração.
  • Utilização de Disco: avalia a ocupação e a taxa de leitura e escrita dos dispositivos de armazenamento. Espaço insuficiente pode comprometer serviços e causar falhas de sistema.
  • Latência e Disponibilidade: medem o tempo de resposta dos serviços e a frequência de indisponibilidade. São métricas críticas para garantir o cumprimento de SLAs.

De acordo com Stair e Reynolds (2018), o acompanhamento desses indicadores deve ser contínuo e baseado em parâmetros definidos pela política de desempenho da organização. A análise proativa dessas métricas permite prever falhas e planejar expansões de forma estratégica.

4. Procedimentos de Manutenção Preventiva e Corretiva

A manutenção em infraestrutura de TI tem como finalidade preservar a integridade dos equipamentos e garantir o funcionamento adequado dos sistemas. Ela pode ser classificada em dois tipos principais: preventiva e corretiva.

A manutenção preventiva consiste na execução de ações periódicas e planejadas com o objetivo de evitar falhas. Inclui tarefas como atualização de softwares, limpeza física de equipamentos, substituição de componentes com desgaste, verificação de cabeamento e revisão de configurações de segurança. Segundo Tanenbaum e Wetherall (2011), a manutenção preventiva é mais econômica a longo prazo, pois reduz o número de interrupções e prolonga a vida útil dos equipamentos.

Já a manutenção corretiva é realizada após a ocorrência de uma falha. Seu foco é restaurar o funcionamento normal dos sistemas no menor tempo possível, minimizando impactos operacionais. Esse tipo de manutenção requer diagnóstico preciso, reposição de peças e análise de causa raiz para evitar recorrência do problema (Comer, 2018).

Para que a manutenção seja eficaz, é essencial adotar procedimentos documentados e seguir boas práticas, como:

  • manter inventário atualizado de equipamentos e softwares;
  • registrar todas as intervenções realizadas;
  • definir prioridades conforme o impacto sobre os serviços;
  • realizar testes após a correção;
  • implementar planos de contingência e recuperação.

A combinação equilibrada entre manutenção preventiva e corretiva é a base de uma gestão eficiente da infraestrutura tecnológica, garantindo estabilidade e previsibilidade.

5. Logs e Auditorias

Os logs são registros automáticos de eventos que ocorrem em

sistemas, servidores e dispositivos de rede. Eles constituem uma fonte essencial de informações para o monitoramento, diagnóstico e auditoria de segurança. Cada log contém dados sobre ações executadas, usuários envolvidos, horários e resultados das operações.

De acordo com Stallings (2017), a análise de logs é um dos métodos mais eficazes para detectar anomalias, invasões e falhas de configuração. Em ambientes corporativos, a coleta centralizada de logs é feita por meio de ferramentas de SIEM (Security Information and Event Management), como Splunk, Graylog e Elastic Stack, que correlacionam eventos e geram alertas automáticos.

As auditorias complementam o processo, verificando se os sistemas estão em conformidade com as políticas de segurança e com as normas regulatórias. Elas podem ser internas, conduzidas pela própria organização, ou externas, realizadas por entidades independentes. O objetivo é assegurar a transparência, a rastreabilidade e a integridade das informações (Laudon & Laudon, 2020).

Os logs e as auditorias também são fundamentais para a gestão de incidentes e a investigação forense digital, permitindo reconstruir eventos e identificar a origem de ataques ou falhas. Assim, sua correta configuração, armazenamento seguro e análise regular são práticas indispensáveis para a manutenção da infraestrutura de TI e da segurança da informação.

6. Considerações Finais

O monitoramento e a manutenção da infraestrutura de TI são elementos estratégicos que garantem a continuidade operacional e a eficiência dos serviços tecnológicos. Ferramentas especializadas, indicadores bem definidos e políticas de manutenção estruturadas formam um ecossistema que permite antecipar problemas, reduzir falhas e otimizar recursos.

Da mesma forma, a análise de logs e a realização de auditorias reforçam a governança e a segurança da informação, promovendo um ambiente mais estável e confiável. Em um cenário em que as organizações dependem cada vez mais da tecnologia, a adoção de práticas de monitoramento e manutenção contínua é indispensável para sustentar o crescimento, a competitividade e a resiliência corporativa.

Referências Bibliográficas

  • Comer, D. E. (2018). Internetworking with TCP/IP: Principles, Protocols, and Architecture (6ª ed.). Pearson.
  • Kurose, J. F., & Ross, K. W. (2021). Redes de Computadores e a Internet: Uma Abordagem Top-Down (7ª ed.). Pearson.
  • Laudon, K. C., & Laudon, J. P. (2020). Sistemas de Informação Gerenciais (15ª
  • (15ª ed.). Pearson.
  • Silberschatz, A., Galvin, P. B., & Gagne, G. (2018). Fundamentos de Sistemas Operacionais (9ª ed.). LTC.
  • Stallings, W. (2017). Data and Computer Communications (10ª ed.). Pearson.
  • Stair, R., & Reynolds, G. (2018). Princípios de Sistemas de Informação (13ª ed.). Cengage Learning.
  • Tanenbaum, A. S., & Wetherall, D. (2011). Redes de Computadores (5ª ed.). Pearson.

 

Boas Práticas e Tendências em Infraestrutura de TI

 

1. Introdução

A infraestrutura de Tecnologia da Informação (TI) constitui o alicerce sobre o qual se sustentam os serviços digitais e os processos corporativos modernos. À medida que as organizações se tornam mais dependentes da tecnologia, cresce a necessidade de adotar boas práticas de gestão, padronização, automação e documentação. Esses elementos garantem eficiência operacional, segurança e escalabilidade dos ambientes tecnológicos.

Paralelamente, o avanço das tendências emergentes, como edge computing, inteligência artificial (IA) e redes 5G, está redefinindo a forma como as infraestruturas são planejadas e geridas. Somam-se a isso as discussões sobre ética e sustentabilidade na TI, que visam assegurar o uso responsável e consciente dos recursos tecnológicos (Laudon & Laudon, 2020).

Este texto apresenta uma análise sobre boas práticas e tendências em infraestrutura de TI, destacando a importância da padronização, da automação e das inovações tecnológicas que moldam o futuro da área.

2. Padronização e Documentação

A padronização e a documentação são pilares essenciais para o gerenciamento eficiente da infraestrutura de TI. Padronizar significa definir normas, procedimentos e configurações que garantam uniformidade e previsibilidade na operação dos sistemas e equipamentos.

Já documentar é registrar detalhadamente essas práticas, possibilitando rastreabilidade, auditoria e continuidade das atividades.

Segundo Stair e Reynolds (2018), a padronização reduz erros, facilita o treinamento de equipes e assegura a compatibilidade entre diferentes tecnologias. Ela é aplicada em diversos níveis — desde a configuração de servidores e redes até a adoção de frameworks de gestão, como ITIL (Information Technology Infrastructure Library) e COBIT (Control Objectives for Information and Related Technologies). Esses frameworks oferecem diretrizes para a governança, o suporte e a entrega de serviços de TI com foco em qualidade e eficiência.

A documentação, por sua vez, é o registro

formal das informações sobre o ambiente de TI: topologia de rede, inventário de equipamentos, políticas de segurança, scripts de automação e procedimentos de manutenção. Conforme Stallings (2017), a ausência de documentação atualizada é uma das principais causas de falhas e atrasos na recuperação de incidentes. Uma infraestrutura bem documentada facilita a continuidade dos serviços, a auditoria e a transferência de conhecimento entre profissionais.

Portanto, padronização e documentação não são apenas atividades administrativas, mas estratégias essenciais para garantir estabilidade e governança tecnológica.

3. Automação de Tarefas e Infraestrutura como Código

A automação de tarefas e o conceito de infraestrutura como código (IaC — Infrastructure as Code) representam uma das mais importantes evoluções nas práticas de administração de sistemas e redes. Esses métodos buscam reduzir a intervenção manual, eliminar erros humanos e acelerar a entrega de recursos tecnológicos.

A automação envolve o uso de ferramentas e scripts que executam rotinas de forma automática, como implantação de servidores, atualização de sistemas, backup e monitoramento. Segundo Tanenbaum e Wetherall (2011), a automação é um passo fundamental para aumentar a confiabilidade e a agilidade das operações de TI, permitindo que os profissionais concentrem esforços em atividades estratégicas.

A infraestrutura como código, por sua vez, aplica os princípios de desenvolvimento de software à gestão da infraestrutura. Nesse modelo, servidores, redes e configurações são descritos em arquivos de código, que podem ser versionados, revisados e reproduzidos automaticamente. Ferramentas como Terraform, Ansible, Puppet e Chef permitem a criação de ambientes completos de forma padronizada e escalável.

De acordo com Kurose e Ross (2021), a adoção de IaC está diretamente ligada à popularização da computação em nuvem e dos ambientes DevOps, nos quais equipes de desenvolvimento e operação trabalham de maneira integrada. Além de agilizar implantações, a automação aumenta a confiabilidade e reduz o tempo de inatividade dos sistemas.

Dessa forma, a automação e o IaC se tornaram práticas essenciais para organizações que buscam eficiência operacional e resiliência em suas infraestruturas.

4. Tendências: Edge Computing, Inteligência Artificial e 5G

As tendências emergentes em infraestrutura de TI estão moldando um novo paradigma tecnológico, caracterizado pela descentralização, inteligência e conectividade em

em infraestrutura de TI estão moldando um novo paradigma tecnológico, caracterizado pela descentralização, inteligência e conectividade em larga escala. Entre as principais inovações destacam-se o edge computing, a inteligência artificial aplicada à TI e as redes 5G.

O edge computing (computação de borda) consiste em processar dados mais próximos da origem, reduzindo a dependência de data centers centralizados. Essa abordagem minimiza a latência e otimiza o uso de largura de banda, sendo essencial para aplicações que exigem respostas em tempo real, como veículos autônomos e sistemas industriais automatizados (Stallings, 2017). Segundo Laudon e Laudon (2020), o edge computing complementa a computação em nuvem, criando uma arquitetura distribuída mais eficiente.

A inteligência artificial (IA) aplicada à infraestrutura de TI tem transformado o monitoramento e a manutenção de sistemas. Ferramentas baseadas em aprendizado de máquina (machine learning) são capazes de detectar padrões, prever falhas e realizar correções automáticas antes que ocorram interrupções. Esse conceito, conhecido como AIOps (Artificial Intelligence for IT Operations), representa uma tendência crescente para reduzir custos e aumentar a confiabilidade das operações (Silberschatz, Galvin & Gagne, 2018).

Já a tecnologia 5G está revolucionando as comunicações, oferecendo maior largura de banda, menor latência e maior capacidade de conexão simultânea. O 5G viabiliza novas aplicações de Internet das Coisas (IoT), cidades inteligentes e telemedicina, impulsionando a necessidade de infraestruturas robustas, seguras e escaláveis (Kurose & Ross, 2021). A combinação entre 5G, edge computing e IA estar redesenhando o cenário das redes corporativas e industriais, aproximando o processamento e o armazenamento dos usuários e dispositivos finais.

Essas tendências indicam uma transição para ambientes cada vez mais autônomos, descentralizados e inteligentes, exigindo profissionais de TI preparados para lidar com novas arquiteturas e desafios.

5. Ética e Sustentabilidade na TI

A ética e a sustentabilidade são temas cada vez mais relevantes na área de TI, especialmente diante do impacto ambiental e social das tecnologias. O crescimento acelerado dos data centers e o consumo de energia associado ao processamento e armazenamento de dados impõem desafios significativos à sustentabilidade.

De acordo com Comer (2018), a responsabilidade ambiental em TI envolve a adoção de práticas de Green IT (Tecnologia

da Informação Verde), que buscam reduzir o consumo energético, promover o descarte correto de equipamentos e utilizar fontes de energia renováveis. Além disso, estratégias como a virtualização, a consolidação de servidores e o uso eficiente da nuvem contribuem para diminuir a pegada de carbono da infraestrutura tecnológica.

No campo ético, os profissionais de TI têm o dever de garantir a privacidade, a segurança dos dados e o uso responsável da automação e da inteligência artificial. Questões como viés algorítmico, vigilância digital e exploração de dados exigem reflexão ética e regulamentação. Segundo Laudon e Laudon (2020), a ética na TI está relacionada à transparência, à equidade e à responsabilidade social no desenvolvimento e aplicação das tecnologias.

Assim, a combinação entre inovação tecnológica, ética e sustentabilidade é o caminho para uma infraestrutura de TI mais consciente, eficiente e alinhada aos princípios de responsabilidade corporativa e ambiental.

6. Considerações Finais

As boas práticas e tendências em infraestrutura de TI refletem a evolução constante do setor diante das demandas de eficiência, segurança e inovação. A padronização e a documentação garantem estabilidade e governança, enquanto a automação e a infraestrutura como código promovem agilidade e redução de falhas.

As novas tendências — edge computing, IA e 5G — estão transformando profundamente o modo como as redes e sistemas são concebidos, aproximando o processamento dos usuários e automatizando a gestão de recursos. Contudo, essas inovações devem ser acompanhadas de uma postura ética e sustentável, assegurando que o avanço tecnológico contribua para o bem-estar social e ambiental.

O futuro da infraestrutura de TI será marcado por ambientes inteligentes, dinâmicos e sustentáveis, onde a integração entre pessoas, processos e tecnologia será o diferencial competitivo das organizações.

Referências Bibliográficas

  • Comer, D. E. (2018). Internetworking with TCP/IP: Principles, Protocols, and Architecture (6ª ed.). Pearson.
  • Kurose, J. F., & Ross, K. W. (2021). Redes de Computadores e a Internet: Uma Abordagem Top-Down (7ª ed.). Pearson.
  • Laudon, K. C., & Laudon, J. P. (2020). Sistemas de Informação Gerenciais (15ª ed.). Pearson.
  • Silberschatz, A., Galvin, P. B., & Gagne, G. (2018). Fundamentos de Sistemas Operacionais (9ª ed.). LTC.
  • Stallings, W. (2017). Data and Computer Communications (10ª ed.). Pearson.
  • Stair, R., &
  • Reynolds, G. (2018). Princípios de Sistemas de Informação (13ª ed.). Cengage Learning.
  • Tanenbaum, A. S., & Wetherall, D. (2011). Redes de Computadores (5ª ed.). Pearson.
Voltar