Cunha, PedroBorges, Bernardo Velasquez2025-11-202025-11-202025http://hdl.handle.net/10284/14757Projeto de Graduação apresentado à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Licenciado em Criminologia.Este trabalho tem como objetivo principal analisar a eficácia das ferramentas de cibersegurança baseadas em inteligência artificial (IA) na proteção de sistemas operativos contra ciberataques cada vez mais sofisticados. Inicialmente, o estudo define e contextualiza o conceito de cibercrime, entendido como qualquer atividade ilícita realizada por meio de sistemas informáticos ou redes digitais. Exemplos comuns de cibercrime incluem ataques de phishing, ransomware, fraudes financeiras e invasões de sistemas, muitos dos quais têm vindo a evoluir com o uso crescente da IA, tanto por parte dos atacantes quanto dos defensores. A investigação aborda ainda o conceito de inteligência artificial, explicando as suas principais técnicas, como machine learning e deep learning, que têm revolucionado a deteção e resposta a ameaças digitais. O estudo destaca exemplos de ataques que utilizam IA, tais como a criação de deepfakes para engenharia social, malware adaptativo que modifica o seu comportamento para evitar a deteção e ataques automatizados que exploram vulnerabilidades em tempo real. Para avaliar a eficácia das ferramentas de cibersegurança com IA, o trabalho propõe uma metodologia mista que envolve testes controlados em sistemas operativos variados (Windows, Linux, macOS), com a colaboração de white hat hackers que simulam ataques reais e sofisticados. As ferramentas analisadas incluem soluções comercialmente relevantes como FortiEDR, CrowdStrike, SentinelOne e Microsoft Defender for Endpoint. A recolha de dados integra questionários e entrevistas com profissionais da área, garantindo anonimato e confidencialidade por meio de termos de consentimento informados. Este método permite uma avaliação quantitativa e qualitativa da capacidade destas ferramentas em identificar, bloquear e mitigar ataques, bem como na gestão de falsos positivos e negativos. Os resultados esperados visam identificar os pontos fortes e limitações das tecnologias atuais, contribuindo para a formulação de melhores práticas e recomendações para a aplicação ética e eficaz da IA em cibersegurança. O estudo reconhece desafios inerentes, como a diversidade dos ambientes testados e a complexidade crescente dos ataques, que podem afetar a performance das soluções avaliadas.This work aims to analyze the effectiveness of cybersecurity tools based on artificial intelligence (AI) in protecting operating systems against increasingly sophisticated cyberattacks. Initially, the study defines and contextualizes the concept of cybercrime, understood as any illicit activity carried out through computer systems or digital networks. Common examples of cybercrime include phishing attacks, ransomware, financial fraud, and system intrusions, many of which have evolved with the growing use of AI, both by attackers and defenders. The research also addresses the concept of artificial intelligence, explaining its main techniques, such as machine learning and deep learning, which have revolutionized threat detection and response. The study highlights examples of AI-driven attacks, such as the creation of deepfakes for social engineering, adaptive malware that changes its behavior to avoid detection, and automated attacks that exploit vulnerabilities in real time. To evaluate the effectiveness of AI-based cybersecurity tools, the work proposes an experimental methodology involving controlled tests on various operating systems (Windows, Linux, macOS), in collaboration with white hat hackers who simulate real and sophisticated attacks. The tools analyzed include commercially relevant solutions such as FortiEDR, CrowdStrike, SentinelOne, and Microsoft Defender for Endpoint. Data collection includes questionnaires and interviews with professionals in the field, ensuring anonymity and confidentiality through informed consent agreements. This method allows for both quantitative and qualitative evaluation of these tools' ability to detect, block, and mitigate attacks, as well as manage false positives and negatives. The expected results aim to identify the strengths and limitations of current technologies, contributing to the development of best practices and recommendations for the ethical and effective application of AI in cybersecurity. The study acknowledges inherent challenges, such as the diversity of the tested environments and the increasing complexity of attacks, which may affect the performance of the evaluated solutions.porCibercrimeInteligência ArtificialCibersegurançaFerramentas de proteção com IAAvaliação de sistemas de segurançaCybercrimeArtificial IntelligenceCybersecurityAI-powered protection toolsSecurity systems assessmentCibercrime e IA: desafios legais e resposta institucional do séc. XXICybercrime and AI: legal challenges and institutional response in the 21st centurybachelor thesis