Keywords: Federated Learning, Label Flipping, Machine Learning Federated Learning, Label Flipping, Machine Learning Federated Learning, Label Flipping, Machine Learning
Title in different languages: Aprofitant les distàncies inter i intra classe per als atacs d'enverinament. Aprovechando las distancias inter e intraclase para ataques de envenenamiento.
Subject areas: Enginyeria informàtica Computer engineering Ingeniería informática
Confidenciality: No
Academic year: 2022-2023
Student: Bel Ribes, Eduard Josep
APS: No
Department: Enginyeria Informàtica i Matemàtiques
Access Rights: info:eu-repo/semantics/openAccess
Work's public defense date: 2023-09-15
Project director: Blanco Justicia, Alberto
Abstract: En el món interconnectat en què vivim, la intel·ligència artificial (IA) i l'aprenentatge automàtic (ML) han revolucionat les nostres interaccions amb la tecnologia. Entre els paradigmes emergents, l'aprenentatge federat (FL) és un nou enfocament per entrenar models de ML d'una manera descentralitzada. FL permet que els models ML obtinguin respostes de les dades dels usuaris sense comprometre la seva privadesa, cosa que fa que sigui essencial per a aplicacions com ara teclats de text predictiu, sistemes de reconeixement de veu i fins i tot models de diagnòstic de malalties. Tanmateix, la descentralització intrínseca de FL també l'exposa a vulnerabilitats de seguretat. Aquesta investigació està motivada per la necessitat d'entendre i abordar aquestes vulnerabilitats, ja que FL s'integra cada cop més en aplicacions del món real, inclosos sistemes crítics com els vehicles de conducció autònoma. L'objectiu principal d'aquest estudi és investigar les vulnerabilitats a què s'enfronten els sistemes FL i identificar estratègies per mitigar eficaçment possibles atacs. Concretament, explorem la viabilitat de les tècniques intel·ligents de canvi d'etiquetes en comparació amb els mètodes de força bruta quan s'ataquen sistemes FL. El nostre objectiu és determinar si una selecció estratègica de mostres per al canvi d'etiquetes pot produir atacs més reeixits que el canvi d'etiquetes indiscriminat. En aquesta tesi, hem realitzat experiments sobre atacs de volteig d'etiquetes i podem treure dues conclusions clau. En primer lloc, vam trobar que l'eficàcia dels atacs de volteig d'etiquetes augmenta a mesura que augmenta el nombre de mostres amb etiquetes girades, especialment en escenaris amb nombrosos atacants i defenses febles. En segon lloc, els nostres atacs més sigils proposats presenten una major resistència als mecanismes de defensa en comparació amb l'atac estàndard. In the interconnected world we live in, Artificial Intelligence (AI) and Machine Learning (ML) have revolutionised our interactions with technology. Among emerging paradigms, Federated Learning (FL) is a new approach to train ML models in a decentralised way. FL allows ML models to obtain responses from users' data without compromising their privacy, making it essential for applications such as predictive text keyboards, speech recognition systems, and even disease diagnostic models. However, the intrinsic decentralisation of FL also exposes it to security vulnerabilities. This research is motivated by the need to understand and address these vulnerabilities as FL is increasingly integrated into real-world applications, including critical systems such as autonomous driving vehicles. The main objective of this study is to investigate the vulnerabilities faced by FL systems and identify strategies to effectively mitigate possible attacks. Specifically, we explore the feasibility of intelligent label-flipping techniques compared to brute force methods when attacking FL systems. Our goal is to determine whether a strategic selection of samples for label-flipping can produce more successful attacks than indiscriminate label-flipping. In this thesis, we have conducted experiments on label-flipping attacks and can draw two key conclusions. First, we found that the effectiveness of label-flipping attacks increases as the number of samples with flipped labels rises, particularly in scenarios with numerous attackers and weak defences. Second, our proposed stealthier attacks exhibit greater resilience against defence mechanisms compared to the standard attack.
Subject: Enginyeria informàtica
Entity: Universitat Rovira i Virgili (URV)
Language: en
Education area(s): Enginyeria de la Seguretat Informàtica i Intel·ligència Artificial
Title in original language: Leveraging inter- and intra-class distances for poisoning attacks
Creation date in repository: 2024-04-09