Paraules clau: xarxes neuronals gràfics, explicabilitat, aprenentatge automàtic graph neural networks, explainability, machine learning
Títol en diferents idiomes: Millora de l'estabilitat de GNNExplainer en grans conjunts de dades de xarxes de citacions Improving stability of GNNExplainer inlarge citation network datasets
Àrees temàtiques: Enginyeria informàtica Industrial Engineering Ingeniería informática
Confidencialitat: No
Curs acadèmic: 2020-2021
Estudiant: Cabezas Rodriguez, José Joaquin
Aprenentatge Servei: NO
Departament: Enginyeria Informàtica i Matemàtiques
Drets d'accés: info:eu-repo/semantics/openAccess
Data de la defensa del treball: 2021-02-08
Director del projecte: Duch Gavaldà, Jordi
Resum: Les xarxes neuronals de gràfics (GNN) són un marc d'aprenentatge automàtic que apropa les xarxes neuronals gràfics i dades relacionals. És d'especial rellevància per a àrees com l'anàlisi de xarxes socials, biològica ciències, química, sistemes de transport intel·ligents i molts altres, on es poden considerar les dades una xarxa. Explicar per què una GNN va prendre una decisió és un repte, a causa de la naturalesa de caixa negra xarxes neuronals, però és crucial a l'hora d'aplicar-ho als processos de presa de decisions que afecten la vida de molts. En aquest treball repassem l'estat actual de l'art i analitzem els més coneguts mètode per explicar les GNN, GNNExplainer. Trobem que la seva aplicació a les cites acadèmiques els conjunts de dades presenten problemes a causa de la variabilitat de les explicacions i proposem una modificació per millorant l'estabilitat dels resultats i la interpretabilitat de l'explicació gràfica. En particular, nosaltres proposar l'ús d'un coeficient ajustat calculat prèviament per a cada explicació en lloc d'a paràmetre fix. Trobem que la nostra proposta millora l'estabilitat en més d'un 10 \% en els experiments utilitzant xarxes convolucionals de gràfics (GCN) i xarxes d'atenció gràfica (GAT) amb dos conjunts de dades de xarxes de citacions (Cora i Pubmed). Graph Neural Networks (GNNs) is a Machine Learning framework that brings neural networks to graph and relational data. It is of special relevance for areas like social network analysis, biological sciences, chemistry, smart transportation systems and many others, where data can be thought of as a network. Explaining why a GNN made a decision is a challenge, due to the black-box nature of neural networks, but it is crucial when applying it to decision-making processes that affects the life of many. In this work we review the current state of the art and analyze the most well-known method for explaining GNNs, GNNExplainer. We find that its application to academic citations datasets present issues due to the variability of the explanations and we propose a modification for improving stability of the results and interpretability of the graphical explanation. In particular, we propose the use of an adjusted coefficient computed beforehand for every explanation instead of a fixed parameter. We find that our proposal improves the stability by more than 10 \% in experiments using Graph Convolutional Networks (GCN) and Graph Attention Networks (GAT) with two citation networks datasets (Cora and Pubmed).
Matèria: Aprenentatge automàtic
Entitat: Universitat Rovira i Virgili (URV)
Idioma: en
Ensenyament(s): Enginyeria de la Seguretat Informàtica i Intel·ligència Artificial
Títol en la llengua original: Improving stability of GNNExplainer inlarge citation network datasets
Data d'alta al repositori: 2023-07-011