Contrôle d`accès des utilisateurs aux réseaux sociaux
Transcription
Contrôle d`accès des utilisateurs aux réseaux sociaux
République algérienne démocratique et populaire Ministère de l’enseignement supérieur et de la recherche scientifique Université des sciences et de la technologie d’Oran Mohamed Boudiaf USTOMB Faculté des sciences Département d’informatique Spécialité : Informatique Option : Ingénierie des logiciels et des réseaux Mémoire présenté par Mme KINANE DAOUADJI Amina Pour l’obtention du diplôme de Magistère Thème : Contrôle d’accès des utilisateurs aux réseaux sociaux Soutenu publiquement le 05 /01 / 2012 Devant le jury : Mme MEKKI. Rachida MC A-USTO Présidente Mme BENDELLA. Fatima MC A-USTO Rapporteur Mme SELKA. Sadika MC B-USTO Co-rapporteur M BELKADI. Khaled MC A-USTO Examinateur M RAHAL. Sidi Ahmed Hebri MC A-USTO Examinateur 2010 - 2011 Remerciements C'est grâce à dieu qui m’a donnée le courage et la patience pour accomplir ce modeste travail. Je tien à remercier très sincèrement mon professeur le docteur MEKKI. R de m’avoir donné de son temps précieux pour présider le jury. Je remercie infiniment mon professeur et chargé d’option ILR le docteur BENDELLA. F, qui m’a encadré dans mon projet de fin d’étude, je la remercie aussi d’avoir accepté d’être parmi le jury de ce travail et pour ses conseils, son soutient et pour tous ce qu’elle m’a appris durant mon cycle d’études et jusqu'à ce jour. Je tien à remercier tout particulièrement et à témoigner toute ma reconnaissance à mon professeur et mon encadreur le docteur SELKA. S pour le thème qu’elle m’a proposé, ses conseils et sa compréhension. Je la remercie encor d’avoir dirigé et d’avoir suivit mon travail dès la proposition du thème jusqu'à l’acceptation de mes travaux scientifiques. Je remercie aussi mon professeur le docteur BELKADI. K pour tout ce qu’il m’a appris durant mon cycle d’ingénieur, et aussi dans m’a 1ere année de magistère, je le remercie encor d’avoir accepté d’être parmi le jury et d’examiner mon travail. Je remercie également le docteur RAHAL. S pour sa générosité et pour le temps qu’il à consacré à ma présentation. Merci à toute ma famille et à toutes mes amies. Enfin je remercie toute personne qui ma aider de prés ou de loin dans ce travail. Résumé L’objectif de notre travail est de classifier les utilisateurs des sites des réseaux sociaux en classes, selon des critères de confiance choisis. Ces critères de confiance proposés sont extraits du comportement de l’utilisateur dans le réseau. La classification est réalisée en utilisant un réseau immunitaire artificiel non supervisé (AIN). Cette méthode est destinée à l’utilisateur et à l’administrateur du réseau social pour qu’ils puissent s’avoir la nature (confiant ou menace) des utilisateurs inscrits dans le site social. Mots clés : Réseau social, contrôle d’accès, classification, les réseaux immunitaires artificiels (AIN). Abstract The objective of our method is to classify the users of the social networks sites in classes, according to criteria's confidences. The criteria of confidence we thought of extracting them from the behavior of the user in the network. The classification is performed by using an unsupervised artificial immune network (AIN). This method is intended to the administrator and the user of the social networks, so they can have the nature (entrusting or threatens) of the social network site users. Key words: Social network, access control, classification, artificial immune networks (AIN). Table des matières Introduction générale ……………………………………………………………….. 2 Chapitre I Réseaux Sociaux (SRS) I.1 Introduction…………………………………………………………………………….. 5 I.2 Définitions……………………………………………………………………………… 5 I.3 Les différentes typologies des réseaux sociaux en ligne ………………………………. 6 I.4 Les caractéristiques des réseaux sociaux……………………………………………….. 7 I.4.1 Les réseaux sociaux électroniques…………………................................................. 8 I.4.1.1 Myspace………………………………………………………………………. 8 I.4.1.2 Yoolink ………………………………………………………………………. 8 I.4.1.3 Twitter ……………………………………………………………………….... 8 I.4.1.3.1La sécurité sur Twitter …………………………………………………….. 9 I.4.1.4 Facebook …………………………………………………………………….... 9 I.4.1.4.1 La sécurité sur Facebook…………………………………………………... 9 I.5 Les menaces sur les réseaux sociaux …………………………………………………... 10 I.5.1 Les vers……………………………………………………………………………... 10 I.5.2 Les Spams …….……………………………………………………………………. 10 I.5.3 Cheval de Troie …………………………………………………………………….. 10 I.5.4 Fuite de données …………………………………………………………………… 11 I.5.5 Les liens raccourcis ……...……………………………………………………….... 11 I.5.6 Attaques de type Cross-Site Request Forgery…………………………………….... 11 I.5.7 Usurpation d'identité ………………………………………………………………. 11 I.6 Les méthodes proposées pour la sécurité des RS………………………………………. 12 I.6.1 Renforcement d’un contrôle d’accès dans un réseau social………………………… 12 I.6.1.1 Le modèle proposé ……………………………………………………………... 12 I.6.1.1.1 La classe des connexions …………………………………………………... 12 I.6.1.1.2 La classe des contenus …………………………………………………….. 12 I.6.1.2 Le contrôle d’accès …………………………………………………………….. 13 I.6.1.3 Avantage et inconvénient……………………………………………………….. 14 I.6.2 Contrôle d'accès dans le Web 2.0…………………………………………………..... 14 I.6.2.1 Avantages et inconvénients……………………………………………………… I.6.3 Gestion de la protection collective dans les réseaux sociaux……………………… 15 15 I.6.3.1 Politique de confidentialité dans le SRS…………………………………………. 16 I.6.3.2 La copropriété des donnés dans le SRS………………………………………….. 16 I.6.3.3 la collaboration des exigences de partage………………………………………... 17 I.6.3.3.1 L'intégrité du contenu…………………………………………………………. 18 I.6.3.3.2 Semi-automatique……………………………………………………………... 18 I.6.3.3.3 Adaptive………………………………………………………………………. 18 I.6.3.3.4 Groupe de correspondance……………………………………………………. 18 I.6.3.4 Avantages et inconvénients…………………………………………………….. 18 I.6.4 Contrôle d'accès en utilisant une collaboration dans les réseaux sociaux……………. 18 I.6.4.1Le protocole de contrôle d’accès………………………………………………….. 20 I.6.4.1.1 Définition 1…………………………………………………………………... 20 I.6.4.1.2 Définition 2………………………………………………………………….. 20 I.6.4.3Avantages et inconvénients……………………………………………………. 21 I.7 La sécurité des réseaux sociaux………………………………………………………… 21 I.8 Conclusion……………………………………………………………………………… 21 Bibliographie……………………………………………………………………………….. 22 Chapitre II Le système immunitaire II.1 Introduction……………………………………………………………………………. 25 II.2 Le système immunitaire naturel ……………………………………………………...... 25 II.2.1 Définitions…………………………………………………………………………. 25 II.2.2 Architecture d’un système immunitaire naturel……………………………………. 26 II.2.2.1 Le système immunitaire inné ………………………………………………….. 26 II.2.2.1.1 La peau……………………………………………………………………. 27 II.2.2.1.2 Les muqueuses (poumons - tubes digestif - intestin)……………………… 27 II.2.2.1.3 Les phagocytes ……………………………………………………………. 27 II.2.2.1.4 Les monocytes…………………………………………………………….. 27 II.2.2.1.5 Les macrophages…………………………………………………………... 27 II.2.2.2 Le système immunitaire adaptatif……………………………………………… 28 II.2.2.2.1 Lymphocytes……………………………………………………………….. 28 II.2.2.2.1.1 les cellules T………………………………………………………….... 28 II.2.2.2.1.2 les cellules B………………………………………………………....... 29 II.2.2.3 Antigènes………………………………………………………………………. 30 II.2.2.4 Comment le système immunitaire assure t-il la protection du corps humain ?... 30 II.2.2.5 Le principe de la sélection clonal………………………………………………. 32 II.2.2.6 La distinction entre le soi et le non soi……………………………………….... 34 II.2.2.7 Apprentissage………………………………………………………………….. 34 II.2.2.8 Sélection positive………………………………………………………………. 34 II.2.2.9 La sélection négative…………………………………………………………… 35 II.2.2.10 Les réseaux immunitaires…………………………………………………….. 35 II.2.2.11 Les caractéristiques du système immunitaire………………………………… 37 II.2.3 Le système immunitaire est-il ″cognitif ″ ?............................................................... 38 II.3 Le système immunitaire artificiel……………………………………………………… 39 II.3.1 Définition ………………………………………………………………………….. 39 II.3.2 Le processus de conception d’un AIS……………………………………………… 39 II.3.3 La représentation d’un AIS………………………………………………………… 41 II.3.3.1 Le modèle Shape-Space………………………………………………………... 41 II.3.3.2 Les concepts de base du modèle……………………………………………….. 42 II.3.3.3 Les mesure d’affinités…………………………………………………………. 42 II.3.4 Les algorithmes du système immunitaire artificiel………………………………… 43 II.3.4.1 L’algorithme de la sélection positive………………………………………….. 43 II.3.4.2 L’algorithme de la sélection négative…………………………………………. 44 II.3.4.2.1 Le principe de la sélection négative artificiel…………………………….. 45 II.3.4.2.2 Domaines d’utilisation de la sélection négative…………………………… 46 II.3.4.3 La sélection clonale…………………………………………………………….. 46 II.3.4.3.1 L’algorithme de la sélection clonale………………………………………. 46 II.3.4.3.2 Domaines d’utilisation de la sélection clonale…………………………….. 49 II.3.4.4 La théorie du danger………………………………………………………....... 49 II.3.4.5 Réseaux immunitaires artificiels………………………………………………. 50 II.3.4.5 .1 Algorithme des réseaux immunitaires artificiels non supervisé…………. 52 II.3.5 Conclusion…………………………………………………………………………. 54 Bibliographie……………………………………………………………………………….. 55 Chapitre III Solution proposée III Introduction……………………………………………………………………………... 59 III.1 Idée générale…………………………………………………………………………... 59 III.2 Classification des utilisateurs dans le réseau………………………………………….. 59 III.2.1 Les critères proposés……………………………………………………………. 60 a) Les critères extraits au moment de la création du compte………………………… 60 b) Les critères extraits après la création du compte…………………………………. 60 b.1) L’activité……………………………………………………………………… 60 b.2) La réputation…………………………………………………………………. 60 b.3) Le partage de documents…………………………………………………….. 60 b.4) Le nombre d’invitation acceptées……………………………………………. 61 III.2.2 La représentation des critères…………………………………………………… 61 III.2.2.1 Illustration des différents critères ………………………………………… 61 III.2.2.2 Comment attribuer la valeur binaire à chaque critère ?................................. 63 III.2.2.3 Comment calculer le pourcentage ¨%¨ ?....................................................... 63 a) Le critère Réputation………………………………………………………… 63 b) Le critère Nombre d’invitation……………………………………………… 63 c) Le critère Activité…………………………………………………………..... 64 III.3 l’architecture de notre système………………………………………………………. 65 III.4 Algorithme du Réseau immunitaire artificiel non supervisé…………………………. 66 III.5 Implémentation……………………………………………………………………….. 67 III.5.1 Traitement des données………………………………………………………….. 68 III.5.2 La représentation des résultats…………………………………………………… 70 III.5.3 Test………………………………………………………………………………. 71 III.5.4 Les résultats du test………………………………………………………………. 71 II.6 Points complémentaire …………………………………….......................................... 72 III.7 Conclusion…………………………………………………………………………….. 73 Travaux scientifiques …………………………………………………………………......... 74 Conclusion générale et perspective ……………………………………………….. 76 Liste des figures Figure I.1 : Graphe non orienté représente les relations sociométriques entre les internautes... 6 Figure I.2 : L'approche proposée avec un exemple de contrôle d'accès………………………. 13 Figure I.3 : Une partie d'un web site social network (WBSN)………………………………… 19 Figure II.1 : Hiérarchie des cellules immunitaires…………………………………………….. 26 Figure II.2 : Cellule T d’aide………………………………………………………………….. 29 Figure II.3 : Cellule T cytotoxiques…………………………………………………………… 29 Figure II.4: Cellule B…………………………………………………………………………. 29 Figure II.5: Structure d’un anticorps………………………………………………………….. 30 Figure II.6 : Reconnaissance de la cellule T de la combinaison de peptide / MHC………….. 31 Figure II.7 : Reconnaissance de la cellule B l’antigène protéique ou non protéique…………. 31 Figure II.8 : Le processus de base de défense immunitaire…………………………………… 32 Figure II.9 : Le principe de la sélection clonale………………………………………………. 33 Figure II.10: Activation/suppression d’un anticorps………………………………………….. 36 Figure II.11 : Principes des réseaux immunitaires…………………………………………….. 37 Figure II.12 : La structure de conception d’un AIS…………………………………………… 40 Figure II.13 : La représentation du modèle Shape-Space…………………………………….. 41 Figure II.14 : La distance Euclidienne ……………………………………………………….. 43 Figure II.15 : La distance de Manhattan ……………………………………………………... 43 Figure II.16 : La distance de Hamming………………………………………………………. 43 Figure II.17 : L’algorithme de la sélection positive…………………………………………… 44 Figure II.18 : La structure générale de l’algorithme de la sélection négative…………………. 45 Figure II.19 : La structure générale de l’algorithme de la sélection négative suite…………… 46 Figure II.20 : Initialisation de la population d’anticorps (cellules B)…………………………. 47 Figure II.21 : Cellules B activées……………………………………………………………… 47 Figure II.22 : Maturation des cellules B………………………………………………………. 48 Figure II.23 : Nouvelle population d’anticorps……………………………………………….. 48 Figure II.24 : Diversification de la population d’anticorps……………………………….…… 48 Figure II.25 : Principe de la théorie du danger………………………………………………… 50 Figure II.26 : Exemple de groupements de données………………………………………….. 51 Figure II.27 : Réseau immunitaire généré par aiNet…………………………………………... 51 Figure III.1 Les critères illustrés sur l’interface du réseau social Facebook (1)………………. 61 Figure III.1 Les critères illustrés sur l’interface du réseau social Facebook (2)………………. 62 Figure III.1 Architecture du système proposé………………………………………………… 66 Liste des tableaux Tableau III.1 : Les valeurs des critères proposés………………………………………………. 62 Tableau III.2 : Échantillon de la BDD………………………………………………………… 68 Tableau III.3 : Représentation des différents ARB générés …………………………………... 69 Tableau III.4 : Les valeurs choisis pour le traitement…………………………………………. 70 Tableau III.5 : Représentation des différents utilisateurs reconnus, avec leurs types de classes …………………………………………………………………………………………. 70 Tableau III.6 : Représentation d’un nouveau groupe d’utilisateur…………………………..... 71 Tableau III.7 : La représentation des résultats obtenue……………………………………….. 71 Introduction générale Introduction générale La société est un ensemble de citoyens qui doivent communiquer, partager des idées ou demander des informations les uns des autres. La communication commence par la langue, la capacité distinctive qui a rendu possible l'évolution de la société humaine. Bien avant l’apparition des technologies informatiques, la communication entre individus se faisait par déplacement, avec le temps la communication est devenue de plus en plus facile à l’aide du développement informatique et l’apparition des réseaux. Au début des années quatre-vingtdix, un Anglais, Tim Bernes-Lee a inventé ce qui a été appelé le web. Cette réalisation a poussé les chercheurs après des années à pondéré pour faire le 1er pas vers l’apparition des réseaux sociaux ou ce qu’on peut appeler le web 2.0. Le Web 2.0 est une nouvelle version de l’internet, il s’agit du même phénomène, mais avec de multiples dimensions. Il est caractérisé par une dimension technique, aussi il se base sur des pratiques éditoriales, et encore sur une dimension sociologique. Donc d’un côté, il est vu comme un basculement des techniques vers des services, et d’un autre côté, il représente un nouveau réseau d’interaction sociale (les réseaux sociaux). Les réseaux sociaux permettent aux utilisateurs de propager leurs profiles, leurs idées et autres informations rapidement et partout à travers le monde. En 1967, le sociologue américain Stanley Milgram décrivait le «small world phenomenon»,avec le principe des six degrés de séparation, en montrant qu'il existait en moyenne six intermédiaires entre deux personnes prises au hasard sur la planète Terre. Inspirés par cette intuition, les «réseaux sociaux» ont fait leur apparition en mars 2003 sur internet avec le lancement du site Friendster, puis, quelques mois plus tard, MySpace aux Etats-Unis, etc…, Le phénomène a explosé à travers le monde. Le problème majeur des réseaux sociaux est la sécurité. Notre travail consiste à contrôler l’accès des utilisateurs aux réseaux sociaux, par la classification des utilisateurs du réseau social, en deux classes, une classe pour des utilisateurs de confiance, et une autre classe pour les utilisateurs qui constituent une menace, en se basant sur des critères de confiance choisis. Cette classification est réalisée en utilisant un système immunitaire artificiel (AIS). Un système immunitaire artificiel (AIS), est une catégorie d'algorithme inspirée par les principes et le fonctionnement du système immunitaire naturel (NIS), dans ce mémoire nous allons le présenter comme un outil d’apprentissage utilisé, pour réaliser la classification des différents utilisateurs du site social. Notre méthode est destinée à l’utilisateur du site du réseau social pour garantir une sécurité locale, et aussi à l’administrateur du réseau social, pour une sécurité globale. Chapitre Ι Les Réseaux Sociaux Chapitre I Les réseaux sociaux I.1 Introduction Depuis leur apparition, les sites des réseaux sociaux (SRS), tels que « MySpace, twitter, Bebo et Facebook », ont attiré des millions d'utilisateurs, de nombreuses personnes ont intégré ces sites dans leurs pratiques quotidiennes. Chaque réseau social a sa propre technique mais ils se basent tous sur deux points principaux : Les amis de mes amis sont mes amis. Les personnes qui partagent les mêmes centres d’intérêts que moi sont mes amis. Ces réseaux sociaux permettent aux utilisateurs de créer des profils, pour partager leurs données et leurs loisirs afin de retrouver d’anciens amis ou créer de nouvelles connaissances avec d'autres utilisateurs du site. Ce phénomène a explosé à travers le monde en créant un réel problème de sécurité. Dans ce chapitre nous allons essayer de présenter les différents types des réseaux sociaux, les menaces et les méthodes proposées pour résoudre ce problème. I.2 Définitions Selon Tichy un réseau social décrit une société comme un système de participants – individus, groupe, organisations- reliés par une variété de relations. Chaque paire de participant n’est pas jointe forcément et certaines sont jointes par plusieurs relations [Tichy, 1981]. Selon Giles Hogben et ENISA « Un réseau social consiste en un ensemble fini d'acteurs et les relations définies entre eux. Un acteur peut être une seule personne, ou un groupe de personnes. Les acteurs dans un réseau social sont liés par des relations. Le type et le niveau de confiance de ces relations peut varier dépendemment des acteurs impliqués. Les amis, la famille, ou encore les collègues sont autant d'exemples de types de relations » [Giles Hogben & ENISA, 2007]. Selon Dajana Kapusova Leconte « Un réseau social est une structure formée par des relations entre des personnes. Cette structure sociale est composée de nœuds, généralement représentés par des individus ou des organisations. Les nœuds sont reliés entre eux par diverses connaissances sociales qui peuvent aller d'une connaissance simple jusqu'à un lien familial très fort (figure I.1). [ Dajana Kapusova Leconte, 2008]. 5|Page La figure I.1 illustre la représentation d’un réseau social : Ami Ami Famille Collègue Figure I.1 : Graphe non orienté représente les relations sociométriques entre les internautes. I.3 Les différentes typologies des réseaux sociaux en ligne Les réseaux sociaux en ligne peuvent être classés selon différentes typologies [Philippe Torloting, 2006]: Les réseaux plate-forme de partage Les plates-formes permettent de diffuser du contenu, souvent multimédia (vidéo et son), aux internautes. La mise en ligne et le partage de vidéos par exemple deviennent plus faciles car accessibles par tous les internautes de la communauté. Exemples : YouTube, Dailymotion… Les réseaux personnels et généralistes Souvent orientés autour d’un centre d’intérêt (musique, lecture…), le but de ce type de réseaux n’est autre que de faire partager ses passions au reste de la communauté. Les mises en relation directes sont rares sur ce type de réseaux. Exemples de réseau généraliste MySpace, et Friendster , et réseau personnel Skyblog, … 6|Page Les réseaux thématiques Ils fonctionnent souvent sur le même principe que les réseaux généralistes mais sont orientés autour d’une thématique : les voitures, la musique, la cuisine… Exemples :Boompa, EsCom… Les réseaux professionnels Les réseaux professionnels sont les réseaux les plus aboutis dans le sens réel du terme. Ils offrent la possibilité de mise en relation ainsi que le partage d’informations (coordonnées, informations sur les entreprises…) Exemples : 6nergies, Viaduc, LinkedIn, OpenBC… I.4 Les caractéristiques des réseaux sociaux Le réseau social est avant tout un lieu d'interaction, qui permet le passage de la connaissance et de l’information entre les individus. Les points suivants représentent certaines caractéristiques qui peuvent être partagés entre les différents types des réseaux sociaux : La première caractéristique du réseau social : est de regrouper des personnes qui partagent toutes sortes de centres d’intérêts. La deuxième caractéristique : certain réseaux sociaux fonctionnent de la même manière : • Chaque personne doit créer son propre profil par une inscription en ligne sur le site. Ce profil lui servira de clé d’entrée au site et lui permettra d’être identifié par tous les autres membres qui sont inscrits dans le même site. • Chaque membre peut par la suite soit intégrer un groupe existant, soit créer sa propre communauté avec qui il partagera les centres d’intérêts et les motivations liées au site, à travers un système d’invitations et de recherches. • plusieurs applications sont par la suite proposées aux utilisateurs par le site pour les inciter à être actifs. La troisième caractéristique des réseaux sociaux : est la suppression des barrières de communication, le réseau social permet de joindre un nombre considérable de personnes qui se trouvent dans le monde entier. Dont le but est de renouer des liens avec des personnes que l’on a perdues de vue et d’établir de nouvelles relations, ni l’âge, ni la région, ni le niveau social, ne posent problème. 7|Page Ils se caractérisent aussi par : Un système de qualification des contacts par degré de séparation. Un moteur de recherche. Un système de contrôle des données. Une reconnaissance automatique des personnes appartenant à son réseau et déjà inscrites sur le site. I.4.1 Les réseaux sociaux électroniques I.4.1.1 Myspace « Myspace » est un réseau social, accessible à tous ; C'est un site dont la cible principale est les adolescents et les jeunes adultes. Il suffit de s'y connecter pour se faire des "amis", selon ses affinités musicales, sportives, cinématographiques ou autres. Mais c'est aussi un puissant outil de marketing, à la fois direct et individualisé. Créé en 2003, actif depuis janvier 2004 aux Etats-Unis, il s'est élargi à la Grande-Bretagne en 2005 puis à la France, à l'Allemagne et au Japon. I.4.1.2 Yoolink L’idée du réseau social Yoolink est de découvrir et de partager des documents de toutes sortes trouvés sur internet avec des personnes qu’on connaît, mais aussi avec d’autres, inconnues, qui semblent intéressantes. Pour avoir accès simplement aux sites web, aux articles et vidéos qu’un utilisateur enregistre publiquement on devient « fan » de lui, C’est une relation asymétrique. Si à son tour l’utilisateur devient fan de nous alors nous devenons des amis. I.4.1.3 Twitter « Twitter » est un service de "microblogging" qui sert à suivre ce que font ou disent les autres membres au travers de très courts messages (max 141 caractères). L'idée du service est de publier très fréquemment (plusieurs fois par jour) des informations. Où on est anonyme et On se relie aux autres en étant « à l’écoute » ou « écouté », la relation est asymétrique. 8|Page I.4.1.3.1 La sécurité sur Twitter Le réseau social Twitter a augmenté sa sécurité grâce au protocole HTTPS (Hypertext Transfer Protocol Secure). Les usagers de Twitter peuvent se connecter au réseau en utilisant en tout temps une connexion sécurisée à l'aide du protocole HTTPS, ce protocole permet de créer un canal de transmission sécurisé pour une connexion internet en vérifiant notamment la légitimité d'un site internet et s'il a été approuvé par des autorités reconnues. I.4.1.4 Facebook « Facebook » est un site de communauté où il est possible de faire de multiples rencontres, de retrouver des amis d'enfance ou bien de nouveaux amis. De nombreuses informations y circulent, ce qui demande une véritable sécurité sur le site de facebook(utilisateurs et leurs données). Il s’agit donc de retrouver des personnes réelles, l’identité des membres est public. La relation est toujours symétrique. Pour permettre de discuter avec des gens qu’on ne connaît pas. La particularité de Facebook : on peut choisir d'installer des programmes complémentaires et on les partage avec nos «amis». On trouve des programmes en tous genres : partage de vidéo, conseils, quiz, jeux, agendas, murs, forums. I.4.1.4.1 La sécurité sur Facebook Les points essentielle qu’on doit prendre en considération lors de l’utilisation de Facebook est l’utilisation de mots de passe trop simples, la publication de dates de naissance complètes, le fait de ne pas prêter attention aux réglages de confidentialité, etc. Avec Facebook en particulier, les réglages de confidentialité sont généralement obscurs et peu compréhensibles, du coup, ils sont souvent négligés par la majorité des utilisateurs. Du coté de Facebook, la sécurité appliquée pour garantir la confidentialité des données est : le contenu du profil qui peut être vu par tous, et quels sont ceux dont la consultation doit être réservée au réseau de contacts. Par défaut, elle propose que le nom de l’utilisateur et la photo du profil soient lisibles, de façon à aider les internautes à localiser des personnes qu'ils connaissent. Les réglages peuvent ensuite être affinés pour tous les éléments du profil via la 9|Page page « Confidentialité » pour que, par exemple, photos ou publications ne puissent être vus que par un groupe de contacts donné (amis ou amis de mes amis…). La sécurité en utilisant le protocole HTTPS est offerte à tous les membres de Facebook depuis janvier 2011. I.5 Les menaces sur les réseaux sociaux On remarque aujourd’hui l’apparition d’un phénomène explosif incontrôlable des réseaux sociaux, cette explosion provoque de grandes menaces. Voici quelques menaces auxquelles il faut penser lors de l’utilisation de ce type de réseau: I.5.1 Les Vers: Le ver est un programme qui peut s'auto-reproduire et se déplacer à travers un réseau, sans avoir réellement besoin d'un support physique ou logique (disque dur, programme hôte, fichier, etc.) pour se propager; Par exemple le ver informatique Koobface, sur facebook ce ver se propage en envoyant des messages aux amis des personnes dont l'ordinateur a été infecté. Les messages envoyés portent des titres accrocheurs. Les destinataires se voient alors proposer un lien vers un site où l'on demande de télécharger par exemple une fausse version d'un lecteur de vidéo. Le virus profite alors du téléchargement de cette prétendue mise à jour pour s'installer sur l'ordinateur. I.5.2 Les Spams Le spam ou spamming, également appelé pourriel par les Québécois, est l'envoi massif et automatique, parfois répété, de courriers électroniques non sollicités, à des personnes avec lesquelles l'expéditeur n'a jamais eu de contact et dont il a récupéré les adresses électroniques de façon irrégulière. Aujourd’hui, les internautes passent davantage de temps sur les réseaux sociaux que sur leurs boîtes emails. Fort de cette constatation, les spammeurs ont fait évoluer leurs méthodes pour s’adapter au média en réalisant des applications malveillantes et de faux profils. I.5.3 Cheval de Troie : Un cheval de Troie est un programme caché dans un autre. Il exécute des commandes sournoises, et donne un accès à la machine sur laquelle il est exécuté en ouvrant une porte dérobée (backdoor). Les réseaux sont devenus de grands vecteurs de chevaux de Troie par exemple : 10 | P a g e Zeus : il s'agit d'un cheval de Troie bancaire puissant et populaire qui s'est vu offrir une seconde jeunesse grâce à l'arrivée des réseaux sociaux. URL Zone : Similaire à un cheval de Troie bancaire, mais plus intelligent, il peut évaluer la valeur du compte de sa victime pour définir ses priorités. I.5.4 Fuite de données : La raison d'être des réseaux sociaux est le partage. Malheureusement, beaucoup d'utilisateurs partagent trop de choses au sujet de leur entreprise et de leur vie privée : les projets, les produits, les finances, les changements organisationnels, les scandales ou toute autre information sensible [Benjamin Vauchel , 2010] . I.5.5 Les liens raccourcis : Un lien raccourci prend moins de caractères. Beaucoup d’utilisateur web utilisent les services de raccourcissement d'URL tel-que (Tinyurl ou bit.ly). Les pirates se font également un plaisir de cacher les liens de telle sorte que les victimes ne se rendent pas compte qu'elles sont en train d'installer un malware sur leur PC par un simple clic. Ces liens raccourcis sont facile à créer et universels ce qui fait que beaucoup d'utilisateurs de Twitter raccourcissent automatiquement tous leurs liens. I.5.6 Attaques de type Cross-Site Request Forgery : il ne s'agit pas d'un type de menace spécifique mais plutôt d'une manière de répandre un vers sur les réseaux sociaux. Ce genre de menace utilise l'utilisateur comme déclencheur. L'attaque étant enclenchée par l'utilisateur, cela permet de contourner beaucoup de systèmes d'authentification, cette confiance exploitée dans le système d'authentification permet de déclencher des actions de façon implicite [Benjamin Vauchel , 2010] . I.5.7 Usurpation d'identité : L'usurpation d'identité ou vol d’identité est le fait de prendre délibérément l'identité d'une autre personne, généralement dans le but de réaliser une action frauduleuse, comme accéder aux finances de la personne usurpée, ou de commettre en son nom un délit ou d'accéder à des droits de façon indue. L’usurpation d’identité débute toujours par la collecte de renseignements personnels sur l’individu. Les renseignements personnels peuvent être le nom, le numéro de téléphone, la date de naissance, l’adresse, ou toute autre information permettant d’identifier la personne. Les usurpateurs utilisent ensuite ces informations pour effectuer une ou des transactions en simulant l’identité de la personne fraudée [Benjamin Vauchel , 2010] . 11 | P a g e I.6 Les méthodes proposées pour la sécurité des RS Plusieurs méthodes ont été proposées pour faire face aux différents problèmes rencontrés lors d’utilisation des réseaux sociaux, généralement, les chercheurs pensent à renforcer un contrôle sur l’accès au réseau social et sur les données eux même : I.6.1 Renforcement d’un contrôle d’accès dans un réseau social (Enforcing Access control in social network sites) Filipe Beato et son équipe ont proposé une méthode pour renforcer un contrôle sur l’accès à un réseau social en utilisant des techniques cryptographiques, pour garantir la confidentialité des données des utilisateurs, les auteurs ont utilisé OpenPGP il supporte de crypter à plusieurs récepteurs et il utilise le cryptage hybride [Filipe Beato et al, 2009]. Pour chaque utilisateur, les chercheurs ont proposé une clé OpenPGP secrète et publique lord d’une connexion entre deux utilisateurs, ils doivent échanger leurs clés publiques pour qu’à la suite ils doivent être sauvegardés localement et formé le cercle de confiance de l’utilisateur. Cette clé publique OpenPGP peut être retirée par un serveur de clés en ligne, par un nom ou un email. Par exemple, deux utilisateurs veulent établir une connexion, l’un des deux accepte le deuxième comme ami, il ajoute sa clé OpenPGP publique pour former le cercle de confiance pour qu’il puisse ensuite poster ses messages cryptés. I.6.1.1 Le modèle proposé Le modèle proposé à une structure arborescente, du nœud profil de l’utilisateur, ce dernier est catégorisé par deux types de classe (Figure I.2): I.6.1.1.1 La classe des connexions : représentent les groupes et peuvent être divisés en sousgroupes, son rôle est de classifier les connexions de l’utilisateur, comme les amis, la famille et les collègues. I.6.1.1.2 La classe des contenus : représentent les données de contenu dans le profil de l’utilisateur. Ces données de contenu peuvent être divisées en sous classes, comme les données en rapport avec les loisirs, la famille, ou le travail. Pour définir le contrôle d’accès, ils ont considéré que chaque classe représente un ensemble, donc un ensemble A est une sous classe de B si A est inclus dans B , de cette façon les connexions et les contenus de l’utilisateur forment un ensemble ordonné partiel. 12 | P a g e I.6.1.2 Le contrôle d’accès : Le contrôle d’accès est défini par la correspondance entre les connexions et les contenus. La structure de la classe permet une propagation facile des droits d’accès, quand une nouvelle information est introduite dans une classe de contenu, tous les membres qui font partie d’une classe de connexion et qui ont les droits d’accès au contenu, auront l’accès à cette information. Aussi si une nouvelle connexion est ajoutée à une classe de connexion, elle aura l’accès à toutes les informations auxquelles ces partenaires ont accès. Le renforcement du contrôle d'accès pour les informations de l’utilisateur se fait par l’utilisateur lui-même, en utilisant l'application prototype côté client, le fournisseur du SRS ne saura pas qui à les droits d'accès à quoi. Ce modèle permet à l'utilisateur de contrôler l'accès à ses informations de façon très fine pendant que les utilisateurs qualifiés peuvent trouver cela intéressant, les gens moins qualifiés ont besoin de quelques classes par défaut des connexions et des données, et avec préférence une correspondance par défaut, dans laquelle un niveau d'intimité est spécifié. De cette façon, on essaye de créer une bonne balance entre l’utilisabilité et la confidentialité. All internet users All SN users Connection User profile Content User U0 Hobbies Friends Family Work Public Co-workers Document d5 Document d1 User U3 Document d2 User U1 User U5 User U2 User U4 Document d3 Document d4 Figure I.2 L'approche proposée avec un exemple de contrôle d'accès. La Figure I.2 représente un exemple de l'approche proposée, le profil de l'utilisateur est divisé en sous-groupes de classes, formant une structure hiérarchique. Le graphe avec la structure des connexions de l'utilisateur est représenté dans les serveurs du fournisseur du 13 | P a g e SRS. L’utilisateur du RS fait confiance à un cercle d'amis, et les clés publiques sont contrôlées sur le coté client par l'utilisateur lui-même. Dans cet exemple en remarque que les membres de la classe « friends » ont le droit d’accès a tous les documents de la classe « Hobbies » de l’utilisateur. Le contrôle d'accès présenté dans cette méthode est du type RBAC (Rôle Based Access Control).le contrôle d'accès est basé sur le classement des connexions et des contenus, et des correspondances mises en place entre les deux. Si l'utilisateur appartient à une classe dans les connexions d’un ami il possède le droit d’accès aux données relatives à son rôle. I.6.1.3 Avantage et inconvénient L’avantage de cette méthode est qu'elle groupe les liens en différentes parties et applique le contrôle d'accès en se basant sur cette classification. L’inconvénient est qu’elle reste pesante pour l'utilisateur qui doit connaître un minimum dans le fonctionnement de ce système de contrôle d'accès sinon il doit être un expert. I.6.2 Contrôle d'accès dans le Web 2.0 (More Content - Less Control : Access Control in the Web 2.0) Ce système est constitué par deux points essentiels : une spécification de politique utilisable et une application automatique de la politique. Il y a déjà des résultats promettant dans la conception des interfaces de politique utilisables qui prennent en charge le vide entre le modèle mentale de l'utilisateur et la politique actuelle. Ces méthodes utilisent les techniques du langage naturel, les modèles, et les guides pour faciliter les politiques lisibles par les machines. L'approche qui utilise les modèles, peut permettre aux utilisateurs de spécifier avec succès les politiques naturelles. De telle politiques sont courtes, correspondent aux modèles mentaux des utilisateurs, et peuvent être appliquées globalement à plusieurs documents [Michael Hart et al, 2008]. Un mécanisme est présenté après que la politique soit spécifiée pour l'appliquer automatiquement à des documents existants ou nouveaux basé uniquement sur leurs contenus, avec une intervention minimale ou inexistante de l'utilisateur. Le système de contrôle d'accès peut implémenter des politiques basées sur le contenu en réduisant le contenu à des tags sur le contenu ou l'utilisateur. Pour avoir ces tags, on peut exploiter plusieurs techniques de l'apprentissage des machines et des procédés du langage 14 | P a g e naturel. Ces méthodes extraient les métas informations des documents, nommées entités et mentionnées dans le document, et d'autres phrases du texte du document qui statistiquement et probablement résument son contenu. En se basant sur ses caractéristiques des documents on peut déduire les tags appropriés d'un document en le comparant à d'autres documents avec des caractéristiques similaires et des tags connus. Un tel système provoquera des erreurs occasionnelles. Au-delà de la spécification intuitive de la politique, ces techniques se confèrent de nouveaux types de contrôle d'accès non faisable auparavant. Parmi de telles politiques existe le contrôle d'accès basé sur l'affinité, où les commentaires sur un thème T sont visibles à des utilisateurs qui ont démontré un réel intérêt au thème T, par exemple, en postant de façon répétée sur le thème T. Cette politique est bien adaptée aux SRS où les gens veulent rencontrer d'autres gens ayant les mêmes visions des choses sans exposer leurs vies privées à n'importe qui pouvant les connaître comme leurs employeurs. Ce mécanisme peut aussi implémenter les politiques «Need-to-know»de la forme, « seul les gens mentionnés dans cet affichage peuvent lire cet affichage ». Cette méthode de contrôle d'accès est du type contrôle d'accès discrétionnaire, les contenus représentent les objets protégés, les autres utilisateurs représentent les sujets qui cherchent à avoir l'accès, et les spécifications faites par le propriétaire représentent les droits d'accès. I.6.2.1 Avantages et inconvénients : L’avantage de cette méthode de contrôle d'accès est que l’utilisateur donne des spécifications en entrant de simples phrases qui expriment sa volonté, donc il ne doit pas être un expert du système pour préciser ce qu'il veut. L’inconvénient, est que ce système est basé sur les tags extraits par les méthodes du langage naturel et les techniques de l'apprentissage des machines, donc il peut ne pas être efficace, et peut provoquer des erreurs occasionnelles. I.6.3 Gestion de la protection collective dans les réseaux sociaux (Collective Privacy Management in Social Networks) Les auteurs de cette méthode ont proposé une solution qui offre des moyens automatisés pour partager des images sur la base d’une notion étendue de la propriété du contenu. Ils ont proposé un mécanisme simple qui favorise la véracité, et qui récompense les utilisateurs qui font la promotion copropriété. Ils ont intégré une conception de l'inférence technique qui libère l'utilisateur de la charge de la main de la sélection des préférences de confidentialité de chaque image [Anna C et al .2009]. 15 | P a g e I.6.3.1 Politiques de confidentialité dans le SRS Dans ce modèle les auteurs ont proposé que pour chaque utilisateur i ∈ U ou (U est l’ensemble des utilisateurs) applique localement des politiques de confidentialité de ses données. Ces politiques de confidentialité sont des énoncés simples en précisant pour chaque élément de propriété locale qui y ont accès, et dans le cas contraire, quel type d'opérations peuvent être effectuées sur les données. Exemple1 : Supposons qu'Alice souhaite que les amis de ses amis soient en mesure d'afficher ses photos. Elle mettra en application une politique de type (i, 2) ou i représente les noms de ses amis et leurs positions sera égale à (2), la propriété ami de ( Friend Of). Bob est l’ami de Alice, dans ce cas, il satisfait la politique, tandis que John qui n’est pas l’ami d’Alice ne la satisfait pas, John est l’ami de bob donc en peut dire que John et Alice sont indirectement amis par l'intermédiaire d'un collègue de relation qui est (Bob). I.6.3.2 La copropriété des données dans le SRS Dans le SRS, les utilisateurs peuvent afficher des données sur leurs profils, ces données sont généralement considérées comme appartenant au propriétaire profil. Le propriétaire du profil est également appelé à prendre la responsabilité de gérer l'accès à ses données publiées. Toutefois, les données publiées par le propriétaire du profil peuvent appartenir aussi à un autre utilisateur. Par exemple, les documents peuvent être co-auteur c’est à dire qu’ils appartiennent à plusieurs personnes. Plusieurs utilisateurs peuvent apparaître dans une même image, il y va de même pour d'autres types de données, tels que les vidéos. Toutefois, si les messages d'Alice d’un document dans son profil, qui peut aussi appartenir à Bob, elle est chargée de fixer les règles de confidentialité du document, indépendamment du fait que Bob est heureux avec sa politique ou non. Ces simples observations conduisent naturellement à l'idée de soutenir la copropriété (ou les parties prenantes) dans le RS, pour indiquer l'ensemble des utilisateurs qui sont propriétaires d'un morceau de données, quel que soit d'où ces données ont été postées (par exemple, dans n’importe quel profil). Afin d'identifier les copropriétaires d'un morceau de données, ils ont effectué une classification générale des utilisateurs en fonction de leur relation. Ils ont concentré leurs présentations sur les images photo ou images, bien que l'idée principale derrière est suffisamment générale pour être appliquée pour d'autres données. Les utilisateurs peuvent être classés en tant que spectateurs, initiateurs et propriétaires. Les utilisateurs qui sont autorisés à accéder à la donnée sont définis en tant que spectateurs. 16 | P a g e L’initiateur ou le donneur d'ordre est l'utilisateur ayant initialement posté les données sur un profil donné. Enfin, les propriétaires sont les utilisateurs qui partagent des privilèges de propriété avec l'auteur sein du réseau social. Les propriétaires potentiels d'un élément de données envoyé sur un profil sont identifiés en utilisant les caractéristiques de marquage pris en charge par le SRS. En général, le marquage se compose d'annoter le contenu social par des moyens pour mettre des mots librement choisis [X. Wu, L. Zhang, 2006]. Dans le cas des images, ils ont employé un type spécifique de tags largement utilisé dans Facebook . Ces balises, connus sous le nom id-tags, donne la possibilité aux utilisateurs d’ajouter des étiquettes sur les images pour indiquer les utilisateurs qui apparaissent dans ces image. Par conséquent, chaque id-tag correspond essentiellement à l’identifiant d'utilisateur unique. En s'appuyant sur id-tags, on peut facilement identifier les propriétaires potentiels dans une image donnée. Exemple. Considérons qu’Alice, Bob et John, font partie du réseau social Facebook. Alice et Bob sont des amis, mais Bob et John sont des collègues. Alice a participé à une fête organisée pour les employés de la société où Bob et John sont employés. Alice a pris des photos avec Bob dans lequel apparaît également John et les affiche sur son profil FaceBook. John demande à Alice de devenir propriétaire des images dans lequel il apparaît. Alice a décidé de donner la propriété des images contenues dans l'album de la fête à tous les utilisateurs x tels que la propriété {Ami de et collègue de} est de la forme (Alice, 2). Donc Alice et John ont un degré de séparation égale à deux, alors John devient propriétaire. I.6.3.3 La collaboration des exigences de partage En cas de propriété mono-utilisateur, l'application de la politique de la vie privée pour un morceau de données est simple. L'utilisateur définit sa politique de confidentialité en fonction de ses préférences de confidentialité. La politique de confidentialité va être affichée par l'utilisateur donné, en indiquant la distance et le type de relations que les téléspectateurs devraient avoir avec le propriétaire. Une approche de base de données de type, où il y’a différents propriétaires pourraient ne pas fonctionner, car cette approche peut entraîner des violations de la confidentialité. Par exemple, Alice peut exiger qu’un groupe de ses amis peut voir une image publiée, par contre Bob veut laisser cette même image publique à tous ses amis. De toute évidence, John qui n'est pas un ami d'Alice, se connecte au réseau social et accède à l'image à travers le profil de Bob, 17 | P a g e il viole la vie privée d'Alice. Sur la base de ces considérations, les auteurs on proposer des exigences de base pour la gestion de la vie privée de collaboration: I.6.3.3.1 L'intégrité du contenu: Les données ne devraient pas être modifiées, ou divulguées de façon sélective. En d'autres termes, les données de type documents texte ne doivent pas être modifiées pour satisfaire les préférences des individus en conflit. I.6.3.3.2 Semi-automatique : Le processus de construction des politiques d'accès ne doit pas compter uniquement sur la saisie manuelle de l'utilisateur pour chaque donnée, mais les utilisateurs doivent tirer parti des décisions antérieures et d'en tirer le contexte actuel. I.6.3.3.3 Adaptative: Quand un nouveau propriétaire est ajouté pour les données, il doit être pris en compte, même si la politique d'accès aux donnés a été déjà mise en place. I.6.3.3.4 Groupe de correspondance: L'algorithme doit tirer parti de l'information des individus à développer une politique collective. I.6.3.4 Avantages et inconvénients : Cette méthode est très intéressante pour le partage des données, qui autorise plusieurs utilisateurs à être propriétaires d’une même donnée. Mais elle cause des conflits. Si chaque utilisateur veut poser sa propre propriété de contenu, car il est très difficile que plusieurs personnes s’entendent. I.6.4 Contrôle d'accès en utilisant une collaboration dans les réseaux sociaux (PrivacyAware Collaborative Access Control in Web-Based Social Networks) Dans cette méthode les auteurs ont proposé une solution pour concevoir la vie privée par des mécanismes de contrôle d'accès en mesure d'effectuer un partage pour contrôler les ressources et dans le même temps, satisfaire les exigences de confidentialité des utilisateurs des réseaux sociaux par rapport à leurs relations. Ils ont appliqué un contrôle d'accès grâce à une collaboration de nœuds sélectionnés dans le réseau [Barbara Carminati et Elena Ferrari, 2009]. 18 | P a g e (fof : friend of) (cof : colleague of) C (cof ,0.7) (fof ,0.8) (fof ,1) A R (fof ,1) (fof ,0.6) (fof ,0.8) (cof ,0.5) (fof ,0.8) M (fof ,0.2) T Figure I.3 : Une partie d'un web site social network (WBSN) L’application de contrôle repose sur un nœud central de stockage des certificats chiffrés à être utilisés pour obtenir l’accès à une ressource. Barbara Carminati et Elena Ferrari en 2009, ont proposé un mécanisme d'exécution alternative, où l'application de contrôle est obtenue grâce à une collaboration des nœuds sélectionnés dans le réseau. Dans ce qui suit fof désigne friend of (ami de) , cof désigne colleague of (collègue de) et DR (Règle de Diffusion) et AR (Règle d’Accès). La figure I.3 représente un exemple simple de WBSN, le nœud initial d'une arête est le nœud qui à créé la relation de correspondance. Le label associé à désigner les bords, respectivement, le type et Le niveau de confiance de la relation correspondante. En référence à la figure I.3, Alex (A) est l'ami (fof) à la fois de Carl (C) et Mark (M). Alex (A) fait confiance à Carl (C) plus que Mark (M). Alex (A) et Ted (T) sont des amis indirects en raison des relations existantes fof entre (A) et (M) , et (M) et (T). Carl (C) est également un collègue de (cof) Alex (A), et la confiance attribuée à cette relation par Carl (C) est de 0,7. Exemple 2. Supposons que, doc1 est une ressource d’Alex (A). Et Alex (A) souhaite faire doc1 accessible uniquement à ses effets directs ou entre amis indirecte de la profondeur maximale de trois, avec la contrainte que leur niveau de confiance doit être au moins égal à 19 | P a g e 0,8. Ces exigences peuvent être exprimées par les règles d'accès suivantes: AR1 = (doc1, {((A), fof, 3,0.8)}). En revanche, supposons que (A) spécifie la suite de la diffusion règle DR 3), cela signifie que la relation de type fof existant entre (A) fof AM = ((A), fof, et (M) ne peut être communiquée qu'aux amis de la profondeur maximale égale à trois, qui est, (M), (T), (R) et (C). Enfin, si (M) précise la règle de répartition suivante: DR fof AT = ((M), fof, 2), cela signifie que la relation de type fof existant entre (M) et (T) ne peut être vue que par des amis directs de M et par les amis des amis directs de M, qui est, (T), (R) et (C). I.6.4.1 Le protocole de contrôle d’accès L’application de contrôle d'accès est obtenue par une collaboration entre les nœuds du RS. La collaboration a pour but d'identifier un chemin dans la RS satisfaisant les exigences énoncées par les règles d'accès spécifié pour la ressource demandée. La notion de parcours est formalisée comme suit : I.6.4.1.1 Définition 1 (Relationship path) : SN = ( VSN , ESN , RTSN , TSN , QESN ) est un WBSN Une relation chemin dans le SN est une paire de (rt, node_list), ou rt ∈ RTSN est un type de relation et node_list est une liste de nœuds ordonnés (n1….nk), n1….nk ∈ VSN et pour chaque pair ni , ni+1 ∈ node_list , i=1,…..k-1, il existe une arête (ni , ni+1) ∈ ESN marque avec rt qui est le type de relation. Chaque nœud recevant une demande de collaboration doit être en mesure de vérifier si les nœuds précédents ont correctement appliqué les règles de diffusion pour toutes les relations dans le chemin. A cet effet, chaque nœud doit insérer dans le message à envoyer au prochain nœud, le processus de collaboration, plus les règles de diffusion, et bien sûr sa signature. En outre, ce nœud doit vérifier toutes les signatures des règles de diffusions contenues dans le message qu'il a reçu, et si elles sont correctement appliquées par les nœuds précédents. Les règles de diffusion et de signatures correspondantes pour les relations dans un chemin d'accès sont stockées dans une base de données structurée appelée Onion signature. I.6.4.1.2 Définition 2 (Onion signature) : P= ( rt , node_list) ou rt est un chemin de relation pour un réseau social SN et node_list est une liste de nœuds ordonnés (n1….nk). La signature du chemin p est appelée Onion signature(p) est une paire de (DRrtni,ni+1 , Signature i), i=1,…..k-1 ou DRrtni,ni+1 est la distribution des règles spécifiées par le nœud ni pour la relation de type rt qui connecte ni par ni+1 on considèrent la Signature = Signk(Signkrt 1(…Sign(DR ni,ni+1))). 20 | P a g e Exemple 3 Considérons le WBSN de la figure 3 et les règles de répartition de l’exemple 2. Ce qui suit est un exemple de chemin de relation: (fof, ((A), (M), (T))) indiquant qu'il existe une relation indirecte de type fof entre (A) et (T). accordée par les règles de distribution mis en place dans l'exemple 2. La signature correspondante à exemple3 est la suivante: (((A, fof, 3), SignT (SignM (SignA (A.fof, 3 )))),(( M, fof, 2), SignT (SignM (M, fof, 2 )))). I.6.4.2 Avantages et inconvénients : L’avantage de cette méthode est qu’elle permet un réel contrôle sur le partage des donnés, elle peut exiger réellement qui sont les personnes qui ont le droit pour accéder aux données. L’inconvénient est de faire collaborer plusieurs nœuds ce qui peut diminuer l’efficacité de cette méthode. En plus le degré de confiance attribué à chaque nœud n’est pas bien déterminé. I.6.5 La sécurité des réseaux sociaux: Cette méthode est proposée pour restreindre ou annuler le champ d’action d’un attaquant en utilisant un contrôle appliqué avant de donner l’accès au réseau social. L’utilisateur du réseau social doit montrer un réel intérêt pour le réseau, le système de contrôle d’accès prend les tags introduits par l’utilisateur, ces tags représentent les centres d’intérêt de l’utilisateur, ensuite le système de contrôle d’accès les compare aux tags de chaque groupe du site et cherche les correspondances. S’il n’ya pas de correspondance, l’utilisateur se voit refuser l’accès. Si une correspondance est trouvée, le système de contrôle d’accès autorise l’utilisateur à accéder au site et le classe dans le groupe qui correspond à ses centres d’intérêts [Belhocine A, 2010]. I.7 Conclusion Les réseaux sociaux sont utilisés de plus en plus sur une grande échelle de la société, ce point critique a fait des réseaux sociaux une plateforme intéressante pour les cybercriminels concernant le vol de données personnelles, l’usurpation d’identité, Etc. Ce chapitre présente les différents types des réseaux sociaux et leurs caractéristiques, nous avons essayé de citer les menaces qui entourent ce domaine et résumé les méthodes qui ont été proposées pour résoudre les problèmes de sécurité. 21 | P a g e Bibliographie [Tichy, 1981] : Tichy, N. M “Networks in organizations”, in Nystrom and Starbuck (Eds) Handbook of Organizational Design, Vol. 2, Oxford University Press, New York, 1981. [Giles Hogben & ENISA, 2007] : Giles Hogben & ENISA, "security issues and recommendations for online social networks", ENISA Report, Greece, http://www. enisa.europa.eu/ doc/pdf/ deliverables/enisa_pp_social_networks .pdf, 2007. [Dajana Kapusova Leconte, 2008] : Dajana Kapusova Leconte “ développement d’un logiciel de réseau social comme soutien à une communauté de pratique ”, Mémoire présenté pour l’obtention du DESS STAF Sciences et Technologies de l’Apprentissage et de la Formation TECFA, Juin 2008. [Philippe Torloting, 2006]: Philippe Torloting “ Enjeux et perspectives des réseaux sociaux ”, Institut supérieur de commerce de paris, Marketing, Management et technologie de l’information 2006. [Benjamin Vauchel, 2010] : Benjamin Vauchel “ Dix menaces de piratage sur les réseaux sociaux ”, http://securite.reseaux-telecoms.net/actualites/lire-dix-menaces-de-piratage-sur-lesreseaux-sociaux-22378-page-2.html, 26/07/2010. [Filipe Beato et al, 2009]: Filipe Beato, Markulf kohlweiss etKarel Wouters: “Enforcing Access control” in sociallnetworksites,.http://www.cosicesat.kuleuven.be/publication/article 1240. pdf, 2009. [Michael Hart et al, 2008]: Michael Hart, Rob Johnson, & Amanda Stent, “More Content – Less Control: Access Control in the Web 2.0”, Seventh International Workshop on Software and Performance (WOSP'08),ACM,NJ,USA.http://www. cs.stonybrook.edu/~rob/papers/cbac w2sp07.pdf, 2008. [Anna C et al, 2009]: Anna C. Squicciarini et Mohamed Shehab et Federica Paci “ Collective Privacy Management in Social Networks ” Track: Security and Privacy / Session: Web Privacy, WWW MADRID, p521, 2009. 22 | P a g e [Barbara C et Elena F, 2009]: Barbara Carminati and Elena Ferrari “ Privacy-Aware Collaborative Access Control in Web-Based Social Networks ” , University of Insubria 22100 Varese, Italy , 2009. [Belhocine A, 2010] : Belhocine Amine : “ sécurité des réseaux sociaux ”, Mémoire présenté Pour l’obtention du diplôme de Magistère, Département d’informatique, USTO-MB, 2010. 23 | P a g e Chapitre II Le Système Immunitaire Chapitre II Le système immunitaire II.1 Introduction Les méthodes bios inspirées tel que les réseaux de neurone, les algorithmes génétiques et les systèmes immunitaires artificiels ont tous été inspirés d’un mécanisme naturel. Nous sommes tous nés avec un système de défense naturelle à base génétique, ce système nous permet de défendre notre corps des maladies. Le bon fonctionnement de défense de ce système contre les attaques pathogènes à poussé les chercheurs à réaliser un système artificiel (AIS) compatible pour résoudre les problèmes qui ont reconnu un échec en informatique. Dans ce chapitre nous allons présenter le système immunitaire naturel, son fonctionnement, ses points forts, le passage vers le système immunitaire artificiel et les algorithmes utilisés dans ce système. II.2 Le système immunitaire naturel Un système immunitaire naturel est un système avec lequel l'organisme se défend contre les attaques des agents pathogènes de l'environnement (bactéries, virus, champignons microscopiques, parasites), et aussi contre ses propres constituants lorsque ceux-là présentent une anomalie (cancérisation, vieillissement cellulaire), donc le système immunitaire nous protège contre les maladies. II.2.1 Définition Il existe plusieurs définitions pour les systèmes immunitaires naturels : Selon Roitt Le système immunitaire est responsable de la défense de l’organisme contre les maladies et autres infections. C’est un système complexe de molécules, cellules et tissus capables de reconnaître aussi bien les cellules anormales du soi que les microorganismes exogènes (antigènes) [Roitt, 1990]. Selon De Castro .L.N & Von Zuben .F.J un système immunitaire est une collection de cellules, des molécules et des organes. Il représente un mécanisme d’identification capable 25 | P a g e de percevoir et de combattre le dysfonctionnement de ses propres cellules et les microorganismes exogènes infectieux qui envahissent le corps [De Castro .L.N & Von Zuben .F.J, 1999]. II.2.2 Architecture d’un système immunitaire naturel Le système immunitaire est divisé en deux systèmes de défenses principaux: Un qui est présent dès la naissance de l’individu, c’est le système immunitaire inné; et l’autre est un système immunitaire adaptatif qui représente l’ensemble des défenses acquises au cours du temps [Roitt, 1990]. Leucocytes Innés Adaptatifs Lymphocytes Macrophage Monocytes Cellules-T Cellules-B Plasma Cellules Mémoires Figure II.1 : Hiérarchie des cellules immunitaires. Les leucocytes ou globules blancs sont des cellules du système immunitaire décomposé en deux : Cellules du système immunitaire inné et cellules du système immunitaire adaptatif. Les deux systèmes immunitaires inné et adaptatif dépendent de la capacité du système immunitaire de distinguer entre les molécules du soi et du non-soi. II.2.2.1 Le système immunitaire inné Reconnait et réagit aux agents pathogènes d'une manière générique donc il représente la première ligne de défense contre les antigènes et inclut des éléments tels que la peau et les muqueuses. 26 | P a g e II.2.2.1.1 La peau C’est le premier bouclier, à condition qu'elle soit en bon état. Dès qu'un corps étranger se pose sur celle-ci, une réaction réflexe se produit au niveau de tout l'organisme, déclenchant un état de défense. Si la peau est de bonne qualité, le microbe est neutralisé et détruit instantanément. La lutte s'arrête là [Philippe DARGERE, 2005]. II.2.2.1.2 Les muqueuses (poumons - tube digestif - intestin) Elles sont recouvertes intérieurement d'un film protecteur : le mucus. Souvent asséchées, ces barrières ne remplissent plus leur rôle de protection [Philippe DARGERE, 2005]. Les cellules impliquées dans la réponse innée sont appelées phagocytes et incluent dans leurs rangs les monocytes et les macrophages [Lyddyard et al., 2002]. II.2.2.1.3 Les phagocytes Se lient aux agents infectieux pour les ingérer. Une fois digéré, l’antigène est découpé en plusieurs morceaux qui sont présentés par les macrophages comme un signal de présence de l’agent infectieux. Les cellules qui effectuent cette tâche de signalisation sont appelées cellules présentatrices d’antigènes. Ce signal peut être utilisé pour stimuler d’autres phagocytes et/ou la réponse immunitaire adaptative. II.2.2.1.4 Les monocytes Variété de globule blanc de grande dimension, c’est une cellule jeune destiné à devenir un macrophage dont le but est de capter et de digérer les éléments étrangers à l'organisme. II.2.2.1.5 Les macrophages Le macrophage est une variété de globule blanc, de grande taille, ayant la propriété d'absorber et de détruire de grosses particules comme une cellule abîmée ou âgée, mais aussi des éléments étrangers (bactéries, virus, champignons, etc.). Le système immunitaire inné est composé d’un ensemble de cellules spécialisées dont le rôle principal est la liaison avec des modèles moléculaires trouvés dans des micro-organismes. Le système immunitaire inné ne peut pas assurer la protection complète du corps. Il est caractérisé par [LABED, 2006] : Les mécanismes de détection des organismes sont constants, aussi bien pour les infections répétées. La réponse du système immunitaire inné est non spécifique à un type particulier d’intrus mais elle est identique contre tous les pathogènes qui envahissent le corps. 27 | P a g e Il joue un rôle vital pour l’initialisation et la régularisation de la réponse immunitaire adaptative. II.2.2.2 Le système immunitaire adaptatif La réponse immunitaire adaptative est responsable de la protection de l’organisme contre les microorganismes infectieux non rencontrés auparavant. Ce système est capable d’apprendre et de se rappeler les formes moléculaires présentées par les antigènes. Les cellules impliquées dans la réponse immunitaire adaptative sont appelées lymphocytes, et peuvent être divisés en deux catégories : les cellules B et les cellules T. les cellules B se développent dans la moelle et les cellules T dans le Thymus [DENECHE, 2006]. Le système immunitaire adaptatif est caractérisé par [LABED, 2006] : Le système immunitaire adaptatif s’occupe des intrus qui ne sont pas détectés par le système immunitaire inné. Le système immunitaire adaptatif est généré dynamiquement contre les organismes étrangers pendant sa durée de vie. Il fournit des mécanismes plus efficaces qui seront adaptés aux changements antigéniques. Le système adaptatif est adressé à des intrus spécifiques. La présence d’une mémoire immunologique qui permet aux cellules de se souvenir des intrus déjà rencontrés lors des prochaines rencontres. II.2.2.2.1 Lymphocytes Cellule du système immunitaire, responsable des réactions de défense de l’organisme contre les substances qu’il considère comme étrangère. Les lymphocytes appartiennent à la famille des leucocytes (globules blancs) ; il représente environ 20 à 30% des leucocytes du sang [Larousse médicale, 2006]. II.2.2.2.1.1 Les cellules T Il existe deux types de cellule T : Les cellules T d’aide ou (T helper) : les cellules T d’aide représentées dans la (figure II.2) assurent des fonctions essentielles pour la régularisation de la réponse immunitaire par exemple l’activation ou la suppression du développement de certain type de réponse immunitaire. Les cellules T cytotoxiques ou (T killer) : Les cellules T cytotoxiques représentées dans la (figure II.3) assurent des fonctions de suppression des envahisseurs microbiens, des virus ou les cellules cancéreuses. Ainsi, les cellules T présentent des récepteurs sur leur surface. 28 | P a g e Figure II.2 : Cellule T d’aide Figure II.3 : Cellule T cytotoxiques II.2.2.2.1.1 Les cellules B Les lymphocytes B représentés dans la (figure II.4) fabriquent des protéines appelées anticorps, spécifiques d'un antigène donné. Elles sont produites dans la moelle osseuse et tout comme les cellules-T, elles migrent vers les tissus lymphoïdes secondaires où elles répondent aux antigènes étrangers. Les anticorps qui se trouvent sur leur surface sont leurs récepteurs d’antigènes. Moelle osseuse Figure II.4 : Cellule B Lorsque les cellule B sont activées par l’antigène la plupart du temps avec l’aide de la celluleT, elles prolifèrent et atteignent la maturité formant des cellules à mémoire, qui restent capables de répondre à l’antigène si celui-ci est réintroduit et en plasmocytes (des usines 29 | P a g e produisant et secrétant de grandes quantités d’anticorps de même spécifié que celle du récepteur de l’antigène se trouvant sur la cellule-B parente) [YAHIAOUI, 2010]. Un anticorps comme illustre la figure II.5 est constitué de deux régions principales, la région variable (VH et VL), qui détermine le type d’antigène avec lequel cet anticorps peut se lier ; et la région constante (CH et CL), qui permet entre autre aux macrophages d’ingérer plus facilement l’antigène. Chaque cellule B produit un seul type d’anticorps. Figure II.5 : Structure d’un anticorps II.2.2.3 Antigènes Substance (généralement étrangère à l’organisme), susceptible de déclencher une réaction immunitaire en provoquant la formation d’anticorps .Un antigène peut être soit un virus, une bactérie, un parasite ou des cellules altérées de l’organisme (infectés par un germe ou tumorales) [Larousse médicale, 2006]. Le système immunitaire considère l’intrus comme possédant un nombre d’antigènes. Un antigène est une substance qui provoque une réponse immunitaire sous forme de prolifération de lymphocytes et la production d’anticorps spécifiques pour l’antigène introduit. Celui-ci contient habituellement des protéines, des glucides, des lipides et des acides nucléiques. La même réponse peut être produite virtuellement à tout ce qui est introduit dans une forme semblable [Lyddyard et al., 2002]. II.2.2.4 Comment le système immunitaire assure t-il la protection du corps humain ? Lors de la pénétration d’un intrus dans le corps illustré dans la figure II.8, les cellules de présentation antigénique comme les macrophages procèdent à l’ingestion et la digestion de l’antigène rencontré pour le présenter comme des fragments de peptides antigéniques. 30 | P a g e Ces peptides seront liées avec les molécules MHC (MHC : Major Histocompatibility Complex) pour permettre leurs liaisons avec les cellules T qui ont la capacité de reconnaître la combinaison de peptide / MHC, car les cellules T sont incapables de reconnaitre l’antigène directement, la reconnaissance de la composition de peptide/MHC est illustrée dans la figure II.6 : Antigène Peptides Figure II.6 : Reconnaissance de la cellule T de la combinaison de peptide / MHC Après que la combinaison peptide / MHC est reconnue par les cellules T, ces dernières seront activées en produisant et sécrétant des lymphokines ou des signaux chimiques pour mobiliser d’autres composants du système immunitaire. Les cellules B qui ont aussi des molécules de récepteur complémentaires répondent à ces signaux. À la différence des récepteurs de cellules T, ceux de cellules B peuvent reconnaître les parties d’antigènes libres sans les molécules MHC, Reconnaissance de l’antigène protéique ou non protéique illustré dans la figure II.7 : Antigène B Figure II.7 : Reconnaissance de la cellule B l’antigène protéique ou non protéique 31 | P a g e Après cette activation, les cellules B prolifèrent et se différencient et sécrètent des protéines d’anticorps. La liaison entre les anticorps et les antigènes disponibles mènent à la destruction et la suppression des antigènes. Un nombre de cellules B et T deviennent des cellules mémoires pour permettre l’élimination rapide de l’antigène s’il se présente une autre fois dans l’avenir. Figure II.8 : Le processus de base de défense immunitaire II.2.2.5 Le principe de la sélection clonale La théorie de la sélection clonale illustrée dans la figure II.9 décrit les conséquences de la réponse immunitaire suite à un stimulus antigénique en assurant que seules les cellules qui reconnaissent l’antigène subissent des proliférations et des différentiations. Le principe de la sélection clonale réside au niveau des cellules-T et des cellules-B, les cellules-B subissent une mutation somatique pendant la reproduction aussi les cellules-B plasma sont des cellules actives donc elles sécrètent des anticorps, par contre les cellules-T ne subissent pas une mutation pendant la reproduction, et les cellules-T plasma sont principalement des cellules actives secrétant des lymphokines (TK). 32 | P a g e Quand un nouvel antigène pénètre dans le corps, il faut plusieurs jours avant que des anticorps efficaces apparaissent dans le sang. Par contre quand un antigène similaire pénètre dans le corps pour une seconde fois les anticorps correspondants sont produits beaucoup plus rapidement et en plus grandes quantités et c’est grâce aux cellules mémoire issues de la première infection, On dit que le système est devenu immunisé contre l’antigène, ou encore qu’il l’a mémorisé. Figure II.9 : Le principe de la sélection clonale. Les propriétés principales de la théorie de la sélection clonale sont: Sélection négative : son rôle est d’éliminer les lymphocytes nouvellement différenciés et qui réagissent avec les modèles antigéniques portés par des composants du soi, appelés antigènes-soi ; Expansion clonale : son rôle est de faire proliférer et différencier les lymphocytes mûrs avec les antigènes étrangers après le contact de ces derniers dans le corps. Mono-spécificité : la restriction phénotypique d'un modèle à une cellule différencié et la conservation de ce modèle par les clones descendants. 33 | P a g e Hypermutation somatique : génération de nouveaux changements génétiques aléatoires, plus tard exprimée comme des modèles divers d'anticorps par une forme de mutation somatique accélérée. Auto-immunité : le concept des clones résistant à l'élimination précoce par les antigènes-soi est la base des maladies auto-immunes. II.2.2.6 La distinction entre le soi et le non soi Comment le système immunitaire, se comporte quand il est confronté à un antigène de soi (une autre appellation pour les propres cellules du corps humain) ? Le système immunitaire doit être capable d’identifier ses propres molécules (le soi), des molécules étrangères. Les cellules T sont chargés de faire la distinction entre le soi et le non soi [Roitt, 90]. Pour garantir que les cellules T matures ne vont jamais se lier avec des molécules du soi. Ces cellules mémoire doivent être confrontées à un échantillon de molécules du soi durant leur maturation dans le thymus. Si une cellule T est activée en présence de cet échantillon, elle doit être immédiatement détruite. Ceci veut dire aussi si une cellule T se lie à une certaine molécule, cette dernière est forcément une molécule non soi. Les cellules B sont activées que par les signaux chimiques dégagés par les cellules T pour confirmer la présence d’un antigène, ceci veut dire que même si une cellule B reconnait l’antigène elle ne peut s’activer que par un signal d’une cellule T. II.2.2.7 Apprentissage L’apprentissage tente de définir des modèles de référence ou de caractériser des « classes » de décision. Il permet ainsi de dicter au système, l’algorithme de décision le plus adéquat vis-àvis des règles de modélisation choisies [YAHIAOUI, 2010]. Il existe l’apprentissage supervisé où les différentes familles des formes sont connues à priori. Et la tache d’apprentissage est guidée par un superviseur. Il y a aussi l’apprentissage non supervisé ou un apprentissage sans professeur, dans ce type d’apprentissage les classes et leur nombre sont inconnus en plus il ne nécessite pas un superviseur. II.2.2.8 Sélection positive L’objectif de la sélection positive des lymphocytes (T et B) est d'éviter l'accumulation des lymphocytes inutiles avec aucun récepteur ou avec des récepteurs qui sont improductifs pour l’organisme. 34 | P a g e Pour les cellules T : Le processus de la sélection positive doit s'assurer que les cellules-T matures quittant le thymus vers tout le corps sont activées seulement par des antigènes étrangers présentés par des molécules de soi-MHC. Pour les cellules B : Les cellules B dans la sélection positive se prolifèrent et subissent ensuite des hypermutations somatiques étendus des régions V (la région variable ,VH et VL) de leurs anticorps. L’hypermutation somatique est un mécanisme qui permet la reproduction de nouvelles cellules qui sont des sosies de leurs parents. Ces clones seront soumis à un mécanisme de mutation avec des taux très élevés (plus haut que des taux de mutation de cellules ordinaires). Ce mécanisme permet au système immunitaire d'augmenter la capacité d'identification des anticorps par rapport à un antigène sélectif. II.2.2.9 La sélection négative La sélection négative d'un lymphocyte décrit le processus par lequel une interaction lymphocyte-antigène ait comme conséquence la mort (ou l'anergie) de ce lymphocyte [YAHIAOUI, 2010]. Pour les cellules T : Le processus de la sélection négative permet l’élimination des cellules T naïves qui peuvent reconnaître un antigène de soi. Les cellules T naïves qui ne reconnaissent aucun antigène du soi dans le thymus seront libérées pour la recherche éventuelle des cellules de non soi. Pour les cellules B : quand les cellules B immatures identifient les cellules du soi, elles seront éliminées. Ce mécanisme est appliqué seulement sur les cellules B immatures dans la moelle osseuse. II.2.2.10 Les réseaux immunitaires : Formellement un système immunitaire est défini comme un énorme réseau de paratopes qui reconnaissent des ensembles d’épitopes, et des épitopes qui sont reconnus par des ensembles de paratopes, donc chaque cellule peut aussi bien reconnaître qu’être reconnue. Les éléments importants du réseau ne sont pas seulement les molécules, mais aussi les interactions entre ces molécules. La théorie du réseau immunitaire a été proposée par « Jerne », qui a suggéré que les interactions au sein du système immunitaire ne se limitent pas entre anticorps et antigènes, mais aussi entre les anticorps même en absence d’un stimulus antigénique. Cette interaction est assurée par des récepteurs spécialisés présents sur la surface des anticorps appelés : idiotope. Alors, le système immunitaire est formellement défini par un réseau énorme et 35 | P a g e complexe de paratopes reconnus par un ensemble d'idiotopes et d'idiotopes reconnus par un ensemble de paratopes. Ainsi, chaque élément pourrait reconnaître aussi bien qu'être reconnu [Jerne. N. K, 1974]. Les cellules immunitaires peuvent répondre positivement ou négativement à un signal de reconnaissance (d’un antigène ou d’une autre cellule immunitaire), ce mécanisme est représenté dans la figure II.10. Une réponse positive induit l’activation de la cellule, sa prolifération et la sécrétion d’anticorps ; alors qu’une réponse négative conduit à la tolérance et à la suppression [DENECHE, 2006]. Figure II.10 : Activation/suppression d’un anticorps Selon deCastro et VonZuben en 2001, le fonctionnement d’un réseau immunitaire est comme suit : Le système immunitaire entre en contact avec un antigène (Ag), son épitope est reconnu par un ensemble de paratopes différents (Pa). L’ensemble d’épitopes (Ib) est appelé l’image interne de l’épitope (ou antigène) parce qu’il peut être reconnu par le même ensemble Pa qui a reconnu l’antigène. Chaque épitope de l’ensemble Ia est reconnue par un ensemble de paratopes. Donc, la totalité de l’ensemble Ia est reconnue par un ensemble encore plus large de paratopes Pc associé à un ensemble d’épitopes Ic. Dans la figure II.11 Les flèches indiquent une stimulation lorsque les épitopes sont reconnus par les paratopes des récepteurs des cellules. Une suppression lorsque des paratopes reconnaissent les épitopes des récepteurs des cellules. 36 | P a g e Figure II.11 : Principe des réseaux immunitaires II.2.2.11 Les caractéristique du système immunitaire Le système immunitaire est doté de plusieurs caractéristiques parmi lesquelles nous pouvons citer : Multicouche : Le système immunitaire possède une architecture multicouches qui consiste en deux sous systèmes inter-liés qui sont le système immunitaire inné et le système immunitaire adaptatif. Ces deux systèmes combinent leurs tâches et responsabilités pour assurer la protection et la sécurité globale. La reconnaissance de formes : les cellules et les molécules d’un système immunitaire ont plusieurs méthodes pour reconnaître une forme, comme les anticorps sur la surface des cellules et les molécules intra cellulaire (MHC). Autonomie : Le système immunitaire humain ne possède aucun contrôle central ou un gestionnaire particulier. Il possède une autonomie globale dans la détection et l’élimination des intrus. L’identité du soi : l’unicité du système immunitaire permet de considérer les cellules, les molécules et les tissus étrangers comme non-soi afin de les reconnaître et les éliminer. 37 | P a g e La diversité : le système immunitaire comporte plusieurs éléments (cellules, molécules, protéines, etc.) qui performent le rôle d’identification du non-soi, en plus, nous trouvons différentes lignes de défense comme l’immunité innée et adaptative. Parallélisme : Le système immunitaire est capable de produire plusieurs réponses immunitaires en même temps à des endroits dispersés. Robustesse : la diversité, le nombre des cellules et molécules immunitaires et leur distribution sont des facteurs essentiels dans la robustesse du système immunitaire. Apprentissage et mémorisation : les molécules du système immunitaire sont capables d’adapter leurs structures et leurs nombres selon le challenge antigénique. Les mécanismes de cette adaptation sont suivis d'une pression sélective forte, qui permet aux individus les plus adaptés de rester dans le répertoire immunitaire pendant de longues périodes. Ces cellules de longue vie fortement adaptées s'appellent les cellules mémoire et favorisent des réponses plus rapides et plus efficaces pour le même (ou légèrement semblable) défi antigénique. En plus, les cellules et les molécules immunitaires peuvent s'identifier, et ceci dote le système immunitaire avec un comportement autonome. Dynamique : Le système immunitaire change continuellement par l’élimination des cellules vieilles ou endommagées, et la création de nouvelles cellules et molécules. Un bon exemple de la dynamique du système immunitaire est la théorie du réseau idiotypique. Détection : Le système immunitaire est capable d’identifier et détecter les intrus dans le corps sans aucune connaissance antérieure de la structure de ces intrus. II.2.3 Le système immunitaire est-il "cognitif" ? Pour qu’on puisse qualifier un système par la notion de cognition, il doit se caractériser par les points suivants : la possibilité de percevoir son environnement, la capacité de faire des actions différenciés, et troisièmement ses actions sont-elle suivies par ses perceptions. La réponse est « oui » le système immunitaire est cognitif, premièrement il perçoit son environnement par la distinction entre le soi et le non soi, il est capable de détecter la pénétration d’un antigène dans le corps et les changements causés par ce dernier. Deuxièmement il réagit contre l’infection par des moyens différenciés (attaque des cellules macrophage, cellule T ou cellule B), et en dernier seule les cellules capables de reconnaitre l’antigène réagit contre l’infection. 38 | P a g e II.3 Le système immunitaire artificiel Le système immunitaire biologique est un système distribué et adaptatif. Il utilise l'apprentissage, la mémoire, et la récupération pour résoudre des tâches de reconnaissance et de classification. En particulier, il apprend à reconnaître les motifs pertinents, et l'utilisation combinatoire pour construire des détecteurs de modèles. Ces remarquables capacités de traitement des informations du système immunitaire fournit des éléments importants dans le domaine du calcul. Ce nouveau domaine est parfois dénommé immunologique de calcul, Immunocomputing, ou le système immunitaire artificiel (AIS). Bien qu'il soit encore relativement nouveau, l’AIS, ayant une forte relation avec d'autres modèles de calcul d'inspiration biologique et la biologie computationnelle. II.3.1 Définition Selon « Timmis » Un système immunitaire artificiel est un système computationnel basé sur des métaphores du système immunitaire naturel [Timmis, 2001]. « Dasgupta » a défini le système immunitaire artificiel comme suit: « Le système immunitaire artificiel est la composition de méthodologies intelligentes inspirées par le système immunitaire naturel afin de résoudre des problèmes du monde réel » [Dasgupta, 1999]. Tandis que « Timmis et De Castro » ont donné la définition suivante : « Les systèmes immunitaires artificiels sont des systèmes adaptatifs inspirés par des théories immunologiques et des observations de fonctions immunitaires, des principes et des modèles, seront appliqués à la résolution des problèmes » [Timmis et De Castro, 2002]. II.3.2 Le processus de conception d’un AIS Un schéma pour concevoir un algorithme de point de vue quantitatif exige au moins les éléments de base suivants (figure II.12): Une représentation pour les composants du système. Un ensemble de mécanismes pour évaluer l'interaction des individus avec l'environnement. L’environnement est simulé par un ensemble de stimulus d'entrée, ou plusieurs fonctions d’évaluation. La procédure d'adaptation qui dirige la dynamique du système, c'est-à-dire comment son comportement varie dans le temps. 39 | P a g e Ce schéma est adopté par Timmis & de Castro [Timmis et De Castro, 2002] qui ont proposé un processus de conception d’un AIS. Leur principe est : • Une représentation pour créer les modèles abstraits des cellules et d'organes immunitaires. Un ensemble de fonctions nommé fonction d'affinité pour évaluer les interactions entre ces éléments artificiels d’une manière quantitative. • Un ensemble d'algorithmes pour diriger la dynamique du système immunitaire artificiel. Figure II.12 : La structure de conception d’un AIS Un système immunitaire artificiel qui réussirait à reproduire le comportement du système immunitaire naturel aurait les avantages suivants [YAHIAOUI, 2010] : Le système adapte ses ressources selon la complexité de la forme à reconnaître : a. Si la forme est connue, elle est traitée rapidement par la cellule mémoire correspondante ; b. Moins la forme rencontrée ressemble aux formes précédemment rencontrées, plus la concentration de l’AG correspondant sera élevée, et plus les ressources mobilisées (cellules activées) seront importantes, ainsi que le temps de traitement ; Un mécanisme unique est utilisé à la fois pour la reconnaissance rapide des formes déjà rencontrées (classification), ainsi que pour la mémorisation des formes inconnues (apprentissage). En plus, le système est en apprentissage continu, chaque forme inconnue déclenche le processus de mémorisation ; Le système est en adaptation continue avec son environnement : les formes qui sont rencontrées dans l’environnement sont mémorisées, et celles qui ne le sont pas (ou ne le sont plus) sont tout simplement oubliées. De cette manière, même si le système est 40 | P a g e placé dans un environnement avec une mémoire initiale très générale, avec le temps sa mémoire va devenir spécifique à son environnement de travail et donc, plus performante ; Les singularités, même si elles sont mémorisées, peuvent être « oubliées » si elles ne sont pas rencontrées plus longtemps ; La vaccination du système permet de lui faire apprendre rapidement de nouvelles formes, ou bien de restaurer une partie de sa mémoire par apprentissage itérative ; Cette liste n’est certainement pas exhaustive, et une recherche plus poussée dans les mécanismes de fonctionnement du système immunitaire naturel permettra certainement de trouver d’autres propriétés très intéressantes. II.3.3 La représentation d’un AIS Les cellules B et T représentent les cellules les plus importantes dans le système immunitaire naturel. Elles présentent des récepteurs superficiels utiles pour la reconnaissance des intrus, les formes de ces récepteurs sont complémentaires à la forme d’antigène. Les cellules et les molécules immunitaires sont alors les éléments qui doivent être modélisés et employés dans les modèles proposés par le système immunitaire artificiel [Timmis & De Castro.L.N, 2003]. II.3.3.1 Le modèle Shape – Space Le modèle Shape- Space (Forme - Espace) représenter dans la figure II.13 a été proposé par Perelson et Oster en 1979 [Perelson .A.S & Oster .G.F, 1979]. Ce modèle permet une description quantitative des interactions de molécules de récepteur et les antigènes. Dans le système immunitaire biologique, le concept Forme - Espace est le degré de liaison (le degré de correspondance ou l'affinité) entre le récepteur d’anticorps (Ab ou TCR) et un antigène (Ag). Ce degré de liaison est mesuré via les régions de complémentarité entre les deux éléments. Figure II.13 : La représentation du modèle Shape-Space 41 | P a g e II.3.3.2 Les concepts de base du modèle Shape-Space La forme généralisée La forme généralisée est l'ensemble de caractéristique qui décrit les propriétés relatives à une molécule d'une perspective d’identification. Mathématiquement, la forme généralisée d'une molécule (m), peut être représentée par un ensemble de coordonnées m = < m1, m2, .mL>, m∈ SL ⊆ RL tel que m est un point dans un espace L- dimensionnel, où S représente le modèle Shape-Space. L’identification via les régions de complémentarité Une population de N individus (les récepteurs de cellule) correspond au Shape-Space avec un volume V fini contenant N points. Puisque les interactions antigène anticorps sont mesurées via les régions de complémentarité, les déterminants antigéniques sont aussi caractérisés par des formes généralisées. Le seuil d’affinité Chaque anticorps agit spécifiquement avec tous les antigènes dont les compléments existent dans une petite région d'encerclement. Le paramètre « ε » est le seuil d'affinité qui caractérise Cette région. La région d’identification Le résultat de la définition du seuil d’affinité est le volume V qui est appelé la région d’identification. II.3.3.3 Les mesure d’affinités L'affinité entre un anticorps et un antigène peut être estimée via n'importe quelle mesure de distance entre deux chaînes (ou vecteurs) par exemple par l’utilisation de la distance Euclidienne, la distance de Manhattan ou la distance de Hamming [Timmis & De Castro.L.N, 2003]. On considère un anticorps Ab = <Ab1, Ab2, .AbL> et un antigène Ag = <Ag1, Ag2, .AgL>, la distance D peut être calculée selon : 42 | P a g e La distance Euclidienne : Figure II.14 : La distance Euclidienne La distance de Manhattan : Figure II.15 : La distance de Manhattan La distance de Hamming : Figure II.16 : La distance de Hamming II.3.4 Les algorithmes du système immunitaire artificiel Parmi les algorithmes du système immunitaire artificiel : II.3.4.1 L’algorithme de la sélection positive Le principe de cet algorithme est la génération des détecteurs qui repèrent les éléments de soi au lieu de la génération des détecteurs qui repèrent les éléments de non soi. Selon cet algorithme, un élément de non soi suspect doit être comparé avec l’ensemble de soi, s’il n’est pas détecté alors il est considéré comme élément non soi. 43 | P a g e Selon de Castro et Timmis l'algorithme de la sélection positive peut être récapitulé comme suit [de Castro et Timmis, 2002]: 1. Initialisation : Produire un répertoire potentiel P des cellules-T immatures. Supposons toutes les molécules (récepteurs et MHCs) représentées par des chaines binaires de la même longueur L, 2L de cellules distinctes sont générées ; 2. Évaluation d'affinité : Déterminer l'affinité de tous les éléments dans P avec tous les éléments de l’ensemble de soi S ; 3. Génération du répertoire disponible : Si l'affinité d'un élément de P avec au moins une molécule de MHC est supérieure ou égale à un seuil ε , alors la cellule-T identifiant cet individu du MHC est définitivement choisie et présentée dans le système (répertoire disponible A) ; sinon on élimine cette cellule-T. Figure II.17 : L’algorithme de la sélection positive. II.3.4.2 L’algorithme de la sélection négative Le principe de la sélection négative naturel 1. l’élimination des cellules immunitaires immatures qui se lient avec les cellules du soi. 2. les cellules nouvellement générées qui n’appartiennent à aucune cellule du soi seront libérées du thymus et de la moelle osseuse. 3. La distribution des cellules nouvellement générées dans le corps humain afin d’assurer leurs contrôle contre les organismes étrangers. 44 | P a g e II.3.4.2.1 Le principe de la sélection négative artificiel Forrest et al ont proposé l’algorithme de la sélection négative qui reflète ce principe. Ils ont considéré l’algorithme de la sélection négative comme un processus de détection d’anomalies composé de trois phases principales [Forrest et al, 1994] : La définition du soi. La génération des détecteurs. Le contrôle d’occurrence des anomalies. L’algorithme est le suivant (figure II.18 et figure II.19): • (M) est l’ensemble des modèles de soi à être protégé. • (S) est un ensemble de détecteurs généré qui n’identifient aucun élément appartenant à l’ensemble M. Les figures II.18 et II.19 illustrent ce processus : L’ensemble soi (M) Génération des candidates (C) Appariement Oui Détecteur (S) Non Rejet Figure II.18 : La structure générale de l’algorithme de la sélection négative. (C) est une chaîne d’élément de candidats générés de façon aléatoire. Déterminer l’affinité entre chaque élément en (C) avec tous les éléments de l’ensemble de soi (M). Si l’affinité d’une chaîne dans (C) avec au moins une chaîne dans (M) est plus grande ou égale à un seuil d’affinité prédéfini, alors Cette chaîne reconnaît l’ensemble de soi, ce qui implique qu’elle doit être éliminée. Sinon la chaîne est ajoutée à l’ensemble de détecteurs (S). La dernière étape de l’algorithme consiste à contrôler le système contre la présence des modèles de non soi. Ainsi chaque élément détecté par les détecteurs générés est considéré comme un élément de non soi. 45 | P a g e L’ensemble de détecteur soi (S) L’ensemble protégé (M*) Non Appariement Oui Détection du non soi Figure II.19 : La structure générale de l’algorithme de la sélection négative suite. II.3.4.2.2 domaines d’utilisation de la sélection négative Okamoto et Ishida [Okamoto, T & Ishida, Y, 1999], ont proposé un système multi agent basé sur les AIS. Ce système de détection de virus opère dans un environnement distribué et hétérogène. L’algorithme de la sélection négative a été utilisé comme une méthode d’authentification de fichiers. La détection des virus est réalisée via l’appariement entre les informations propres d’un fichier tel que les premiers bits de l’entête du fichier, sa taille, le chemin d’accès et le fichier de l’hôte. La neutralisation des virus est faite par la réécriture des informations initiales sur le fichier infecté. Le système est composé de quatre types d’agents qui sont : Les agents anticorps qui détectent les virus sur les hôtes locaux. Les agents tueurs qui neutralisent les virus par les réécritures des informations initiales sur les fichiers infectés. Les agents de copie qui copient les fichiers non infectés qui sont équivalents aux fichiers infectés à partir des différents hôtes. Les agents de contrôle qui établissent la communication entre les différents agents. II.3.4.3 La sélection clonale La sélection clonale est le nom de la théorie utilisée pour exprimer comment le système immunitaire adaptatif fait face aux micro-organismes pathogènes. La sélection clonale artificielle est une abstraction des mécanismes de mémorisation des systèmes immunitaires. II.3.4.3.1 L’algorithme de la sélection clonale Il est décrit selon Esponda et Forrest en 2003 comme suit [Esponda et Forrest, 2003] : 46 | P a g e 1. Initialisation : générer aléatoirement la population initiale d’anticorps Ab, un anticorps est une abstraction de la cellule B et des anticorps qu’elle produit (figure II.20). Figure II.20 : Initialisation de la population d’anticorps (cellules B) Répéter tant qu’une condition prédéfinie n’est pas vérifiée : 1. Evaluation et sélection (1) : sélectionner s1 anticorps de (Ab) qui ont les plus grandes affinités. Utiliser une certaine fonction f(a) qui renvoie l’affinité de l’anticorps (figure II.21). Figure II.21: Cellules B activées 2. Clonage : cloner chaque anticorps sélectionné proportionnellement à son affinité, mettre les clones dans C (figure II.22). 2. Mutation : chaque clone de C est muté avec un degré inversement proportionnel à son affinité, nous obtenons une population mature C*. 47 | P a g e Figure II.22 : Maturation des cellules B 3. Evaluation et sélection 2 : sélectionner s2 anticorps de C* qui ont les plus grandes affinités, nous obtenons Ab’ (figure II.23). Figure II.23 : Nouvelle population d’anticorps 4. Diversité : combiner Ab’ avec s3 anticorps générés aléatoirement, remplacer Ab par l’ensemble d’anticorps obtenus (figure II.24). Figure II.24 : Diversification de la population d’anticorps 3. La mort : les anticorps non retenus dans Ab sont éliminés. 48 | P a g e II.3.4.3.2 domaines d’utilisation de la sélection clonale De Castro et Von Zuben ont appliqué la sélection clonale à l’optimisation, où chaque anticorps représente une solution possible au problème. La fonction affinité, quand à elle, renvoie la qualité de chaque solution (les meilleures solutions ont les plus grandes affinités). Kim et Ben en 2002, ont proposé un algorithme de sélection clonale destiné à la détection d’intrusions. L’algorithme nommé DynamiCS, est un algorithme de classification binaire qui contient deux classes le soi et le non soi, et utilise les propriétés de la sélection clonale pour générer des cellules mémoire qui reconnaissent le non soi sans reconnaître le soi. Les auteurs ont aussi proposés ClonAlg, une implémentation de la sélection clonale pour la reconnaissance des formes. Mais n’étant pas plus qu’une preuve de faisabilité, l’algorithme souffre de limitations majeures. La plus importante étant qu’il n’accepte pas plus d’un exemple d’entraînement par classe [Kim et Ben, 2002]. White et Garrett ont proposé ClonClas, qui est une amélioration de ClonAlg. Les auteurs ont utilisé la sélection clonale pour chercher dans chaque classe le prototype qui la représente le mieux. Ces prototypes sont ensuite utilisés dans un système de reconnaissance de chiffres imprimés. En d’autres termes, la sélection clonale est utilisée comme un algorithme d’apprentissage [Whi et Gar, 2003]. Les principes de la sélection clonale ont aussi été appliqués à la résolution de problèmes multi objectifs. Pour ce genre de problèmes, plusieurs objectifs doivent être optimisés en même temps. Les objectifs étant souvent en conflit, l’optimisation de l’un d’eux rend les autres objectifs non optimisés. Cuello a proposé un algorithme pour la résolution des problèmes multi objectifs en utilisant les principes de la sélection clonale. L’algorithme nommé MISA est générique dans le sens où il peut être appliqué à n’importe quel problème d’optimisation quel que soit le nombre d’objectifs. Pour plus de détails sur l’algorithme et les résultats obtenus le lecteur est invité à consulter [Coe et Cor, 05]. II.3.4.4 La théorie du danger La théorie du danger est une alternative à la sélection négative. Le principe de la théorie du danger est le suivant : Lorsqu’une cellule est attaquée par un agent infectieux, elle émet un signal de danger qui se propage dans les alentours de la cellule. Ce signal va définir une ‘zone de danger’ tout autour de la cellule attaquée. Les antigènes sont capturés par les macrophages (réponse innée) puis 49 | P a g e présentés aux lymphocytes. Les cellules B qui se lient avec les antigènes dans la zone de danger sont activées et commencent alors à se reproduire, les autres cellules B (qui ne se sont pas liées avec les antigènes ou bien qui sont en dehors de la zone de danger) ne sont pas stimulées [DENECHE, 2006]. La théorie du danger a été appliqué dans plusieurs domaines tel-que la détection d’anomalies (virus informatiques, transactions frauduleuses, défaillances matérielles) aussi dans le datamining et de façon générale dans tout domaine pour lequel on peut définir la nature du ‘danger’. L’inconvénient majeur de la théorie du danger est que le système doit attendre que le soi soit endommagé avant de pouvoir activer la protection, parce qu’il nécessite des exemples d’états dangereux. Ceci n’est pas le cas de la détection négative qui se contente des exemples d’états sains du système [DENECHE, 2006]. Figure II.25 : Principe de la théorie du danger II.3.4.5 Réseaux immunitaires artificiels Un réseau immunitaire artificiel (AIN) est un modèle informatique bio-inspiré qui emploie les idées et les concepts de la théorie des réseaux immunitaires, principalement les interactions entre les cellules-B (stimulation et suppression), et le processus de clonage et de mutation [YAHIAOUI, 2010]. 50 | P a g e De Castro et VonZuben, en 2001 [De Castro et VonZuben, 2001], on proposé aiNet, un algorithme qui combine la théorie des réseaux immunitaires et la sélection clonale. AiNet utilise la notion d’image interne pour représenter les regroupements de données dans un réseau. Par exemple, pour l’ensemble de données de la figure II.26, une architecture hypothétique générée par aiNet est donnée à la figure II.27. Les nœuds représentent les anticorps, les lignes pleines sont des connections entre les anticorps, et les lignes en pointillé sont des connections qui seront éliminées pour révéler les regroupements. Comme le nombre de nœuds du réseau est plus petit que le nombre initial de données, aiNet peut être utilisé pour la compression. Figure II.26 : Exemple de groupements de données Figure II.27 : Réseau immunitaire généré par aiNet. Pour l’algorithme de aiNet, nous avons les étapes suivantes : Initialisation La population d’anticorps est générée aléatoirement. 51 | P a g e La population de cellules mémoire est initialement vide. La population d’antigènes contient les données d’apprentissage. Pour chaque antigène, faire : Répéter pour un certain nombre d’itérations : Evaluation et sélection 1 Evaluer l’affinité de tous les anticorps pour l’antigène courant. Sélectionner n anticorps qui ont les plus grandes affinités. Clonage Cloner les anticorps proportionnellement à leurs affinités. Mutation Muter les anticorps clonés avec un taux inversement proportionnel à leur affinité pour obtenir une population mature. Evaluation et sélection 2 Evaluer l’affinité des anticorps matures pour l’antigène courant ; Sélectionner un pourcentage’ %’ d’anticorps qui ont les meilleures affinités pour obtenir les cellules mémoire. Suppression clonale 1 Eliminer les cellules mémoire qui sont très similaires les unes aux autres. Mémorisation Ajouter les cellules mémoire qui ont une affinité qui dépasse un certain seuil à la population de cellules mémoire. Mort Les anticorps et cellules mémoire non mémorisés sont éliminés. Suppression clonale 2 Eliminer les cellules mémoire (de la population de cellules mémoire) très similaires les unes aux autres. Il y a beaucoup de similarité entre aiNet et les algorithmes de sélection clonale. En fait la sélection clonale artificielle est un cas particulier des réseaux immunitaires. II.3.4.5 .1 Algorithme des réseaux immunitaires artificiels non supervisé L’algorithme suivant est réalisé pour illustrer une étude présentée pour générer un réseau de nœuds significatifs (appelés ARB : Artificial Recognition Balls) qui capturent la structure et les relations entre les éléments de la base de données. 52 | P a g e L’algorithme est basé sur un paramètre de contrôle très important qui est le seuil d’affinité appeler NAT (Network Affinity Threshold), sont rôle est de dicter quand les ARB sont connectés pour former le réseau et les clusters. La connectivité entre les ARB est calculée on utilisant la distance Euclidienne. Si la distance entre deux ARB est inférieure au NAT alors ils sont connectés. La distance euclidienne permette aussi de faire une distinction entre les éléments du réseau [YAHIAOUI, 2010]. La valeur du NAT n’est pas connue à l’avance, l’algorithme doit être exécuté avec plusieurs valeurs, et la valeur qui donne de meilleurs résultats est la valeur du NAT à utiliser. Les étapes de l’algorithme: • Etape d’initialisation Le réseau est initialisé par un petit ensemble d’antigène choisis arbitrairement en créant des ARB qui identifient avec précision ces antigènes, ce petit ensemble représente à peu prés (≈ 5%) de l’ensemble totale des antigènes. La valeur initiale de l’ARB doit produire un réseau non vide, donc cette valeur doit être aussi testée par l’algorithme avec plusieurs valeurs car si ce nombre est trop petit le réseau meurt. • Stimulation 1. Calculer l’affinité entre chaque ARB et tout l’ensemble d’Antigènes : ARB → Ag ps = 1 – dis(p) ⇒ Réaction antigénique La dis(p) renvoie la distance Euclidienne entre l'ARB courant et l'élément p. 2. Calculer l’affinité entre les cellules ARB (voisinage): n ARB → ARB ns = Σ dis(x) ⇒ Réaction idiotopique X=0 La dis(x) renvoie la distance Euclidienne entre l'ARB courant et l'élément x, et n représente le nombre de voisins de l'ARB courant. • Clonage Antigène non reconnu ⇒ Réponse primaire : Expansion du répertoire (intégrer une nouvelle ARB à l’ensemble des ARB). Antigène reconnu ⇒ Réponse secondaire : clonage des ARB. 53 | P a g e • Allocation de ressources L’allocation de ressources est caractérisée par un mécanisme simple de stimulation et de réduction pour mettre à jour le niveau de ressources tenues par chaque ARB. Le niveau des ressources tenues par chaque ARB est calculé selon deux mécanismes : Le premier est un mécanisme de réduction géométrique simple exprimé par la formule suivante : Rdecayed = Rcurrent x decay_Rate Où decay_Rate est une grandeur scalaire entre zéro et un. Pour ce travail une valeur de 0.99. Le deuxième est un mécanisme concernant le niveau de ressources de l'ARB courant est exprimé par la formule suivant : Rnew = Rcurrent + (k x (maxres i– Rdecayed) x S) Où Rnew est le nouveau niveau de ressources pour l'ARB, k est une grandeur scalaire entre zéro et un (une valeur de 0.0005) a été utilisé dans tout ce travail. maxres est le niveau maximum de ressources que n'importe quel ARB peut avoir. Dans tout ce travail, la valeur a été placée à 1000.0. • Et l’étape de la suppression sélective (Culling) Eliminer les ARBs qui ont des ressources inférieures à un certain seuil et celles qui se ressemblent (grande affinité dans la réaction idiotopique), la valeur dans ce travail il a été fixé à 1.0. II.3.5 Conclusion Le système immunitaire naturel est le centre d’intérêt accru pour résoudre divers problèmes, ce système dispose de deux sortes de défenses : les défenses innées, à moyenne efficacité, et les défenses acquises qui sont très efficaces. Sa nature adaptative, et ses mécanismes de défense ont fait de lui un domaine de recherche très prometteur, ce qui a permis la création de l’AIS, un système artificiel compatible, différents algorithmes ont été proposés dans ce cadre et plusieurs problèmes ont été résolus par ce nouveau système. 54 | P a g e Bibliographie [Roitt, 90] : I. Roitt, "Immunologie", Editions Pradel, 1990. [de Castro et Von Zuben, 99] : L. N. de Castro, F. J. Von Zuben, “Artificial immune systems: Part I—basic theory and applications”. Technical Report DCA-RT 01/99, School of Computing and Electrical Engineering, State University of Campinas, Brazil, 1999. [Philippe DARGERE, 2005] : Philippe DARGERE “Système immunitaire et naturopathie“. Extrait du A M E S S I - Alternatives Médecines Evolutives Santé et Sciences Innovantes, pp.6/9. [Lyddyard et al., 2002] : Lyddyard Peter, Alex Whelan et Michael Fanger, “L’essentiel en immunologie“, Port Royal Livres, Paris. BERTI Editions 2002. [LABED Ines, 2006] : LABED Ines “Proposition d’un système immunitaire artificiel pour la détection d’intrusions“ Mémoire présenté Pour l’obtention du diplôme de Magistère Computer Vision Group, Laboratoire LIRE, Université Mentouri, Constantine, Algérie, 2006. [DENECHE, 2006] : Abdel Hakim DENECHE, ″Approches bio inspirées pour la reconnaissance de formes", Mémoire présenté pour l’obtention du diplôme de Magistère en Informatique, Option: Information & Computation, Université Mentouri de Constantine, 2006. [YAHIAOUI, 2010] : Yahiaoui Hadj Habib : « Application des réseaux immunitaires artificiels dans la reconnaissance de formes », Mémoire présenté Pour l’obtention du diplôme de Magistère, Département d’informatique, USTO-MB, 2010. [Larousse médicale, 2006] : Larousse médicale, 2006. ISBN 2-03-560425-7. [Jerne. N. K, 1974]: Jerne N. K., Towards, a network theory of the immune system. Ann. Immunol. (inst. Pasteur) 125C, pp. 373-389, 1974. [deCastro et VonZuben, 2001] : de Castro L. N. et Von Zuben F. J. Learning and Optimization Using the Clonal Selection Principle. the IEEE Transactions on Evolutionary Computation, Special Issue on Artificial Immune Systems , 2001. 55 | P a g e [Timmis, 2001]: J. Timmis « Artificial Immune Systems: A novel data analysis technique inspired by the immune network theory », PhD Thesis, University of Wales, 2001. [Dasgupta, 1999]: D. Dasgupta «Artificial Immune Systems and Their Application », Springer-Verglas, 1999. [Timmis et De Castro, 2002] : Timmis J. et de Castro L. N., Artificial Immune System, A new computational intelligence Approch, ISBN 1-85233-594-7, Eddition Springer, 2002. [Timmis & De Castro.L.N, 2003] : J.Timmis & De Castro.L.N « Artificial Immune System as a novel Soft Computing Paradigm ». To appear in the Soft Computing Journal, vol7, Issue 7, July 2003. [Perelson .A.S & Oster .G.F, 1979]: Perelson .A.S & Oster .G.F « Theoretical studies of clonal selection minimal antibody repertoire size and reliability of Self-Nonself discrimination » J. theor.Biol, 81, pp 645-670, 1979. [Forrest et al, 1994] : Forrest S., Perelson A., Allen L. et Cherukuri R., Self-Nonself discrimination in a computer, Proc. Of the IEEE Symposium on Research in sicurity and privacy, pp. 202-212 , 1994. [Okamoto, T & Ishida, Y, 1999] : Okamoto, T & Ishida, Y « A Distributed Approach to Computer Virus Detection and Neutralization by Autonomous and Heterogeneous Agents », the Proceeding of the ISADS.99, pp.328-331. 1999. [Esponda et Forrest, 2003] : F. Esponda, S. Forrest, “The crossover closure and partial match detector”. In ICARIS- 2003, pp. 249–260, 2003. [Kim et Ben, 2002] : “A model of Gene Library Evolution in the Dynamic Clonal Selection Algorithm”, ICARIS, pp.175-182, 2002. [Whi et Gar, 2003] : J. A. White, S. M. Garrett, “Improved pattern recognition with artificial clonal selection”. In Proceedings of ICARIS, 2003. 56 | P a g e [Coe et Cor, 05] : C.A.C. Coello, N.C. Cortez, "Solving Multiobjective Optimization Problems Using an Artificial Immune System", Genetic Progrqmming and Evolvable Machines, vol. 6, pp. 163-190, 2005. 57 | P a g e Chapitre III Solution Proposée Chapitre III Solution proposée III Introduction Les méthodes qui ont été proposées pour résoudre le problème de contrôle d’accès aux réseaux sociaux visent généralement l’utilisateur plus particulièrement son accès au réseau social et l’accès à ses données, la solution que nous allons proposer est bien différente mais elle vise toujours l’utilisateur du réseau social. La méthode permet de classifier les utilisateurs des sites des réseaux sociaux en deux classes (classe confiance et classe menace), elle est basée sur des critères de confiance bien définis et réalisée en utilisant un réseau immunitaire artificiel. III.1 Idée générale Notre méthode est tirée de notre vie quotidienne, chacun de nous possède un nombre d’amis qui varie entre une personne et une autre, cette amitié est en fonction des intérêts communs partagés par les individus ; avec chaque personne nous partageons une quantité d’informations qui peuvent être semblables ou qui diffèrent d’une personne à une autre. Socialement il existe toujours un moyen (des critères) pour savoir à quel moment et avec qui on peut partager ses informations. Les amis sont toujours choisis selon des critères bien définis et propres à chaque personne. Dans notre système, nous allons utiliser le même principe, nous allons choisir quelques critères qui peuvent nous donner la possibilité de créer deux classes distinctes, une classe pour des utilisateurs confiants et une autre classe pour des utilisateurs qui constituent une menace, nous devons aussi mentionner que ces critères sont choisis comme un échantillon pour établir la classification et pour réaliser notre méthode. III.2 Classification des utilisateurs dans le réseau social La classification concerne typiquement l’identification de sous-population ayant des caractéristiques proches dans les bases de données. Le but de cette classification est d’établir les propriétés des objets aux comportements similaires, afin de les associer à leurs classes adéquates. Chaque internaute inscrit dans le site se comporte d’une manière différente par 59 | P a g e rapport aux autres utilisateurs, notre système doit classifier les utilisateurs du site social selon des critères de confiance choisis. III.2.1 Les critères proposés Les critères proposés sont extraits du comportement de l’utilisateur dans le réseau social (son activité, son comportement avec ses amis….), ainsi que des données qu’il va insérer lors de la création de son compte dans le site comme (le nom et prénom, la région, les photos et informations partagés…). Nous avons choisi des critères extraits durant et après la création du compte : a) Les critères extraits durant la création du compte Les critères extraits durant la création du compte sont : le nom et prénom, la région et le pseudonyme. Le champ pseudonyme n’existe pas dans les sites sociaux actuels, mais nous allons l’ajouter pour laisser le choix à l’utilisateur soit de remplir les champs nom et prénom, ou de remplir le champ pseudonyme, de même pour le champ région ce champ n’existe pas dans la page accueil des sites des réseaux sociaux. Remarque : (Le champ pseudonyme est un champ piège, selon le principe des réseaux sociaux chaque utilisateur, doit remplir son nom et son prénom pour qu’il puisse être reconnu par les autres utilisateurs inscrits dans le site, si un utilisateur donné rempli le champ pseudonyme nous allons supposer que cet utilisateur n’accède pas au site social avec de bonnes intentions). b) Les critères extraits après la création du compte Quand un internaute accède au réseau après la création de son compte, nous allons essayer de contrôler son comportement dans le réseau. Ce comportement est caractérisé par les critères suivants : b.1) L’activité : ce critère va nous permettre de savoir si un utilisateur i est actif ou pas, en d’autres termes s’il accède fréquemment à son compte ou rarement. b.2) La réputation: Le champ réputation n’existe pas dans les sites sociaux actuels. Nous allons supposer que dans notre site social il existe un champ où chaque internaute doit donner un avis de (bonne réputation ou mauvaise réputation) sur chaque ami. b.3) Le partage de documents : après que l’utilisateur s’inscrit dans le site on peut remarquer si cet internaute partage ses données ou pas avec ses amis. 60 | P a g e b.4) Le nombre d’invitations acceptées : après que l’utilisateur s’inscrit dans le site, on peut compter le nombre d’invitations acceptées (par les autres utilisateurs du réseau) par rapport au nombre d’invitations envoyées. III.2.2 La représentation des critères Une application doit attribuer à chaque critère une valeur binaire (1 ou 0), ou bien un pourcentage calculé selon une formule mathématique. Donc chaque utilisateur i est présenté de la forme suivante : Utilisateur i (Utilisateur ID (nom et prénom ou pseudonyme); Région; Activité; Partage document ; Réputation ; Nombre d’invitation). III.2.2.1 Illustration des différents critères Pour illustrer nos critères nous allons les représenter sur une interface d’un réseau social réel qui est Facebook. Ajouter un champ pour le pseudonyme et un autre champ pour la région Figure III.1 Les critères illustrés sur l’interface du réseau social Facebook (1) 61 | P a g e Ajouter un champ réputation ou chaque internaute doit donner un avis sur la réputation de ses amis Figure III.2 Les critères illustrés sur l’interface du réseau social Facebook (2) L’activité, le partage de document et le nombre d’invitations, ne sont pas représenter dans l’interface comme des champs visible. Le critère Valeur appropriée Nom & prénom 1 Pseudonyme 0 Région 1 (si la région est vraie) ou 0 (si elle est fausse) Activité Pourcentage % Partage de document 1 (s’il partage) ou 0 (s’il ne partage pas) Réputation Pourcentage % Nombre d’invitation Pourcentage % Tableau III.1 : Les valeurs des critères proposés 62 | P a g e III.2.2.2 Comment attribuer la valeur binaire à chaque critère ? Si un utilisateur i remplit les champs nom et prénom, la valeur binaire attribuée à ce critère (nom et prénom) est égale à 1, sinon s’il remplit le champ pseudonyme la valeur binaire attribuée va être égale à 0 ; S’il remplit sa vraie région la valeur binaire doit être égale à 1 sinon, s’il remplit une fausse région la valeur binaire est égale à 0 ; Et si l’utilisateur partage ses données avec d’autres utilisateurs du réseau social la valeur binaire attribuée est égale à 1 sinon s’il ne partage rien la valeur binaire attribuée est égale à 0. III.2.2.3 Comment calculer le pourcentage ¨%¨ ? Le pourcentage est une valeur sensible, elle dépend toujours du comportement de l’utilisateur, le calcul du pourcentage est presque analogue pour chaque critère proposé : a) Le critère Réputation Pour chaque utilisateur i, nous comptons le nombre d’amis qui ont mentionné une bonne réputation à son propos, le calcul de pourcentage est de la forme suivante : P = (Ra *100) / Ta • Ra est le nombre d’amis qui ont mentionné une bonne réputation sur l’utilisateur i ; • Ta est le nombre total des amis de l’utilisateur i ; • P est le pourcentage du degré de réputation à calculer. Si la valeur de P est de 50% et plus cela veut dire que l’utilisateur i donne une bonne impression sur lui dans le site, sinon si la valeur de P est inferieur à 50% alors l’utilisateur i a une mauvaise réputation dans le site. b) Le critère Nombre d’invitations Pour chaque utilisateur i, nous comptons le nombre d’invitations d’amis acceptées, le calcul du pourcentage est de la forme suivante : N = (I *100) / Ti 63 | P a g e • I est le nombre d’invitations acceptées ; • Ti est le nombre total d’invitations ; • N est le pourcentage du nombre d’invitation à calculer. Si la valeur de N est de 50% et plus cela veut dire que cet internaute à des connaissances dans le site, sinon si la valeur de pourcentage du nombre d’invitations est inferieur à 50% alors cet internaute a abusé le système par des invitations destinées à des personnes inconnues. c) Le critères Activité Le calcul du pourcentage du critère Activité est différent des autres critères. Généralement l’utilisateur accède au moins deux fois par jour à son compte dans le réseau social selon une étude qui à été faite sur le réseau social Facebook, donc si on veut calculer le pourcentage de l’activité d’un utilisateur pour une durée donnée N, le calcul doit être de la forme suivante : S = (A *100) / (2*N jours) • (2*N jours) est le nombre moyen d’accès au réseau social; • A est la valeur d’accès au réseau social propre pour chaque utilisateur ; • S est le pourcentage d’accès à calculer. Si la valeur d’accès au réseau social propre pour chaque utilisateur dépasse le nombre moyen d’accès au réseau social, le système doit négliger la valeur propre et la remplacer par le nombre moyen d’accès au réseau. Exemple 1 Pour une duré d’un mois le nombre moyen d’accès au réseau social est égale à : (30 jours *2) = 60, donc pour un utilisateur moyen l’accès doit être égale à 60 fois pour 30 jours, alors si un utilisateur accède 65 fois à son compte par 30 jours le système doit changer la valeur 65 par 60 est par la suite calculer le pourcentage. 64 | P a g e Exemple 2 : A(hmed) est un utilisateur d’un réseau social, quand il a créé son compte, il a rempli le champ nom et prénom, mentionné sa vraie région, il accède fréquemment au site, il partage ses informations avec ses amis, il a une bonne réputation avec ses amis et toute ses demandes d’invitations ont été acceptées, donc A(hmed) est considéré comme utilisateur de confiance. Exemples de représentation : Utilisateur A : (1, 1, 0.80, 1, 0.90, 1.00) ou Utilisateur A : (1, 1, 0.90, 1, 0.80, 1.00) ou Utilisateur A : (1, 1, 0.70, 1, 0.70, 1.00). Exemple 3 : L(eila) est un utilisateur du même réseau social, quand elle a créé son compte, elle a rempli le champ pseudonyme, elle a mentionné une fausse région, elle accède fréquemment au site, elle ne partage pas ses données, la plupart de ses contacts mentionnent un avis non favorable à son égard, et la moitié de ses invitations ont été refusées, donc L(eila) est considérée comme utilisateur menace. Exemples de représentation : Utilisateur L :( 0, 0, 0.70, 0, 0.30, 0.50) ou Utilisateur L :( 0, 0, 0.60, 0, 0.10, 0.30) ou Utilisateur L :( 0, 0, 0.40, 0, 0.50, 0.20). III.3 L’architecture de notre système Notre méthode a comme but la classification des utilisateurs des sites des réseaux sociaux en deux classes, cette classification permet à l’utilisateur et à l’administrateur de savoir à tout moment la nature (menace ou confiant) des internautes inscrits dans le site. Le réseau immunitaire artificiel reçoit les valeurs des critères des utilisateurs du réseau social pour les traiter afin de les classifier en utilisateurs de classe confiance ou des utilisateurs de classe menace. La figure III.3 illustre la représentation de l’architecture de notre système : 65 | P a g e Utilisateur Figure III.3 Architecture du système proposé III.4 Algorithme du Réseau immunitaire artificiel Nous allons utiliser un algorithme d’un réseau immunitaire artificiel non supervisé, cet algorithme est caractérisé par cinq étapes : • Etape d’initialisation Initialiser l’ensemble des ARB (cellule Anticorps) par un nombre minime de l’ensemble des individus (≈ 5%). Le reste des individus représente les Antigènes (≈ 95%). 66 | P a g e • Etape de stimulation 1. Calculer l’affinité entre chaque ARB et tout l’ensemble d’Antigènes : ARB → Ag ps = 1 – dis(p) ⇒ Réaction antigénique 2. Calculer l’affinité entre les cellules ARB (voisinage): ARB → ARB ns = Σ dis(x) ⇒ Réaction idiotopique • Etape de clonage 1. Antigène non reconnu ⇒ Réponse primaire : Expansion du répertoire (intégrer une nouvelle ARB à l’ensemble des ARB). 2. Antigène reconnu ⇒ Réponse secondaire : clonage des ARB. • Etape d’allocation de ressources Réduction : Rdecayed = Rcurrent x decay_Rate Nouveau degré de ressources : Rnew = Rcurrent + (k x (maxres i– Rdecayed) x S) • Et l’étape de la suppression sélective (Culling) Eliminer les ARBs qui ont des ressources inférieures à un certain seuil et celles qui se ressemblent (grande affinité dans la réaction idiotopique). Paramètres de l’algorithme Niveau de stimulation (S) c’est la valeur calculé au niveau de l’étape de stimulation. Proximité au niveau maximum de ressources (maxres - Rdecayed) ⇒ ( maxres = 1000.0 et decay_Rate = 0.99) . Grandeur scalaire (k) (très petite = 0.0005) III.5 Implémentation L’algorithme est réalisé en utilisant le langage C pour le traitement des données et la classification des utilisateurs, et aussi le langage java pour la représentation des résultats et la réalisation des tests. 67 | P a g e III.5.1 Traitement des données Chaque utilisateur i est représenté par six critères, Utilisateur i (Utilisateur ID (nom et prénom ou pseudonyme); Région; Activité; Partage document ; Réputation ; Nombre d’invitation), le tableau III.2 illustre la représentation d’un échantillon de notre base de données sachant que nous avons utilisé un échantillon de 100 individus, 50 utilisateurs confiants et 50 utilisateurs menaces. Utilisateur 0 1 1 1.00 1 1.00 1.00 confiance Utilisateur 1 0 0 0.80 0 0.10 1.00 menace Utilisateur 2 0 0 0.70 0 0.10 0.70 menace Utilisateur 3 1 0 0.50 0 0.30 1.00 menace Utilisateur 4 0 0 0.70 0 0.20 1.00 menace Utilisateur 9 1 1 0.90 1 0.90 1.00 confiance Utilisateur 10 0 1 1.00 1 1.00 1.00 confiance Utilisateur 11 0 0 1.00 0 1.00 0.00 menace Utilisateur 15 1 1 0.80 1 0.80 0.90 confiance Utilisateur 26 1 1 0.80 1 1.00 0.90 confiance Tableau III.2 Échantillon de la BDD L’algorithme se base sur quelques points initiaux, parmi ces points nous allons citer (le nombre d’itération, le nombre d’ARB initiale, et le seuil d’affinité). Nous avons réalisé le traitement des données pour différentes itérations, avec chaque itération nous avons changé le nombre initial d’ARB (cellule Anticorps) et le seuil d’affinité pour réaliser le traitement. Le tableau III.3 représente les différentes itérations avec le changement du seuil d’affinité et le nombre d’ARB généré : 68 | P a g e Le nombre Le nombre d’ARB Le seuil d’affinité Le nombre d’ARB d’itération initiale NAT généré 100 5 0.45 23 200 5 0.45 28 300 5 0.45 29 400 5 0.45 29 500 5 0.45 29 1000 5 0.45 29 1000 7 0.45 31 1000 5 0.5 35 1000 7 0.5 34 2000 8 0.90 31 3000 7 1.5 8 Tableau III.3 Représentation des différents ARB générés • Le nombre d’itérations n’influe plus sur le nombre d’ARBs généré s’il dépasse les 200 itérations ; • Le nombre d’ARBs initial influe sur le nombre d’ARBs généré. A chaque changement d’ARB initial le nombre d’ARB généré peut soit augmenter soit diminuer ; • Le seuil d’affinité influe sur le nombre d’ARB généré. A chaque changement de seuil d’affinité le nombre d’ARB généré peut soit augmenter soit diminuer. • Le changement d’itération influe moins sur le nombre d’ARBs généré contrairement au seuil d’affinité et au nombre d’ARB initial qui influe le plus. 69 | P a g e III.5.2 La représentation des résultats Pour représenter les résultats de la classification, nous avons choisi les valeurs du traitement suivant : Le nombre Le nombre d’ARB d’itération initiale 3000 7 Le seuil d’affinité Le nombre d’ARB généré 1.5 8 Tableau III.4 Les valeurs choisis pour le traitement Chaque ARB généré a pu reconnaitre un ensemble d’individus soit confiants, soit menaces. Le tableau III.5 représente les différents ARBs générés avec le type de classe de chaque utilisateur : Les ARB générés 0, 2, 5, 7 1, 3, 4, 6 Les utilisateurs reconnus Le type de classe Le taux de reconnaissance Le taux d’erreur 0, 9, 10, 15, 20, 22, 26, 34, 37, 38,46, 48, 50, 53, 66, 23, 25, 28, 29, 40, 41, 45, 52, 58, 59, 67,69, 71, 27, 54, 70, 21, 35, 36, 39, 47, 49, 51,60, 64, 65, 68, 72, 74, 75, 76, 77, 78, 98, 99 Confiance 100% 0% Menace 100% 0% 5, 7, 8, 11,13, 14, 17, 18, 31,33, 43, 44, 55, 57, 61, 63,79, 83, 85, 86, 88, 91, 94, 95, 97, 1, 2, 3, 4, 19, 24, 30, 32, 42, 73, 80, 81, 82, 89, 90, 93, 96, 6, 56, 62, 12, 16, 84, 87,92 Tableau III.5 Représentation des différents utilisateurs reconnus, avec leurs types de classes 70 | P a g e III.5.3 Test Le tableau III.6 représente un échantillon d’un groupe d’utilisateurs qui n’appartiennent pas à la base de données utilisée. Pour effectuer un nouveau test par le système réalisé, les utilisateurs (101, 106, 107, 109, et 110) représentent des utilisateurs de confiance et les utilisateurs (102, 103, 104, 105, et 108) représentent des utilisateurs de menace : Utilisateur 101 1 1 0.70 1 1.00 1.00 Utilisateur 102 0 0 0.60 0 0.20 1.00 Utilisateur 103 0 0 0.80 0 0.10 0.70 Utilisateur 104 0 0 0.40 0 0.30 1.00 Utilisateur 105 0 0 0.60 0 0.20 1.00 Utilisateur 106 1 0 0.90 1 0.90 1.00 Utilisateur 107 0 1 1.00 1 1.00 0.90 Utilisateur 108 0 0 0.90 0 1.00 0.00 Utilisateur 109 1 1 0.70 1 0.80 0.70 Utilisateur 110 1 1 0.90 1 0.90 0.90 Tableau III.6 Représentation d’un nouveau groupe d’utilisateurs III.5.4 Les résultats du test : Les résultats du test sont représentés dans le tableau III.7 : Les utilisateurs à tester La valeur de l’ARB reconnu Utilisateurs (102, 103, 104, 105) ARB n° (3) Utilisateurs (101, 106, 107, 110) ARB n° (0) Utilisateur 108 ARB n° (1) Utilisateur 109 ARB n° (7) Tableau III.7 La représentation des résultats obtenus 71 | P a g e Selon les résultats obtenus, on peut remarquer que les utilisateurs (102, 103, 104, 105) ont été reconnus par l’ARB n° (3), qui représente des utilisateurs de classe menace. Les utilisateurs (101, 106, 107, 110) ont été reconnus par l’ARB n° (0), qui représente des utilisateurs de classe de confiance. L’utilisateur 108 est reconnu par l’ARB n° (1), qui représente des utilisateurs de classe menace, et l’utilisateur 109 est reconnu par l’ARB n° 7, qui représente des utilisateurs de classe de confiance. Donc on peut déduire que le système a bien classifié les nouveaux utilisateurs proposés. Remarque 1. Nous avons réalisé le même système mais en utilisant quatre critères seulement Utilisateur i (Utilisateur ID (nom et prénom ou pseudonyme); Région; Activité; et Partage document) : les résultats obtenus n’étaient pas satisfaisants, un des ARB généré a reconnu des utilisateurs qui ne devraient pas appartenir à sa classe. 2. Avec les six critères utilisés pour la classification des 100 individus, nous avons obtenu une très bonne classification, entre temps nous avons changé les valeurs, nous avons travaillé avec 50 individus de confiance et 30 de menace, ensuite 20 utilisateurs de confiance et 40 de menace et on a toujours obtenu une très bonne classification. III.6 Points complémentaire La validation du système n’est pas implémentée, elle demande la réalisation d’un réseau social, néanmoins nous allons citer les principales étapes que le système doit prendre en considération : Pour l’utilisateur Chaque utilisateur de la classe ‘confiance’ doit être informé de la nature de ses amis et de ses nouveaux contacts pour garantir une sécurité locale: 1. Pour un nouveau contact : Supposons que Ahmed est un utilisateur dans la classe ‘confiance’ et que Ali est un utilisateur de la classe ‘menace’, Ahmed invite Ali, le système avertira Ahmed que Ali peut représenté une menace pour lui par un message d’avertissement envoyé à sa boite email, et s’il veut toujours l'inviter. Si Ahmed autorise toujours l'invitation d’Ali, le système doit enregistrer l'heure, la date, et la confirmation d’Ahmed. 72 | P a g e 2. Pour un ancien contact (ami) : Si Ali est déjà un ami de Ahmed, le système doit avertir Ahmed que Ali peut représenter une menace pour lui par un message d’avertissement envoyer à sa boite email pour lui demander s'il veut toujours contacter Ali ou le supprimer de sa liste de contacts, le système doit aussi enregistrer l'heure, la date, et la confirmation de Ahmed. Pour l’administrateur L’administrateur doit être informé à tout moment de la nature des utilisateurs inscrits dans le site du réseau social, et des informations enregistrées par le système de chaque confirmation, Si un jour un utilisateur attaque le site du réseau social en justice, pour un contact de la classe menace, le réseau social peut se défendre par les informations de confirmation qui ont été déjà enregistrées par le système. III.7 Conclusion Le système proposé est réalisé en utilisant un réseau immunitaire non supervisé, il permet de classifier les utilisateurs des sites des réseaux sociaux, en deux classes, une pour les utilisateurs confiants, et une autre pour les utilisateurs menaces. Notre base de données comporte deux types de classes, 50 utilisateurs pour la classe de confiance et 50 utilisateurs pour la classe qui constitue une menace. Nous avons eu une reconnaissance complète des 100 utilisateurs choisis pour notre échantillon. Notre système permet non seulement de classifier les utilisateurs mais aussi de donner la possibilité de faire des tests d’appartenance pour de nouveaux utilisateurs et les affecter dans des classes adéquates. 73 | P a g e Travaux scientifiques Papier accepté sous le titre "Classification of the Social Networks Users: Application of the Artificial Immune Networks", dans ‘The 2011 International Workshop on Social Computing, Network, and Services’ (SocialComNet 2011) http://www.ftrai.org/socialcomnet2011-11-07 Crete, Greece, June 28-30,2011 (in Conjunction with FutureTech 2011) Papier accepté et communiqué "Security of the Social Network Site User", dans ‘2011 International Conference on Security and Management’ (July 18-21, 2011, Las Vegas, USA), Publier dans ‘SAM2011, PROCEDINGS OF INTERNATIONAL CONFERENCE ON SECURITY AND MANAGEMENT’ WORDCOMP’11 July 18-21, 2011 Las Vegas Nevada, USA www.world-academy-of-science.org Copyright 2011CSREA Press ISBN: 1-60132-196-1, 1-60132-197-X (1-60132-198-8) Printed in the United States of America 74 | P a g e Conclusion générale Conclusion générale et perspective Notre méthode est une continuation des méthodes qui ont été déjà proposées, néanmoins elle est destinée à l’utilisateur et à l’administrateur du réseau social. Les méthodes précédentes se basaient sur le degré de confiance et le type de relation, notre méthode se base sur des critères de confiance choisis, pour réaliser une classification destinée à l’utilisateur du réseau social et pour qu’il puisse savoir la nature (confiance ou menace) de ses amis et de ses nouveaux contacts dans le site social. Nous avons utilisé un réseau immunitaire artificiel non supervisé, pour réaliser cette classification et permettre d’exploiter un espace de recherche plus vaste, et aussi pour généraliser les profils de la base de données en classes capables de représenter deux types d’utilisateurs (utilisateurs de classe confiance et d’autres de classe menace). Nos résultats restent toujours dans le cadre expérimental, c’est de la théorie qui devrait être appliquée sur un réseau social réel afin de déceler les lacunes de notre méthode, les critères utilisés peuvent êtres changés ou être insuffisants dans un site social réel. Nous tenons aussi à souligner que la classification peut être réalisée en utilisant les réseaux de neurones, une comparaison entre les résultats obtenus nous permettra de savoir quel est le meilleur algorithme qui nous assure une bonne classification dans un réseau social réel, et comme travail future, on peut ajouter le degré de menace sous forme de pourcentage pour chaque utilisateur du site du réseau social.