Apprentissage supervisé et non supervisé

Top PDF Apprentissage supervisé et non supervisé:

2020 — Approches basées sur l'analyse des sentiments et les techniques d'apprentissage supervisé pour des systèmes de réputation robustes dans l'environnement du commerce électronique

2020 — Approches basées sur l'analyse des sentiments et les techniques d'apprentissage supervisé pour des systèmes de réputation robustes dans l'environnement du commerce électronique

Les résultats mesurés de nos expériences montrent que l’algorithme SVM surpasse les autres algorithmes, et qu’il atteint la plus grande précision non seulement dans la classification des textes, mais aussi dans la détection des fausses revues. Deuxièmement, nous avons effectué une étude comparative de quatre algorithmes d’apprentissage machine supervisé : Naïve Bayes (NB), Arbre de décision (DT-J48), Régression logistique (LR) et Machine à vecteurs de support (SVM) pour la classification des sentiments en utilisant trois bases de données de revues en Amazon, incluant les revues de vêtements, chaussures et bijoux, les revues des bébés ainsi que les revues des animaux de compagnie. Afin d’évaluer la performance de la classification des sentiments, ce travail a mis en œuvre l’exactitude, la précision et le rappel comme mesures de performance. Les résultats de nos expériences montrent que l’algorithme de Régression Logistique (LR) est le meilleur classificateur avec la plus grande précision par rapport aux trois autres classificateurs, non seulement dans la classification des textes, mais aussi dans la détection des revues injustes. Enfin, le but du présent travail est d’utiliser une technique statistique pour exclure les revues injustes et d’illustrer son efficacité par des simulations. De plus, nous avons calculé les scores de réputation à partir des rétroactions des utilisateurs, en nous basant sur un modèle d’analyse du sentiment (MAS), afin d’obtenir des informations utiles à partir des revues, en se basant sur un algorithme de régression logistique avec deux sélections de caractéristiques différentes. Les résultats expérimentaux basés sur deux bases de données différentes démontrent l’efficacité de notre approche dans la récupération d’informations de réputation à partir des revues.
Show more

196 Read more

Appariement d'entités nommées coréférentes : combinaisons de mesures de similarité par apprentissage supervisé

Appariement d'entités nommées coréférentes : combinaisons de mesures de similarité par apprentissage supervisé

Appariement d’entités nommées coréférentes par apprentissage supervisé Dans les données fournies à l’algorithme d’apprentissage, chaque couple d’entités est repré- senté par un ensemble de paramètres choisis pour leur contribution potentielle à la détection d’une coréférence. Parmi ces paramètres figurent bien entendu les scores de similarité obte- nus avec différentes mesures, mais aussi certaines caractéristiques du couple d’EN telles que leurs longueurs (en nombre de caractères et de mots) et leurs fréquences minimales et maxi- males. Nous utilisons le logiciel Weka (Witten & Frank, 2005) pour réaliser l’apprentissage 14 ,
Show more

11 Read more

Détection de la négation : corpus français et apprentissage supervisé

Détection de la négation : corpus français et apprentissage supervisé

2.1 Les données Ces dernières années, avec la démocratisation des techniques d’apprentissage supervisé, plusieurs corpus de spécialité ont été annotés afin d’entraîner des modèles pour la détection automatique de la négation en anglais. Les corpus se divisent en deux catégories : les corpus avec marqueurs et portées annotées, comme Bioscope (Vincze et al., 2008) et *SEM-2012 par exemple, ainsi que les corpus se focalisant sur le contexte entourant les entités nommées tels que Shapn, i2b2 et mipacq.

9 Read more

Localisation sonore par attention et apprentissage profond semi-supervisé

Localisation sonore par attention et apprentissage profond semi-supervisé

LAAS, Université de Toulouse, CNRS, Toulouse mmoreaux@laas.fr 1 Résumé Afin d’interagir avec l’humain et son environnement, un robot de service doit pouvoir percevoir des informations visuelles et sonores de la scène qu’il observe ou à laquelle il participe. Il doit notamment être capable de repérer des éléments saillants dans les différents signaux captés : localisation spatiale dans une image ou temporelle dans un flux audio. L’aspect "datavore" des méthodes dites d’apprentissage profond, et le coût considérable de l’annotation des données, militent pour l’utilisation de méthodes semi-supervisées, capables d’une part d’extraire de l’information de manière supervisée, et d’autre part de prédire l’organisation spatiale ou temporelle des événements présents dans le signal traité. Dans le domaine de la vision, ce concept a été utilisé à plusieurs reprises pour effectuer de la localisation spatiale d’objet ou d’activité sur des images [1, 2, 3] à partir des signaux 2D bruts (pixels). Au niveau audio, la tendance consistant à s’affranchir des représentations bas niveau de type MFCC [4] a fait son apparition, permettant ainsi un traitement direct du signal audio brut [5, 6, 7, 8] et laissant aux réseaux de neurones la tâche d’extraire les caractéristiques représentatives optimales des signaux traités. Dans cet article, nous proposons un réseau convolutionnel, associé à un mécanisme d’attention, permettant l’exploitation du signal audio brut, afin non seulement de classifier, mais aussi de localiser temporellement un événement sonore présent dans le flux traité, et ce de manière semi-supervisé.
Show more

4 Read more

RankMerging: Apprentissage supervisé de classements pour la prédiction de liens dans les grands réseaux sociaux

RankMerging: Apprentissage supervisé de classements pour la prédiction de liens dans les grands réseaux sociaux

∗∗∗ naXys, Université de Namur, Namur, Belgique Résumé. Trouver les liens manquants dans un grand réseau social est une tâche difficile, car ces réseaux sont peu denses, et les liens peuvent correspondre à des environnements structurels variés. Dans cet article, nous décrivons RankMer- ging, une méthode d’apprentissage supervisé simple pour combiner l’informa- tion obtenue par différentes méthodes de classement. Afin d’illustrer son inté- rêt, nous l’appliquons à un réseau d’utilisateurs de téléphones portables, pour montrer comment un opérateur peut détecter des liens entre les clients de ses concurrents. Nous montrons que RankMerging surpasse les méthodes à disposi- tion pour prédire un nombre variable de liens dans un grand graphe épars.
Show more

8 Read more

Les Forêts Aléatoires en Apprentissage Semi-Supervisé (Co-forest) pour la segmentation des images rétiniennes

Les Forêts Aléatoires en Apprentissage Semi-Supervisé (Co-forest) pour la segmentation des images rétiniennes

Méthodes de classification par apprentissage semi-supervisé en apprentissage supervisé, les algorithmes infèrent un modèle de prédiction à partir de données préalablement étiquetées. Ce- pendant, l’étiquetage est un processus long et coûteux qui nécessite souvent l’intervention d’un expert. Cette phase contraste avec une acquisition automatique des données. Ce n’est alors pas rare de se retrouver avec un volume important de données dont seulement une petite partie a pu être étiquetée. Par exemple, en recherche d’images par contenu, l’utilisateur souhaite étiqueter le minimum d’images pour fouiller une base aussi grande que possible. Dans ce contexte, l’appren- tissage semi-supervisé (SSL) intègre les données non-étiquetées dans la mise en place du modèle de prédiction. En ce sens, l’apprentissage semi-supervisé est à mi-chemin entre les apprentissages supervisé et non-supervisé : il cherche à exploiter les données non-étiquetées pour apprendre la relation entre les exemples et leur étiquette.
Show more

26 Read more

Construction d'une entropie décentrée pour l'apprentissage supervisé

Construction d'une entropie décentrée pour l'apprentissage supervisé

Résumé. En apprentissage supervisé, de nombreuses mesures sont fondées sur la notion d’entropie. Une caractéristique majeure des entropies est qu’elles sont maximales lorsque la distribution des modalités de la variable de classe est uni- forme, ce qui peut être un inconvénient lorsque cette distribution est très éloignée de l’uniformité. Pour traiter ce cas, nous proposons une entropie décentrée qui prend sa valeur maximale pour une distribution donnée. Cette distribution peut être la distribution a priori des classes ou une distribution tenant compte des coûts de mauvaise classification ou plus généralement une distribution fixée par l’utilisateur.
Show more

11 Read more

Techniques d'apprentissage supervisé pour l'extraction d'événements TimeML en anglais et français

Techniques d'apprentissage supervisé pour l'extraction d'événements TimeML en anglais et français

4. Systèmes d’extraction Les systèmes d’extraction que nous proposons se veulent souples pour pouvoir être facilement adaptés à des nouvelles langues ou textes. Comme pour de nombreux systèmes de l’état-de-l’art, ils s’inscrivent dans un cadre standard d’apprentissage ar- tificiel supervisé : des données annotées avec les éléments TimeML recherchés sont fournies pour entraîner nos systèmes, qui sont ensuite évalués sur un jeu de données de test disjoint. La tâche d’apprentissage est donc une tâche d’annotation des textes : le but des classifieurs est d’assigner une étiquette à chaque mot indiquant s’il est un événement ou non. Certains événements étant exprimés par des syntagmes compo- sés de plusieurs mots, le schéma d’annotation BIO est utilisé (B indique le début du syntagme, I la continuité, et O sont pour les mots hors du syntagme événement). Les données d’entraînement sont des extraits de corpus annotés avec ces étiquettes pour chaque mot et sont décrits par différents attributs que nous détaillons ci-dessous, qui sont ensuite exploités par les techniques d’apprentissage que nous présentons en sous- section 4.2 et 4.3. Après la phase d’entraînement, pour annoter de nouveaux textes, à chaque mot de chaque phrase, les classifieurs inférés décident de l’étiquette la plus probable en fonction des attributs du mot courant et du contexte environnant. 4.1. Attributs
Show more

17 Read more

Extension des Programmes Génétiques pour l’apprentissage supervisé à partir de très larges Bases de Données  (Big data)

Extension des Programmes Génétiques pour l’apprentissage supervisé à partir de très larges Bases de Données (Big data)

[ UCI 1999a ], contenant 494021 exemples d’apprentissage répartis sur 4 classes d’attaques et une classe normale. 3.2 Échantillonnage dans la boucle GP Dans la boucle évolutionnaire (figure 1.1 ), c’est l’évaluation de la population qui est à l’origine du problème de coût de calcul. Ceci est plus accentué avec les problèmes d’apprentissage supervisé. En effet, dans cette étape, tous les individus (programmes) sont exécutés un nombre d’itérations égal à la taille de la base d’apprentissage. La figure 3.1 décortique l’évaluation d’un individu sur un exemple d’apprentissage. Son phénotype est ( i f ( I N3 > 0.3, I N3, I N0 + I N1 ) < 0.6 ) qui est représenté par l’arbre d’expression dans la même figure. Selon l’expression, les valeurs sont lues à partir de chaque exemple d’apprentissage (illustrée par une ligne du tableau). Le résultat est traduit en une prédiction de classe dans le cas d’une classification puis comparé à la classe réelle fournie par la base d’apprentissage. La valeur de fitness est calculée après avoir testé tout l’ensemble d’apprentissage selon la fonction de fitness adoptée (par exemple le taux de bonnes classifications).
Show more

192 Read more

Apprentissage faiblement supervisé de la structure discursive

Apprentissage faiblement supervisé de la structure discursive

R ÉSUMÉ L’avènement des techniques d’apprentissage automatique profond a fait naître un besoin énorme de données d’entraînement. De telles données d’entraînement sont extrêmement coûteuses à créer, surtout lorsqu’une expertise dans le domaine est requise. L’une de ces tâches est l’apprentissage de la structure sémantique du discours, tâche très complexe avec des structures récursives avec des données éparses, mais qui est essentielle pour extraire des informations sémantiques profondes du texte. Nous décrivons nos expérimentations sur l’attachement des unités discursives pour former une structure, en utilisant le paradigme du data programming dans lequel peu ou pas d’annotations sont utilisées pour construire un ensemble de données d’entraînement “bruité”. Le corpus de dialogues utilisé illustre des contraintes à la fois linguistiques et non-linguistiques intéressantes qui doivent être apprises. Nous nous concentrons sur la structure des règles utilisées pour construire un modèle génératif et montrons la compétitivité de notre approche par rapport à l’apprentissage supervisé classique.
Show more

11 Read more

Apprentissage non-supervisé pour l'appariement et l'étiquetage de cas cliniques en français

Apprentissage non-supervisé pour l'appariement et l'étiquetage de cas cliniques en français

Nous présentons le système utilisé par l’équipe Synapse/IRIT dans la compétition DEFT2019 portant sur deux tâches liées à des cas cliniques rédigés en français : l’une d’appariement entre des cas cliniques et des discussions, l’autre d’extraction de mots-clefs. Une des particularité est l’emploi d’apprentissage non-supervisé sur les deux tâches, sur un corpus construit spécifiquement pour le domaine médical en français

10 Read more

Échantillonnage compressé et réduction de dimension pour l'apprentissage non supervisé

Échantillonnage compressé et réduction de dimension pour l'apprentissage non supervisé

The initial idea is to make a parallel between two a priori different domains: on the one hand, inverse problems, and more particularly the recent theory of compressed sensing, which are[r]

129 Read more

Apprentissage non supervisé de la segmentation lexicale automatique du chinois basé sur les réseaux bayésiens avec application aux textes des médias sociaux

Apprentissage non supervisé de la segmentation lexicale automatique du chinois basé sur les réseaux bayésiens avec application aux textes des médias sociaux

La méthode des chiffres étant la plus facile à utiliser pour intégrer le pinyin dan s un fichier électronique, comme c' est le cas dans cette thèse de doctorat , [r]

168 Read more

Découverte d'unités linguistiques à l'aide de méthodes d'apprentissage non supervisé

Découverte d'unités linguistiques à l'aide de méthodes d'apprentissage non supervisé

7.1.3 Réseaux de neurones non supervisés Les réseaux de neurones non supervisés n’ont pas l’information des classes pho- nétiques pour s’entraîner. Ils doivent se restreindre à utiliser les seules informations fournies, c’est-à-dire les paramètres d’entrée. Les Auto-Encodeurs sont des réseaux non supervisés qui apprennent à reconstruire les trames d’entrées, après plusieurs projections non linéaires effectuées dans leurs couches cachées. Nous avons utilisés ces réseaux pour générer de nouveaux paramètres à partir des MFCC. Le réseau s’est avéré efficace pour compresser l’information issue de la trame d’entrée et des trames voisines et nous avons obtenu des paramètres plus efficaces que les MFCC pris en entrée d’un outil de classification phonétique : 45,7% contre 33,9% pour un même nombre de paramètres. Cependant, nous avons rencontré des difficultés pour l’apprentissage de ces AE. En effet, toutes les règles de mise à jour des poids ne conviennent pas, comme par exemple le nesterov momentum, alors qu’il nous avait permis d’obtenir des résultats similaires aux autres règles de mise à jour dans les cas supervisés testés (classification et segmentation). De même, les bancs de filtres se sont avérés ne pas être une entrée adaptée pour réaliser ce travail d’extraction non supervisée d’information, contrairement aux cas supervisés testés.
Show more

150 Read more

2006 — PSO pour l'apprentissage supervisé des réseaux neuronaux de type fuzzy ARTMAP

2006 — PSO pour l'apprentissage supervisé des réseaux neuronaux de type fuzzy ARTMAP

Cette section présente les résultats obtenus avec la base de données NIST SD19 lors de l'optimisation des paramètres internes des réseaux fuzzy ARTMAP avec la stratégie d'[r]

260 Read more

en
                                                                    fr

en fr Hebbian mechanisms and temporal contiguity for unsupervised task-set learning Mécanismes Hebbiens et contiguïté temporelle pour l'apprentissage de task-set non-supervisé

Chapter 8 - Neuroimaging analysis 143 Figure 8.2  The canonical hemodynamic response function. From Prof Rick O. Gilmore website. Finally, BOLD response to a brief stimulus is not instantaneous. The hemo- dynamic modications last several seconds after the neural activation. The hemo- dynamic response function (gure 8.2) characterizes the delay and dispersion of BOLD response, i.e the timescale and evolution of these modications. The HRF function acts as a temporal lter, and is usually assumed to be linear [Boynton et al., 1996; Dale and Buckner, 1997]. The initial dip of the HRF function cor- responds to the initial consumption of oxygen by neurons before the increase of the cerebral blood ow. Then the HRF function peaks around 6 seconds, before decreasing again. A small undershoot persists for a considerable period of time. The temporal resolution of this neuroimaging method is thus limited. The exper- imental events need to be spaced by at least 2 seconds in order to maximize the signal passed by it. Still, the spatial resolution of fMRI is better than any other non-invasive imaging method.
Show more

202 Read more

Apprentissage semi-supervisé par réduction de dimensionnalité non linéaire

Apprentissage semi-supervisé par réduction de dimensionnalité non linéaire

Dans le graphique 7.4 nons avons un aperçu de la variation de la solution. Il semble y avoir un point ou la moyenne est meilleure autour de 180-190 dimensions; le maximum et le minimum e[r]

117 Read more

Formaliser l'équité en Machine Learning. Revue des méthodes de "fairness" en apprentissage supervisé

Formaliser l'équité en Machine Learning. Revue des méthodes de "fairness" en apprentissage supervisé

• Modification des décisions du classifieur a posteriori (Hardt et al, 2016) : méthode de post-processing où, l’on fixe un seuil différent de classification pour chaque groupe sensible. Cela revient donc, pour les classifications les plus incertaines, à donner des décisions plus favorables aux catégories discriminées et moins favorables aux catégories non discriminées.

2 Read more

Evaluation des méthodes de Sélection de Variables en Apprentissage supervisé

Evaluation des méthodes de Sélection de Variables en Apprentissage supervisé

Le filtrage est utilisé en phase de prétraitement, ce qui permet de réduire à la fois la dimension des entrées et de se prémunir dans certains cas du phénomène de sur-apprentissage. La simplicité et l’efficacité de l’approche par filtre est souvent mise en avant. Certains auteurs ont tenté d’éliminer les variables inutiles, le procédé se déroule en deux phases : la première, additive qui entraîne des PMC (Perceptron Multi-Couches) candidats avec un nombre croissant de neurones dans les couches cachées, puis les candidats obtenus, la seconde phase concerne la sélection par des tests de Fisher[14]. Le processus s’arrête dès l’obtention du plus petit réseau dont les variables et les neurones cachés ont une contribution significative pour le problème de régression-classification [15].
Show more

98 Read more

Moranapho : apprentissage non supervisé de la morphologie d'une langue par généralisation de relations analogiques

Moranapho : apprentissage non supervisé de la morphologie d'une langue par généralisation de relations analogiques

La th´eorie de l’analogie d’Anderson (1992) nous apprend que les mots en relation analogique doivent ˆetre non seulement li´es graph´emiquement, mais aussi s´emantiquement (section 2.7). Malheureusement, notre moteur analogique, n’ayant aucune information permettant d’inf´erer le sens des mots, ne se base que sur la forme pour ´etablir un lien analogique. Ceci implique donc que plusieurs analogies fortuites (p. ex. [pear : spear = care : scare]) se seront gliss´ees dans notre ensemble d’analogies. Les r`egles extraites de ces analogies seront fort probablement non pertinentes pour la langue ´etudi´ee (p. ex. hs? → ?i). Selon Anderson (1992), il y a un troisi`eme facteur `a prendre en compte pour juger de la validit´e d’une analogie : la r´egularit´e de la relation. Intuitivement, cela porte `a croire que les relations (r`egles) r´eguli`eres seront plus pertinentes que les relations isol´ees. Nous pouvons estimer la r´egularit´e d’une r`egle par le nombre d’analogies desquelles la r`egle a ´et´e extraite. Cependant, la fr´equence cr´ee un biais envers les r`egles compos´ees de facteurs courts, car elles ont une plus grande probabilit´e de se retrouver par hasard dans une analogie (p. ex. [stop : top = stick : tick], [tar : star = word : sword]). Par exemple, dans un de nos lexiques anglais, la r`egle hanti-? → ?i est observ´ee 2 472 fois, compar´e `a la r`egle fortuite hka? → ?i qui est vue 13 839 fois.
Show more

80 Read more

Show all 8618 documents...