Modèles connexionnistes de l`apprentissage

0

Après un bref mandat en tant que Fellow de l`Institut de recherche NEC (maintenant NEC-Labs America) à Princeton, NJ, il a rejoint l`Université de New York (NYU) en 2003, où il est professeur d`argent de science neuronale informatique à l`Institut courant des sciences mathématiques et le Centre pour la science neuronale. Il est également professeur à la Tandon School of Engineering. 9 à NYU, il a travaillé principalement sur des modèles à base d`énergie pour l`apprentissage supervisé et non supervisé [11], en fonction de l`apprentissage de la reconnaissance d`objets dans Computer Vision [12], et de la robotique mobile [10]. En 2013, il a co-fondé la Conférence internationale sur les représentations de l`apprentissage, qui a adopté un processus d`examen ouvert post-publication qu`il préconisait auparavant sur son site Web [13]. Il a été président et organisateur de l`atelier d`apprentissage qui a lieu chaque année entre 1986 et 2012 à Snowbird, dans l`Utah. Il est membre du Conseil consultatif scientifique de l`Institut des mathématiques pures et appliquées [17] à l`UCLA. Il est co-directeur du programme d`apprentissage en machines et en recherche cérébrale (anciennement neural calcul & perception adaptative) de CIFAR [18] Yann LeCun a été rédacteur en chef associé de PLoS ONE (2008-2011), IJCV (2003-2007), IEEE trans. PAMI (2003-2005), pattern Reconnaissance et applications, journal machine learning (1996-1998), transactions IEEE sur les réseaux neuronaux (1990-1991). Depuis 1997, il a été président général et organisateur de l` «atelier d`apprentissage» qui a lieu chaque année depuis le 1986 à Snowbird, dans l`Utah. Il est membre du Conseil consultatif scientifique de l`Institut des mathématiques pures et appliquées de l`UCLA. Étant donné que les données du CASP sont utilisées dans cette étude et que le GDT-TS est une mesure principale utilisée dans l`évaluation officielle du CASP, nous utilisons GDT_TS comme mesure principale d`évaluation. Il est calculé par (1) superposant deux modèles l`un sur l`autre et (2) en moyenne le pourcentage d`atomes C-α correspondants entre deux modèles à l`intérieur d`une certaine coupure. La valeur GDT-TS entre deux modèles est calculée comme suit: sur les exemples de test, EC_Test normalise d`abord le score d`énergie d`un exemple de test à l`aide de l`exemple de formation moyenne et de l`écart type.

Ensuite, l`exemple obtient une étiquette positive si le score d`énergie normalisé est plus grand que le seuil S0 et obtient une étiquette négative autrement. La figure 6 montre la précision de la classification de DL-Pro1 (DL-Pro avec des configurations à une couche cachée), DL-2 (DL-Pro avec deux configurations de couche cachée) et FFNN avec différentes unités cachées. Leurs performances changent légèrement au fur et à mesure que le nombre d`unités cachées change. DL-Pro1 avec 100 unités cachées donne le meilleur résultat avec la précision de 0,78. La figure 7 compare les performances de classification de EC-DFIRE (les meilleures fonctions énergétiques), SVM, FFNN, DL-Pro1 et DL-2. La SVM est nettement plus mauvaise que les algorithmes FFNN et DL-Pro. Les deux DL-Pro1 et DL-p-2 sont un peu mieux que EC-DFIRE, avec DL-Pro1 atteignant 78% de précision, le meilleur dans l`ensemble. La différence de performances entre FFNN et DL-Pro montre que l`apprentissage en profondeur est capable d`apprendre de meilleures fonctionnalités à partir de données étiquetées et non étiquetées pour obtenir des performances améliorées par rapport aux réseaux neuronaux traditionnels.

Ses intérêts actuels comprennent l`IA, l`apprentissage automatique, la perception informatique, la robotique mobile et les neurosciences computationnelles. Il a publié plus de 180 documents techniques et chapitres de livres sur ces sujets ainsi que sur les réseaux neuronaux, la reconnaissance de l`écriture manuscrite, le traitement de l`image et la compression, et sur des circuits dédiés et des architectures pour la perception de l`ordinateur. La technologie de reconnaissance des caractères qu`il a développée chez Bell Labs est utilisée par plusieurs banques du monde entier pour lire les chèques et a lu entre 10 et 20% de tous les contrôles aux États-Unis au début des années 2000. Sa technologie de compression d`image, appelée DjVu, est utilisée par des centaines de sites Web et d`éditeurs et des millions d`utilisateurs pour accéder aux documents numérisés sur le Web. Depuis la fin des années 80, il a travaillé sur des méthodes d`apprentissage profond, en particulier le modèle de réseau convolutionnel, qui est la base de nombreux produits et services déployés par des entreprises telles que Facebook, Google, Microsoft, Baidu, IBM, NEC, AT&T et d`autres pour l`image et compréhension de la vidéo, la reconnaissance des documents, l`interaction homme-ordinateur et la reconnaissance vocale.

About the author