• Open Access
    • Comment cela fonctionne?
    • Ouvrir une session
    • Contact

    Voir le document

    JavaScript is disabled for your browser. Some features of this site may not work without it.
    Voir le document 
    • Accueil de LUCK
    • HE en Hainaut
    • HEH - HE
    • Sciences Et Techniques
    • Voir le document
    • Accueil de LUCK
    • HE en Hainaut
    • HEH - HE
    • Sciences Et Techniques
    • Voir le document
    Voir/Ouvrir
    Poster-MdC2022-Lerat.pdf (2.199Mo)
    Date
    2022
    Auteur
    LERAT, Jean-Sébastien
    Mahmoudi, Ahmed Sidi
    Mahmoudi, Saïd
    Metadata
    Afficher la notice complète
    Partage ça

    Apprentissage profond distribué : d’un seul nœud vers plusieurs nœuds de calcul

    Résumé
    L'utilisation croissante de l'apprentissage profond (DL) exploite des modèles de plus en plus complexes avec une quantité croissante de données. Le DL distribué (DLL) permet d'entraîner rapidement des modèles en répartissant la charge de calcul. Nous proposons une approche empirique pour accélérer la distribution en se concentrant sur les stratégies de parallélisation locales. Les résultats montrent que la stratégie de parallélisation locale impacte l'accélération globale du DDL en fonction de la complexité du modèle et de la quantité de données. De plus, notre approche surpasse Horovod qui est le framework DDL de l'état de l'art.

    Parcourir

    Tout LUCKCommunautés & CollectionsAuteurTitreDate de publicationSujetType de documentTitre de périodiqueThématiqueCette collectionAuteurTitreDate de publicationSujetType de documentTitre de périodiqueThématique

    Mon compte

    Ouvrir une sessionS'inscrire

    Statistics

    Most Popular ItemsStatistics by CountryMost Popular Authors

    Plan du site

    • Open Access
    • Comment cela fonctionne?
    • Mon compte

    Contact

    • L’équipe de LUCK
    • Synhera
    • CIC