Afficher la notice abrégée

Apprentissage profond distribué : d’un seul nœud vers plusieurs nœuds de calcul

dc.rights.licenseCC6en_US
dc.contributor.authorLERAT, Jean-Sébastien
dc.contributor.authorMahmoudi, Ahmed Sidi
dc.contributor.authorMahmoudi, Saïd
dc.date.accessioned2022-11-28T11:08:20Z
dc.date.available2022-11-28T11:08:20Z
dc.date.issued2022
dc.identifier.urihttps://luck.synhera.be/handle/123456789/1690
dc.description.abstractL'utilisation croissante de l'apprentissage profond (DL) exploite des modèles de plus en plus complexes avec une quantité croissante de données. Le DL distribué (DLL) permet d'entraîner rapidement des modèles en répartissant la charge de calcul. Nous proposons une approche empirique pour accélérer la distribution en se concentrant sur les stratégies de parallélisation locales. Les résultats montrent que la stratégie de parallélisation locale impacte l'accélération globale du DDL en fonction de la complexité du modèle et de la quantité de données. De plus, notre approche surpasse Horovod qui est le framework DDL de l'état de l'art.en_US
dc.format.mediumOTHen_US
dc.language.isoFRen_US
dc.publisherMardi des chercheursen_US
dc.rights.urihttps://creativecommons.org/licenses/by-nd/2.0/en_US
dc.titleApprentissage profond distribué : d’un seul nœud vers plusieurs nœuds de calculen_US
dc.typeActe de conférence ou de colloqueen_US
synhera.classificationIngénierie, informatique & technologieen_US
synhera.institutionHE en Hainauten_US
synhera.otherinstitutionUMONSen_US
dc.description.versionNonen_US
dc.rights.holderAuteursen_US


Fichier(s) constituant ce document

Thumbnail

Ce document figure dans la(les) collection(s) suivante(s)

Afficher la notice abrégée

CC6
Excepté là où spécifié autrement, la license de ce document est décrite en tant que CC6