dc.rights.license | CC6 | en_US |
dc.contributor.author | LERAT, Jean-Sébastien | |
dc.contributor.author | Mahmoudi, Ahmed Sidi | |
dc.contributor.author | Mahmoudi, Saïd | |
dc.date.accessioned | 2022-11-28T11:08:20Z | |
dc.date.available | 2022-11-28T11:08:20Z | |
dc.date.issued | 2022 | |
dc.identifier.uri | https://luck.synhera.be/handle/123456789/1690 | |
dc.description.abstract | L'utilisation croissante de l'apprentissage profond (DL) exploite des modèles de plus en plus complexes avec une quantité croissante de données. Le DL
distribué (DLL) permet d'entraîner rapidement des modèles en répartissant la charge de calcul. Nous proposons une approche empirique pour accélérer la
distribution en se concentrant sur les stratégies de parallélisation locales.
Les résultats montrent que la stratégie de parallélisation locale impacte l'accélération globale du DDL en fonction de la complexité du modèle et de la quantité
de données. De plus, notre approche surpasse Horovod qui est le framework DDL de l'état de l'art. | en_US |
dc.format.medium | OTH | en_US |
dc.language.iso | FR | en_US |
dc.publisher | Mardi des chercheurs | en_US |
dc.rights.uri | https://creativecommons.org/licenses/by-nd/2.0/ | en_US |
dc.title | Apprentissage profond distribué : d’un seul nœud vers plusieurs nœuds de calcul | en_US |
dc.type | Acte de conférence ou de colloque | en_US |
synhera.classification | Ingénierie, informatique & technologie | en_US |
synhera.institution | HE en Hainaut | en_US |
synhera.otherinstitution | UMONS | en_US |
dc.description.version | Non | en_US |
dc.rights.holder | Auteurs | en_US |