Le *multi-task learning* (MTL) en apprentissage machine permet de former simultanément plusieurs algorithmes interconnectés, améliorant ainsi la généralisation des modèles. Cependant, combiner des tâches variées comme la régression et la classification pose des défis, notamment l’alignement des chemins de régularisation, ce qui peut biaiser la sélection des caractéristiques.
Des chercheurs de l’Université de Heidelberg ont proposé MTLComb pour surmonter ces obstacles. MTLComb utilise un schéma de pondération des pertes optimal afin de concilier les tâches de régression et de classification. Leur méthode ajuste la magnitude des coefficients pour différents types de pertes, comme démontré par une perte quadratique pondérée pour la régression.
Les résultats montrent une performance prédictive supérieure et une meilleure sélection commune des caractéristiques, notamment dans des applications biomédicales comme la prédiction de la septicémie et de la schizophrénie. Cependant, des limites existent, particulièrement dans les scénarios de faible dimension. MTLComb représente une avancée majeure pour le MTL, ouvrant des perspectives prometteuses pour divers champs d’application.