En droit français, le
contrat de travail est un
contrat de droit privé dont la
jurisprudence donne la définition suivante : « convention par laquelle une personne physique s'engage à mettre son activité à la disposition d'une autre personne, physique ou morale, sous la subordination de laquelle elle se place, moyennant une rémunération », ce qui permet de distinguer le salarié du
travailleur indépendant.