Wikipédia en français - L'encyclopé...
Download this dictionary
Contrat de travail en France
En droit français, le contrat de travail est un contrat de droit privé dont la jurisprudence donne la définition suivante : « convention par laquelle une personne physique s'engage à mettre son activité à la disposition d'une autre personne, physique ou morale, sous la subordination de laquelle elle se place, moyennant une rémunération », ce qui permet de distinguer le salarié du travailleur indépendant.

Pour la suite, voir Wikipédia.org…


© Cet article se sert du contenu de Wikipédia® et est autorisé sous les termes de la Licence de Documentation libre GNU et est distribué sous les termes de la licence Creative Commons Paternité-Partage des Conditions Initiales à l'Identique 3.0 non transposé.