Définition juridique simple :
Droit positif (n.m.) : l’ensemble des règles de droit officiellement établies et en vigueur dans une juridiction donnée à un moment donné, par opposition au droit naturel ou idéal et aux normes juridiques révolues.
Définition juridique approfondie :
Le droit positif désigne l’ensemble des règles de droit en vigueur dans un pays donné à un moment donné. Il comprend toutes les normes juridiques établies et reconnues par un État, y compris les lois, règlements, jurisprudences et doctrines.
Étymologie: Le terme “positif” vient du latin “positum“, une forme du verbe “ponere”, qui signifie placer ou poser, indiquant quelque chose d’établi ou de concrètement mis en place.
Caractéristiques et applications:
- Normes établies: Le droit positif se compose de toutes les normes juridiques formellement établies par les autorités compétentes d’un pays.
- Opposition au droit naturel: Il se distingue du droit naturel ou idéal, qui repose sur des principes universels et moraux, en se concentrant sur les règles concrètement édictées.
- Changement et évolution: Le droit positif évolue avec le temps, reflétant les changements dans les valeurs sociales, les avancées technologiques et les exigences politiques.
- Application universelle: Il s’applique uniformément à tous les citoyens d’une juridiction donnée, assurant l’ordre et la stabilité juridiques.
Exemple illustratif: Un exemple de droit positif est le code civil d’un pays, qui définit les règles régissant les relations contractuelles, la propriété, la famille et d’autres aspects de la vie civile.
En résumé, le droit positif est un concept fondamental en droit, représentant l’ensemble des règles juridiques formellement établies et appliquées dans une société donnée à un moment précis.
« Retour aux définitions