Droit positif (définition)

Décembre 2016


Définition de droit positif


Le droit positif désigne l'ensemble des dispositions juridiques en vigueur dans un Etat ou dans un ensemble d'Etats (par exemple l'Union européenne) à un moment précis. Le droit positif se compose des règles constitutionnelles, des lois organiques et ordinaires, ainsi que des décrets et règlements administratifs. Ne font pas partie du droit positif les lois qui ont été abrogées, ni les dispositions administratives qui ont été annulées ou abrogées. De plus, la doctrine ne fait pas non plus partie du droit positif. Il existe également un droit positif international représentant l'ensemble du droit applicable au sein de l'ordre juridique international. Il se compose de l'ensemble des traités et accords en vigueur.
Voir aussi : la définition du droit naturel.


A voir également :

Ce document intitulé « Droit positif (définition) » issu de Droit-Finances (droit-finances.commentcamarche.net) est soumis au droit d'auteur. Toute reproduction ou représentation totale ou partielle de ce site par quelque procédé que ce soit, sans autorisation expresse, est interdite.

Dossier à la une