Le droit est défini comme « l’ensemble des règles qui régissent la conduite de l’Homme en société, les rapports sociaux », ou de façon plus complète « l’ensemble des règles imposées aux membres d’une société pour que leurs rapports sociaux échappent à l’arbitraire et à la violence des individus et soient conformes à l’éthique dominante