Qu'est ce que le naturisme ?
La Fédération Naturiste Internationale (FNI) définit le naturisme comme « une manière de vivre en harmonie avec la nature, caractérisée par une pratique de la nudité en commun qui a pour but de favoriser le respect de soi-même, le respect des autres et celui de l’environnement ».
Brêve histoire du naturisme
Au fil des années, le terme de « naturisme » a évolué. Il fut d'abord présenté, vers le XVIIIe siècle comme une doctrine médicale basée sur les travaux d'Hippocrate. À partir du XXe siècle, le naturisme est décrit comme une approche vers le nudisme et le végétarisme, dans un désir de se rapprocher de la nature.
Les valeurs du naturisme
La nudité n’est qu’une des composantes du naturisme : la dimension sociale, le respect d’autrui, la tolérance et la convivialité sont très importants. Le naturisme permet notamment à des personnes complexées ou handicapées de se sentir à l’aise et de mieux accepter leur corps, et le regard des autres.

