Étiquette dans Nature et bien être

La nature nous fait du bien !

Quel intérèt d'un La nature nous fait du bien !

Soleil, plantes, eau, air… nous entourent tous les jours, mais nous négligeons à quel point ils jouent un rôle important dans notre vie. La présence de la nature a un impact considérable sur notre comportement, nos émotions et notre humeur. La psychologie de l’environnement précise la relation entre la nature et le bien-être de l’homme. Lire la suite