La culture dénature-t-elle l'homme ? term l
La culture et la nature apparaissent à première vue comme étant antagonistes, mais tout de même capables de s’additionner en l’homme pour lui permettre de développer toutes ses capacités. L’opinion spontanée est tout de même que la culture dénature l’homme puisqu’elle le fait évoluer et lui diminue sa part d’animalité. La nature désigne ce qui est inné, ce que chacun possède dès sa naissance, qu’il le veuille ou non. Le mot « nature » vient d’ailleurs du latin « natura », lui-même provenant de « nascor » signifiant « naître » ou « commencer », « avoir pour origine ». Au contraire la culture, elle, dans son sens le plus large (et accessoirement le plus répandu en philosophie), désigne tout ce qui relève de l’acquis, de ce que nous ne possédons pas « dès l’origine » – ou « de par notre nature », justement. Elle contient toutes les connaissances, toutes les normes sociales, toutes les aptitudes intellectuelles, tous les savoir-faire que l’homme a pu acquérir tout au long de sa vie. On peut donc remarquer que ces deux définitions s’opposent : ne seraient-elles donc pas en conséquence complémentaire ? Ne se crée-t-il pas un certaine équilibre entre inné et acquis ? L’ambiguïté du sujet se trouve dans le verbe même « dénaturer » ; a-t-il un sens neutre ou la « dénaturation » signifierait simplement la sortie de l’état de nature ou a-t-il le un sens négatif correspondant « corruption » ? Si on s’en tient au fait que la nature dénature l’homme, cela voudrait dire que l’homme n’est pas donc pas lui-même, mais qu’il a été modifié, modelé par la culture et par la société. Par conséquent l’homme sauvage serait le seule véritable homme « naturel » c’est-à-dire n’ayant subis aucune modifications par la culture. Mais qu’est-ce que la « nature humaine » véritablement ? Serait-il possible que ce qu’on assimile à cette nature humaine ne soit en réalité que l’empreinte de la culture du choix des hommes ? La culture