私も日本は自然と共生していると思っていましたが、逆にその考えはいつ頃から広まったのでしょうか。

現在いわれるような形で喧伝されたのは、1990年代、バブル崩壊の前後からです。すなわち、経済大国としての地位が失墜しアジア諸国に肉迫された日本が、経済以外で自分たちの「誇り」を充足させてくれる価値を探した結果、「共生文化」が再発見されてゆくのです。世界的に地球環境問題が注視され始めた1960〜70年代、すでに東洋思想は環境哲学、環境倫理としての価値を欧米において見出されていましたが、日本はちょうど高度経済成長期に当たっていたため、充分な関心を集めませんでした。しかし90年代には、各学問や芸術でも「エコ」が流行し始めていたので、その文脈で「欧米にも勝りうる価値」を「共生」に見出したのでしょう。