Japan ist definitiv das bessere Land, in vielen Dingen ist es einfach besser.
Deutschland oder der Westen allgemein entwickelt sich meiner Ansicht nach in eine falsche Richtung.
Nach Japan ziehen würde ich heutzutage aber wohl auch nicht mehr, auch da ich mich dort als nicht Japaner unwohl fühlen würde auf Dauer, auch wenn ich gelesen habe das man dort wohl recht schnell akzeptiert wird wenn man sich anpasst.
Deutschland ist halt meine Heimat, und wenn man es mal mit dem Rest Europas vergleicht gehört es schon zu den angenehmeren Ländern.
Ich habe die Hoffnung noch nicht aufgegeben das man Deutschland auch noch in eine bessere Richtung stoßen kann, mal sehen was die Zukunft bringt.