Ich interessiere mich sehr für Politik und muss sagen, dass Deutschland sich abschafft.
Die deutschen Politker laufen mit offenen Augen gegen eine Wand und die Bürger können nichts tun bzw. müssen zuschauen, wie ihre Steuergelder verschwendet werden oder durch ( nicht rassistisch gemeint ) viel zu viele nicht arbeitswillige Ausländer das deutsche Lebensklima gestört wird.
Deutschland tut so als wären wir dem Rest noch was für den Krieg schuldig, aber erstens ist das 60 Jahre her, zweitens haben wir es schon lange wieder gut gemacht und drittens würden ohne uns viele Länder am Abgrund stehen. Die deutschen Politiker brauchen Eier, wie Oliver Kahn zu sagen pflegte und müssen das Deutschland - wir nehmen alle auf und geben gerne - Image ablegen und endlich wieder als gleichgestellte Kraft agieren.
Würde mich über andere Meinungen oder Kritik an meiner freuen!
Ich gebe dir teils Recht Deutschland macht es teils falsch, aber man sollte auch nicht zu unsozial werden, es ist durchaus wichtig Leuten zu helfen, wichtig ist die Masse und die Art der Umsetzung, man sollte es etwas geplanter machen, aber die Asylpolitik in Deutschland ist eh löchrig. Ich bin dafür das Flüchtlinge stets aufgenommen werden sollten, aber die Länder sollten es meiner Meinung nach gerecht machen, nicht alles nach Deutschland z.B.
Und Deutschland schafft sich ab klingt gleich wie Sarrazin, nicht die beste Formulierung...
nja bei uns in der nähe wurde ein Wohnblock für Sozial schwache Menschen abgeschafft um platz für Asyl Bewerber zu machen...
Sowas geht ganz und garnicht, ich mein anderen ein Platz wegnehmen die es genauso verdienen wie leute die z.B. aus Syrien herkommen.
aber 60 Jahre hin oder her man muss auch akzeptieren das wir zwei mal einen Weltkrieg angezetellt haben & viele Millionen Menschen wegen "uns" gestorben sind, so leicht kann man dieses Thema nicht beiseite legen.
Im Gegenteil, man sollte sich immer daran erinnern das so etwas ja nicht wieder passiert!!!
Ich gebe dir Recht man sollte den Menschen hier nicht derart Schaden das ist nicht der richtige Weg.
Aber bei dem Punkt mit den Weltkriegen gebe ich dir unrecht, erstens meiner Meinung nach sollte man uns keine Schuld anhängen wir haben damit nichts zu tun mehr, man sollte lediglich verantwortungsvoll mit dem Thema umgehen.
Doch der erste Weltkrieg wurde nicht vom Deutschen Kaiserreich angezettelt das wirft man Deutschland nur vor. Damals wollten alle Krieg, also die Monarchen auch unserer, und er wartete auf eine Gelegenheit dafür. Diese kam als er dem Verbündeten Österreich-Ungarn zu Hilfe leisten musste, also Deutschland hat diesen Krieg nicht angezettelt.
Und ja die Deutschen waren die Leute die hinter Hitler standen im zweiten, aber Hitler selbst sowie einige Nazi-Offiziere glaube auch waren Österreicher das sollte man nicht vergessen.