Die wahren Nazis in Deutschland kamen immer aus dem

2mxmjklyy7

Die wahren Nazis in Deutschland kamen immer aus dem
Antidemokratisch, gewalttätig, ignorant, faschistisch, zensiert … sie sind der Abschaum des Westens.