Hey, ich will wirklich keine Angst hier schüren oder ähnliches aber ich möchte mal etwas fragen was mich schon länger bedrückt. Seit langem wird ja über eine bevorstehenden Krieg geredet. Falls es wirklich dazu kommen sollte, und wir in Deutschland angegriffen werden oder ähnliches, werden dann alle männer einberufen und müssen mit in den Krieg ziehen? Soweit ich weiß war das in der Ukraine auch keine Pflicht für die männer, oder?
Niemals in meinem ganzen Leben würde ich in den Krieg ziehen und mein Leben lassen für Politiker die scheiße verzapfen. Die verstecken sich in ihren bunkern, und wir das einfache Volk soll sein Leben lassen obwohl wir nichts damit zu tun haben?
Es gibt doch bestimmt Menschen hier die darüber etwas Ahnung haben. Bin 26 Jahre alt und männlich. Würde ich gezwungen werden mitzumachen, gibt es so etwas in diesem ach so sozialen Land nicht? Oder ist das freiwillig und für soldaten oder ehemalige. Danke schonmal für Antworten.