15 Juli 2008 /
Politik /
Jochen Becker
Der Zweite Weltkrieg hat nicht nur Europa (Schaffung der EU bzw. des Warschauer Pakts) und die USA (Weltmachtführer) verändert, wie es die gängige Geschichtsschreibung nahe legt, sondern auch den afrikanischen oder asiatischen Kontinent neu formiert sowie das Verhältnis zwischen dem Globalen Süden und dem Norden nachhaltig verändert.