Kolonie

Eine Kolonie ist ein Gebiet im Ausland, in dem Menschen mit selber Herkunft zusammen leben und die Traditionen ihres eigenen Landes pflegen. So sprechen sie zum Beispiel nicht die Sprache des Landes, in dem sich die Kolonie befindet, sondern die Sprache des Landes, aus dem sie kommen.

Die meisten Kolonien gab es in der Zeit zwischen Anfang des 15. Jahrhunderts und dem Zweiten Weltkrieg. Die Europäer reisten nach Amerika, Afrika und Asien und eroberten fremde Länder. Dabei kam es zu vielen Kriegen, in denen die Europäer überlegen waren. Die Europäer siedelten sich in den eroberten Gebieten an und gründeten Kolonien.

Sie verdrängten die einheimische Bevölkerung oder machte sie zu ihren Sklaven. Die Europäer dachten, sie seien etwas Besseres. Die Einheimischen waren für sie unterentwickelt und minderwertig. Für die Einheimischen begann eine schreckliche Zeit. Sie hatten kaum noch Rechte und wurde von den Fremden unterdrückt und ausgebeutet. Mit Gesetzen der Rassentrennung sorgten die Kolonialherren dafür, dass es nicht zu einer Vermischung zwischen Europäern und Einheimischen kam.


Neben den Menschen wurden auch die Bodenschätze der Länder ausgebeutet. Die Schiffe nach Europa waren voll mit Gold aus Südamerika und Diamanten aus Afrika. Auch Gewürze, Kaffee und Kakao brachten die Europäer aus den Kolonien mit. Zuhause in Europa konnten sie die Waren für sehr viel Geld verkaufen, denn dort waren die neuen exotischen Früchte begehrt.

Die ersten Kolonien wurden von den großen Seefahrernationen gegründet. Das waren Großbritannien, Spanien, Portugal, Frankreich und die Niederlande. Deutschland kam erst später dazu und besaß dann vor allem in Afrika Kolonien – unter anderem in den heutigen Ländern Kamerun, Togo und Kenia.

Erst nach Ende des zweiten Weltkrieges 1945 wurden die Kolonien nach und nach wieder in unabhängige Staaten umgewandelt. Viele dieser Staaten leiden aber immer noch unter der Zeit als Kolonie und haben heute große wirtschaftliche und soziale Probleme.

DruckenVerschickenPDF