Hum j'ai pas pris le temps de tous vous lire, donc je réagirai uniquement au sujet...
La colonisation n'a jamais été mené dans un but bienfaiteur mais dans une recherche de pouvoir, économique ou politique. Comment dès lors lui donné une couleur agréable ? Est ce que les peuples dont la France s'est évertuée à changer leur manière d'être et leur état d'esprit (institution de la langue, de la religion...) n'aurait pas pu vivre heureux sans être colonisé ? Je ne pense pas qu'aller s'imposer physiquement et psychologiquement dans un pays soit une bonne chose.
ouh là zou j'y vais...chuis en retard
Supermoine