De loin, on a l’impression qu’il n’y pas plus américain que les studios Disney. En y regardant de plus près, on s’aperçoit que les dessins animés de la marque aux grandes oreilles n’ont eu de cesse de promouvoir une culture et un esprit européens, et surtout français, mettant en valeur notre patrimoine de manière insoupçonnée. Dans l’univers Disney, la France tient donc une place de choix ! Les plus grands succès Disney sont, à l’origine, des histoires françaises. Walt Disney lui-même a vécu une véritable histoire d’amour avec notre pays qui a marqué à tout jamais le cinéma d’animation. La France de Walt Disney : un voyage fascinant des deux côtés de l’Atlantique. (Source : themoviedb)
Non renseigné
Merci à einoha qui a créé cette fiche