Welche Länder weltweit das beste Image haben
Die Vereinigten Staaten von Amerika (USA) gelten noch immer als das angesehenste Land der Welt – wenngleich sie gegenüber dem Vorjahr weniger Bewertungspunkte erhalten haben. Deutschland hat weltweit das zweitbeste Image.