
Immer mehr ausländische Unternehmen investieren in Deutschland
Ausländische Unternehmen haben in diesem Jahr so viel in Deutschland investiert wie lange nicht, zeigt eine neue Auswertung des Instituts der deutschen Wirtschaft (IW). In unsicheren Zeiten scheint Deutschland für Investoren verlässlicherer zu sein – als die USA.