Es war alles in allem eine schöne Reise durch Florida!
Allerdings müssen wir ehrlich sagen dass uns der Westen der USA wesentlich besser gefällt! Dort ist es wesentlich entspannter was das Fahren angeht und man kann wesentlich mehr erleben.
Florida hat unserer Meinung nach nicht annähernd so viel zu bieten wie erwartet.