Ich stimme Euch (natürlich) zu, dass die Auswahl der Bilder aufwändiger wird, je perfekter man das schnelle Lokalisieren verhindern möchte.
Nicht dass ich darin besonders gut wäre, aber ein paar "Gesetzmäßigkeiten" für Bilder, die sich nicht so ohne Weiteres zu lokalisieren lassen, gibt es IMHO schon:
Wenn das Motiv durch was "Verschleierndes" im Vordergrund teilweise verdeckt wird (Gardine, Kunststofffolie, Netz eines Fußballtores, usw.), tut sich Google schon schwerer. Insbesondere wenn nicht auf das markante Motiv scharf gestellt wurde, sondern es im Hintergrund bissl unscharf ist (Bokeh und so). Geringe Schärfe und geringe Kontraste stören die Erkennung spürbar. Und das sind Objekte, die das menschliche Auge noch problemlos erkennen kann (wenn man's schon mal vorher gesehen hat).
Eine weitere Möglichkeit ist ein aggressiver Beschnitt des Motivs, sodass Google insgesamt weniger "relevante'" Bildinfo erhält.
Und dann gibt es noch Locations in Regionen, die dünn besiedelt sind, in denen generell weniger fotografiert wird (vielleicht auch, weil es in der Gegend weniger klassische Sights gibt). Ob's solche Regionen in Deutschland (noch) gibt, vermutlich eher nicht.
Fazit: Theoretisch müsste man also passende Bilder gezielt für's Rätsel produzieren...
Find das Thema aber dennoch interessant, also die Frage, warum Google ein Bild erkennt. Wenn man das eigene Portfolio auf Rätseltauglichkeit durchprobiert, liefert das ja immerhin eine Rückmeldung, wie groß der Anteil an Motiven ist, die schon von anderen todgeknipst wurden. Insofern finde ich, dass einen diese Rätsel-"Abwege" zum Nachdenken über die eigene Motivwelt bzw. Umsetzung bringen.