Ich benötige eine Tabelle, in der jede US-Postleitzahl dem Durchschnittspreis für Gewerbeimmobilien zugeordnet wird ( Büroräume) in dieser Postleitzahl. Es spielt für mich keine Rolle, ob die Preise zu vermieten oder zu kaufen sind. Es spielt auch keine Rolle, ob die Zahl nur auf Büroflächen beschränkt ist oder ob sie alle gewerblichen Immobilien umfasst. Was wichtig ist, ist, dass in jeder Postleitzahl dasselbe gemessen wird, so dass ich einen Vergleich von Äpfeln zu Äpfeln habe.
Kommentare
- tolle Frage! Ich hoffe, das bekommt etwas Traktion! hier ' s beste Ressource, die ich kenne monmouth.edu/business-school/real-estate-research-sources.aspx
Antwort
Ich bin der leitende Forscher einer Maklerfirma für gewerbliche Immobilien. Sie kennen keine perfekte Quelle für das, wonach Sie suchen, aber hier sind einige Proxys, die Sie versuchen könnten.
Bezahlte Option: Costar http://www.costar.com/ hat das, was Sie wollen, aber es handelt sich um eine kostenpflichtige Dienstleistung . Von Zeit zu Zeit habe ich gehört, dass sie Datenzugriff für Forschungszwecke geschenkt haben. Ich glaube nicht, dass sie die gesamten USA abdecken, und sie betrachten CRE nur über einer bestimmten Dollargröße (etwa 5.000 US-Dollar)
Kostenlose Option: Craigslist Scrape craigslist.org für Bürogebäudeeinträge. Die URLs lassen sich relativ einfach zum Verschrotten generieren. Beispielsweise kann ich die ersten 100 in New York aufgelisteten Büroräume unter der URL http://newyork.craigslist.org/search/off
Wenn Sie am Ende dieser URL „? s = 100“ hinzufügen (dh „ http://newyork.craigslist.org/search/off? S = 100 „) erhalten Sie Einträge 100-199 von 2500. Durch schrittweises Ändern des Teils“ off? S = x „können Sie alle 2500 erhalten.
Natürlich werden C-Listings im Durchschnitt kleinere Eigenschaften sein, aber ich wette, die Abdeckung ist ziemlich gut und die Tendenz wird geografisch konsistent sein.
Update: Verschrotten aller Basis-URLs von der About-Seite
Wenn Sie R verwenden, können Sie hier rvest () verwenden Entfernen Sie alle Basis-URLs von der Clist-Seite:
library(rvest) url <- "http://www.craigslist.org/about/sites" aboutclist <- read_html(url) aboutclist %>% html_nodes(".colmask:nth-child(4) a") %>% html_attr("href")
Gibt eine Liste von URLs zurück, wie z. B.:
[1] "//auburn.craigslist.org/" "//bham.craigslist.org/" [3] "//dothan.craigslist.org/" "//shoals.craigslist.org/" [5] "//gadsden.craigslist.org/" "//huntsville.craigslist.org/" [7] "//mobile.craigslist.org/" "//montgomery.craigslist.org/"
Kommentare
- Vielen Dank für Ihre Antwort. Idealerweise habe ich Ich suche nach einer kostenlosen Lösung. Die Craigslist-Idee ist interessant, aber leider gibt Craigslist ' keine Postleitzahl an, und ich benötige diese Informationen für alle Postleitzahlen.
- Cragslist hat die Option zumindest an einigen Stellen nach Postleitzahl zu filtern. Die URL sieht folgendermaßen aus: newyork.craigslist.org/search/off?postal=10001 . Es würde einige Arbeit erfordern, um alle möglichen URLs ' herauszufinden, aber es könnte getan werden!
- hier überhaupt nicht unhöflich zu sein, aber dies ist offen Daten se, daher sollte jede Lösung offen sein, nicht nur " idealerweise ". Die Antwort von tim ' ist perfekt und bietet mehr als eine Lösung. Sie möchten jedoch nur darauf hinweisen, dass bezahlt nicht offen ist.
- gültiger Punkt albert! Ich frage mich, ob Open Data SE das irgendwo posten sollte, um es absolut klar zu machen. Oder vielleicht ist es ' für alle außer mir völlig offensichtlich;)