УСЫ (urban science)


Гео и язык канала: Россия, Русский
Категория: Технологии


Все о больших данных и геоаналитике в России и мире от экспертов лаборатории МИИГАиК. Новости, кейсы, научные исследования
Обратная связь: @dorozhnij

Связанные каналы  |  Похожие каналы

Гео и язык канала
Россия, Русский
Категория
Технологии
Статистика
Фильтр публикаций


Репост из: Институт Генплана Москвы
Видео недоступно для предпросмотра
Смотреть в Telegram
Стартовал конкурс на лучшее исследование городской среды с призовым фондом 2 250 000 рублей 🤑

Конкурс «Исследуй город» проводится с целью привлечь внимание к проблемам развития городских территорий и дает участникам возможность создать исследовательский проект в одном из нескольких градостроительных направлений.

К участию приглашаются команды, состоящие из молодых специалистов, проектные институты, архитекторы, урбанисты и студенты (в сопровождении преподавателей), а также опытные исследовательские команды и архитектурные бюро.

Результаты конкурса должны быть представлены несколькими комплексными исследованиями на актуальные градостроительные темы и будут использованы при разработке проектов, а также помогут в формировании долгосрочного стратегического видения
будущего Москвы.

Для участия необходимо заполнить форму на сайте, а также подготовить резюме претендента — рассказать, что мотивирует вас бороться за победу в этом конкурсе.

*Конкурс проводиться Институтом Генплана Москвы при поддержке Москомархитектуры.


Пятнично-масленичный мем


Нейросеть для поиска места по фотографии
Российская нейросеть помогает найти любое место на планете по фотоснимку. Бесплатно.
Мы в "усах" проверили — работает. Проверьте и вы

https://geospy.ai/


С 12 по 20 апреля снова летим в Китай с клубом ВСЕВПАРК! На этот раз изучим 20 общественных пространств, в трех мегаполисах: Шэньчжэнь, Шанхай и Гуанчжоу.

Обязательно для посещения тем, кто хочет увидеть будущее не в фантастических блокбастерах, а наяву: бесшумные автомобили, футуристические небоскребы, утопающие в зелени, офисы иностранных компаний.

Вдохновимся работами бюро с мировым именем – TURENSCAPE, SWA Group, LOLA, AUBE CONCEPTION, Hassell Group, MLA+!
Перевыполним нормативы по количеству шагов – по паркам, набережным, “парящим” мостам.
Добавим в адресную книгу много полезных контактов.

Эксперты - Бюро Turenscape, чьи работы заслужили высокую международную репутацию и множество наград за инновационный и экологически чистый дизайн.

Запись и программа - https://vsevpark-club.ru/china2024

Реклама ИП Аюпов Э.Н. ИНН 771977544971 erid: 2VtzqwcMKmM


💻 Как спарсить любой сайт? (ч.2)

В первой части поста мы разбирали что такое API, как с ним работать и примеры сервисов, использующих данную технологию. В этом посте мы познакомимся с таким понятием как веб-скрапинг.

Веб-скрапинг, или парсинг, представляет собой процесс автоматизированного извлечения данных с веб-страниц. Данный метод позволяет извлекать информацию с различных веб-сайтов для анализа рынка, мониторинга конкурентов и других целей. Кроме того, веб-скрапинг автоматизирует процесс сбора данных, что экономит время и усилия, а также автоматизирует рутинную работу.

Как вы уже могли заметить, здесь используется два термина, но какой из них «правильнее»? Чаще всего в русскоязычном сообществе используется термин парсинг (от англ. parsing - проведение грамматического разбора слова). В англоязычном же сообществе используются термин скрапинг (от англ. scraping - соскабливание/выскабливание).

Давайте рассмотрим несколько популярных инструментов для веб-скрапинга на Python:

🌐 Beautiful Soup (bs4)
Это мощная библиотека Python, предназначенная для парсинга HTML и XML документов. С её помощью можно легко и удобно извлекать данные из HTML-страниц, что делает её идеальным выбором для многих задач по анализу данных и мониторингу веб-ресурсов.

🌐 Requests
Хотя Requests широко известна как библиотека для работы с API, она также может быть использована для загрузки веб-страниц и извлечения данных из них. Она особенно удобна для работы с сайтами, не предоставляющих API, и позволяет быстро и эффективно получать необходимую информацию.

🌐 Selenium
Эта библиотека предназначена для автоматизации веб-браузера и управления им из кода Python. С помощью Selenium можно выполнять различные действия на веб-страницах, такие как нажатие на кнопки, заполнение форм и многое другое. Это особенно полезно, когда требуется взаимодействие с веб-сайтами, которые используют динамическую загрузку контента или требуют ввода пользовательских данных для доступа к информации.

🔒 Некоторые веб-сайты могут применять различные методы для блокировки веб-скрапинга, такие как CAPTCHA, ограничение доступа для незарегистрированных пользователей или динамическая генерация контента. Для обхода таких блокировок существуют различные методы, включая изменение заголовков запросов, использование прокси-серверов или обращение к специализированным сервисам для обхода CAPTCHA. Также инструменты, такие как Selenium, предоставляют возможность эмулировать работу пользователя с сайтом, что позволяет обойти многие виды блокировок.

⚖️ Возникает вопрос о законности использования веб-скрапинга. Фактически, этот метод не противоречит законодательству, и за него не предусмотрена юридическая ответственность. Однако существуют ограничения, установленные законодательством. Например, запрет на сбор данных из личных кабинетов пользователей и на DDOS-атаки. Также копирование контента, включая изображения и тексты, без разрешения владельца может быть признано нарушением авторских прав. Важно помнить, что сам процесс парсинга не является незаконным, когда данные собираются из открытого доступа, и парсеры лишь ускоряют этот процесс и уменьшают вероятность ошибок человеческого фактора.

Как спарсить любой сайт?


​​Шестой поток программы Архитекторы.рф

Продолжается прием заявок на участие в бесплатной лидерской офлайн-программе Архитекторы.рф.

❗️ Успейте заполнить анкету и отправить портфолио до 4 марта включительно.

В этом году к конкурсному отбору будут допущены не только кандидаты с дипломами архитекторов и градостроителей, но и социологи, культурологи, антропологи, и специалисты в сфере туризма и коммуникаций. 

Финалистов отбора ждет полугодовая образовательная программа, состоящая из 4 очных модулей. Она включает в себя различные форматы обучения, в том числе исследовательские поездки по России и за рубеж, лекции, встречи с экспертами и работу в проектных группах.

Слушатели программы получат удостоверение о повышении квалификации и станут частью междисциплинарного сообщества выпускников. Программа реализуется ДОМ.РФ.

Подать заявку:
https://a.archrf.ru/pXM2Tg


💻 Что там с API и веб-скрапингом? (ч.1)

Вопрос с доступностью данных и их получением всегда стоит остро. Иногда «просто скачать» не работает и приходится обращаться к более сложным методам для «добычи» данных.

Например, такими методами являются Application Programming Interface (API) и веб-скрапинг. API предоставляет структурированный доступ к данным, тогда как веб-скрапинг позволяет извлекать информацию напрямую с веб-страниц. В двух частях этого поста мы рассмотрим, как эти два инструмента могут использоваться для сбора и анализа данных, а также какие возможности они предоставляют для различных проектов и исследований.

API (англ. Application Programming Interface — программный интерфейс приложения) — это набор способов и правил, по которым различные программы общаются между собой и обмениваются данными. Он определяет методы взаимодействия с конкретным программным компонентом или сервисом, позволяя разработчикам (пользователям) получать доступ к его функциям и данным структурированным и стандартизированным образом. В Python использование API невероятно просто благодаря библиотеке requests, которая упрощает процесс выполнения HTTP-запросов для доступа к данным из веб-API.

Примеры сервисов, которые предоставляет пространственные данные с помощью API:

📍 Портал открытых данных Правительства Москвы
Портал предлагает большое количество данных (Например, зарядные станции для электромобилей) по Москве, но пространственные данные в формате GeoJson можно получить только через использование API. На портале присутствует открытая документация по использованию API.

📍 Яндекс.Карты
С помощью API Яндекс.Карт можно получить большое количество данных, либо использовать сервисы Яндекса для анализа данных. Например, среди сервисов есть возможность построения матрицы расстояний или геокодирование адресов. Для бесплатного аккаунта есть ограничения в виде - 500 запросов в сутки.

📍 DaData
Среди сервисов DaData есть такие сервисы как геокодирование, определение кадастрового номера по адресу. Также DaData предоставляет большое количество иных сервисов, которые могут пригодиться при работе с данными. У DaData для бесплатных аккаунтов также есть ограничения.

Конечно это не основной список сервисов, которые используют API. У каждого сервиса своя документация и свои правила использования API. Перед использованием следует ознакомиться с ними.

Ещё про API


Индекс пространственного и технологического развития городов мира

Москва и Санкт-Петербург — в числе мировых лидеров по уровню пространственного и технологического развития. Эксперты НИУ ВШЭ, а также исследователи из Китая и Индии, приняли участие в разработке индекса пространственного и технологического развития городов мира.

Рейтинг основан на следующем наборе показателей:

Блок «Пространственное развитие»:
🔸 уровень полицентричности;
🔸 функциональное разнообразие пригородов;
🔸 связность дорожной сети и развитие транспортной инфраструктуры;
🔸 разнообразие морфотипов застройки;
🔸 доступность зеленых зон.

Блок «Технологическое развитие»:
🔹 развитие шеринговых сервисов, такси и доставки.
🔹 развитие государственных услуг;
🔹 научный и культурный потенциал.

Подробнее читайте в материале (👈 кликай)
Сайт проекта: https://uiei.org/


Блог профессора

Недавно наткнулись на сайт, который ведет профессор городского планирования и пространственного анализа в Университете Калифорнии Джефф Боинг. На странице опубликовано много материалов связанных с городскими исследованиями на разные темы, от загрязнения воздуха в Лос-Анжелесе до поиска жилья в эпоху BigData.

Архив публикаций ведется ещё с 2014 года, каждый найдет для себя интересные статьи для прочтения.

https://geoffboeing.com/




Итоги Urban Research

21 декабря 2023 года прошла конференция «Urban Research: Город данных. Актуальные городские исследования и область их применения».

В рамках мероприятия были проведены пленарные сессии, разборы кейсов, питч-сессия, диалоги с экспертами, нетворкинг и многое другое. Среди участников были гос.корпорации, провайдеры больших данных, консалтинговые компании, девелоперы, университеты и научно-исследовательские институты. Публикуем ключевые идеи практической конференции по пленарным, кейс сессиям с краткими общими выводами

Источник


Пятничный мем 🙃


Воркшоп по основам анализа геоданных в Python

Видео от Data Scientist’а в команде Гео BigData Мегафона. Обсуждают проблемы, с которыми можно столкнуться при работе с геоданными, обсуждают кейсы. По плану воркшопа: базовые операции с геопространственными данными в Python, работа с координатами, базы данных, разбор кейса с предсказанием цены на такси в Нью-Йорке и многое другое.


Четыре всадника апокалипсиса ,знакомые многим 😅


📚 А с чего начать? (Ч.2)

Теоретическая база:
Постарались отразить моменты которые необходимы для погружения в сферу, но не связанные с программами напрямую.

📌 Вводная информация по геодезии, проекциям, системам координат
📌 Понимание видов и источников городских данных
📌 Вводная информация по статистике для анализа полученных данных. После можно идти дальше: теория графов, сетевой анализ, машинное обучение и т.д
📌 Понимание пространственной привязки по координатам, а так же индексу, адрессу и т.д
📌 Изучение поверхностных типов данных с которыми будет вестись работа. Векторные, растровые данные, метаданные. (А так же большой интерес работать с данными 😉)
📌 Типы данных, алгоритмы и структуры данных. Хотя бы на уровне файлов знать что такое .geojson, .gpkg, shapefile и с чем его едят. На более серьезном уровне понимать структуры данных.
📌 Базовое знание OSM как одного из основных источника информации

Ждем от Вас ещё советов по методическим материалам в комментариях!)


🤔 А с чего начать? (Ч.1)

Сегодня поговорим о базовых навыках и знаниях, которые необходимы, чтобы начать свой путь в геоаналитике и геоинформатике. Разделим материал на два блока техническая часть и теоретическая.

Техническая база:
Основными инструментами для работы с пространственными данными являются QGIS, ArcGIS, MapInfo. Для начала, необходимо изучить простые навыки (на примере QGIS):

📍 Оверлейные операции (Clip, Difference), Dissolve, Merge Select/Join by location
📍 Построение буфферов
📍 Базовое владение выражениями и знание мест их применения: математические и логические операторы, взаимодействие с атрибутами объектов и их геометрическими характеристиками ($area, $length, $perimeter, $x, $y)
📍 Владение базовыми плагинами, например: QuickOSM, QuickMapServices, autosave
📍 Знание типов визуализации: Single Symbol, Graduated, Categorized
Single Symbol - одинаково показываются все объекты
Categorized - визуализация по какому-то категорийному значению. Это может быть и число, но у каждого уникального числа свой стиль
Graduated - отображает какой-то количественный параметр, и для каждого интервала значений указывается свой стиль
📍 Добавление подписей
📍 Создание макетов и экспорт карты
📍 Картографические проекции
Что такое картографические проекции, системы координат и сами координаты. В чём отличие СК слоя от СК проекта

Программирование:
Python:
 🔸 Базовое владение языком программирования
 🔸 Знакомство с такими библиотеками, как NumPy, Pandas, Matplotlib, для манипулирования данными и визуализации
 🔸 Знание геопространственных библиотек, таких как Geopandas, Fiona и Shapely
 🔸 Понимание работы с API и запросами, используя библиотеку requests
 🔸 Навыки работы с JSON и GeoJSON, CSV и другими форматами данных, обычно используемыми в геоаналитике

Иногда в геоаналитике используют язык программирования R и язык запросов SQL, второй в основном с точки зрения получения выгрузок из базы данных на начальном этапе работы.

В комплекте с ЯП стоит познакомится с тем, что такое GitHub и JupyterNotebooks, которые сильно упрощают разработку и взаимодействие с коллегами.

Дополнительно:
Веб-картографирование:
- Знакомство с веб-картографическими библиотеками и API-интерфейсами (например, Leaflet, Mapbox, Google Engine).
- Возможность создания интерактивных веб-карт, используя HTML и JavaScript.
- Понимание основ JavaScript и веб-разработки.

Инструментов визуализации бывает недостаточно и карты доделываются в графических редакторах Illustrator, CorelDraw.

Ждем от Вас ещё советов по технической части в комментариях!)


Вчера у нас не получилось выложить пост из-за технических шоколадок. Сегодня исправляемся 👀


Анализ геоданных мобильного оператора

Как эффективно размещать баннеры и открывать торговые точки? Где необходимо провести стройку новой сети? Восстановим траекторию движения пользователей с помощью регистраций на базовых станциях для лучшего понимания клиента. С помощью математики и геометрии описываем логику движения и визуализируем потоки. Расскажет об этом Николай Калуженков, Data Scientist в Tele2




Пробуем формат тематической недели, каждый день будет выходить пост связанный с геоаналитикой. Поговорим про то, как начать свой путь в геоанализе и геоинформатике, рассмотрим кейсы, посмеемся с мемов и многое другое.

Заходи, будет интересно!

Показано 20 последних публикаций.