Рассказываю о функции importxml в гугл таблицах. С помощью этой функции можно автоматом выдергивать данные / парсить с сайтов конкурентов или любых других. Напримерм вам надо проанализировать цены, получить данные по значениям — если переписывать или копировать руками, то это займёт невероятно много времени. С помощью функции импортэксимель это можно сделать гораздо быстрее и с меньшими затратами сил.
Обучающий центр CyberMarketing (Кибермаркетинг) представляет вебинар «Парcинг любого сайта для «домохозяек»: ни строчки программного кода»
➤ Попробуйте прямо сейчас рекламную систему PromoPult — bit.ly/promo_Pult Промокод webinar на дополнительные 500 рублей
➤ Зарабатывайте до 8% от оборота на контекстную рекламу bit.ly/click_ru Промокод webinar на максимальный процент с первого месяца
На вебинаре Евгений Костин, Руководитель департамента продаж Системы PromoPult, расскажет про парcинг любого сайта для «домохозяек»: ни строчки программного кода
Доклад будет полезен SEO-специалистам и владельцам интернет-магазинов, каталогов, больших контентных сайтов. Тем, кому надоело вручную вносить товары в админке. Тем, кто хочет за день наполнить свой сайт тысячами товаров с фото, характеристиками и т.д. Тем, кто хочет мониторить цены конкурентов. Или просто собрать любую нужную информацию с любого сайта: контактную информацию, структуру каталога, заголовки статей и т.д.
— что такое парсинг, как работает парсинг и в каких случаях необходим парсинг;
— как собирать любую информацию с любого сайта в Excel, а затем выгрузить на свой ресурс;
— наполнение каталога интернет-магазина на основе сайта-конкурента;
— дополнение информации о товаре на основе чужих данных: фото, отзывов, характеристик;
— как обходить ограничения при парсинге.
Learn how to use UrlFetchApp Class to import external data to Goole Sheets or use it otherwise in Google Apps Scripts. This tutorial will also walk though creating UDF (user defined function) in Google Sheets, JSON parse in JavaScript and other related topics.
В предлагаемых двух уроков будет показано написание программы для парсинга реального сайта в сети. Из данной серии уроков вы узнаете о таких библиотеках, как Requests и BeautifulSoup.
Первая – позволяет отправлять HTTP-запросы и получать исходный код запрошенной страницы. Вторая – позволяет получать конкретные данные из полученного исходного кода страницы.
В данном уроке будет показана установка необходимых для работы пакетов и написаны две основные функции, которые будут парсить и забирать необходимые данные, пока что только для одной указанной страницы.
Парсинг (скрапинг) веб-страницы с помощью функции ImportXML()
Видео описывает пример применения функции функции Google Sheets ImportXML() для получения информации с веб-страницы, и переноса этой информации на лист электронной таблицы.
Продолжение темы — Парсинг (скрапинг) с помощью Apps Script: youtu.be/kp5dSl-ev08