- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Я не могу каждый день создавать интересный уникальный контент, но хочется иметь посещаемый интересный сайт для общения с людьми и продажи тизерной рекламы.
Если я буду парсить обычные сайты хоть по RSS хоть с помощью поиска новых страниц, то Яндекс и Гугл быстро опустят мой сайт как копию чужого сайта.
Поэтому нужно брать по 1-2 статьи с разных сайтов. Например парсить результаты поиска. Но это крайне неудобно, так как у каждого сайта своя вёрстка и автоматически не вырежешь нужный текст.
Есть вариант парсить крупнейшие порталы или новостные агрегаторы, блогоплатформы. mail.ru li.ru lenta.ru по нужной теме.
Но наверное самый перспективный вариант парсить соцсети. Они не полностью индексируются поисковиками, и очень часто наполняются. Можно парсить конкретных людей, группы, или через поиск.
В частности напрягает что в ВК нет нормальных заголовков и их надо делать вручную на своём сайте.
Парсить Ютуб удобнее всего. Хоть по 1 видео хоть через поиск по сотне сразу.
Какие типы сайтов Вы парсите для наполнения своего СДЛ сайта?
Чтобы в сети было поменьше копий этого поста и чтобы пост был максимально интересен.
вы сами себе пишите скрипт парсинга и поиска лучших постов?
ищу может вдруг где-то кто-то скрипт полезный выложил.
ща пошла мода делать коментарии которые подгружаются на AJAX. и их я не умею парсить с помощью file_get_contents(). CURL тоже не знаю.
Я ищу друзей таких же как я для обмена опытом.
Вопрос только тем, кто наполняет свои сайты с помощью парсинга, остальным просьба не тролить и не отвечать.
Какой хитрый человек 🍿
На сдл не парсят:)
Какие типы сайтов Вы парсите для наполнения своего СДЛ сайта?
Шикарно, просто слов нет. Многие думают, что СДЛ это все, что с более менее осмысленными текстами. А все остальное - дорвей. :)
Сплог это называется. И да - тема умерла лет как 8 назад.
По буржу только FB. Тема специфичная, выкладывают много фоток, делают отчеты, много советов, так что статьи получаются отменные 😂
Запустил в целях эксперимента полгода назад, так сам удивился, трафик уже 5к+ и по 1700+ запросам в топ10. Язык мульти. Тему палить не буду, на форуме даже слепые становятся зрячими 😂. Идею подсказал канадец, я ему сайт делал под такое же, только тема другая. Посмотрел, что у него траф за год не скромно взлетел, решил сделать свое.
Жалко что G+ нельзя парсить, статьи в разы лучше, но google их пускает в индекс и как правило на первой странице выдачи.
Дополнил.....домену 4 года, из них последние 3 года был в "передержке"
И да - тема умерла лет как 8 назад.
Тема умерла только для ленивых (без обид) 🍿
Я в одной теме недавно уже говорил. Видите, что человек называет свой сайт СДЛ? Проходите мимо, там статейник на WP в лучшем случае.
smurf, вы сами себе пишите скрипт парсинга и поиска лучших постов или гдето можно скачать готовый ?
ща пошла можа делать конментарии которые подгружаются на AJAX. и их я не умею парсить с помощью file_get_contents()
CURL тоже не знаю.
но ищу вдруг где-то кто скрипт полезный выложил.
Сейчас в тему подтянется дедушка WEB и затянет свою песню про СДЛ, по его мнению СДЛ есть только у него и у Википедии (и это не точно).
А вообще парсить чужие сайты ....
Парсить - этим словом вуалируют простую кражу текста. Учтите, что владелец ресурса платил деньги копирайтеру за этот текст, в большинстве случаев. А вы взяли и сп.. арсили
Тема умерла только для ленивых (без обид)
Методы есть, но я не собираюсь их озвучивать в паблике. Пусть сами ищут для своих ГС. И так всю выдачу загадили.
Vveb--ws, зачем изобретать велосипед, сайт то SDL, ну или почти :), WP тоже как бы для человеков сделан, потому взял 2 плагина (популярных) для авто парсинга, слепил все в комок, выкинул все лишнее, что осталось почистил, пошаманил (бубен из Туниса привез), еще раз почистил, настроил под конкретную задачу (для себя) и запустил. Теперь жду когда google очухается от моей наглости и пришлет привет. Но походу он уважает наглецов. 🙄
Есть такое - ВК сейчас парсят все кому не лень, потому нет смысла русский контент от туда заливать на "СДЛ", все равно еще раз украдут, да еще потом и абузу накатают за оригинальный копипаст ;)
---------- Добавлено 17.08.2018 в 00:10 ----------
Парсить - этим словом вуалируют простую кражу текста. Учтите, что владелец ресурса платил деньги копирайтеру за этот текст, в большинстве случаев. А вы взяли и сп.. арсили
Так сейчас мода возвращается на па(р)секи, это же чистый мед, вот и возрождается профессия па(р)сечника 😂
smurf, это слишком просто.
я пишу свои парсеры Вконтакте и Ютуба с нуля для PHP-Fusion 7
кстати парсер Ютуба был изначально для WP. я его перенёс на PHP-Fusion 7
Жалко что G+ нельзя парсить,
А что мешает? Какие-то технические трудности?