- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Решил для своего нового проекта (сайт со статьями) использовать DLE. Однако, в сети наткнулся на множество мнений, что статьи (новости) с ДЛЕшных сайтов легко сливаются на другие сайты с помощью всякого рода парсеров и прочих скриптов автонаполнения сайта. Скажите так ли это? Действительно ли на ДЛЕ трудно противостоять парсерам?
Также слышал другое мнение, что труднее всего перетаскивать статьи с wiki движков. Объясняется это специфической разметкой данного движка (так называемая wiki разметка). И что из-за нее копировать статьи с wiki сайтов в автоматическом режиме очень трудно. Вы с этим согласны? Действительно ли mediawiki обделен вниманием автонаполнителей?
Подскажите движок, с которого всех труднее тянуть (парсить) контент
Со всех легко (причем тут движок..). Была бы голова.
Сделайте сайт на флеше. С него стянуть контент ооочень сложно. Даже поисковые роботы трудности испытывают, что уж про какие-то там парсеры говорить! :)
Больше всего трудностей доставило мне отсутствие движка. Когда вёрстка различается от страницы к странице, порой требуется очень долго дописывать парсер.
порой требуется очень долго дописывать парсер.
и потом, если что, долго перепиливать сайт самому, зачем?
TC, лучше делай так что бы контент который у вас тянут не приносил никому большой пользы, кроме вас.
Вон на wp на все случаи жизни плагины, и защиту видел(непмню как реализовывается).
Сам я в rss выводил только заголовки и первые пару строк(непомню как делал).
ну и в статьях надо писать "здравствуйте дорогие пользователи blablabla.ru".
Патамушта если скрипты ставить, то неудобно и себе и пользователи бесяца.
Если контент нужен - его спарсят откуда угодно.
и потом, если что, долго перепиливать сайт самому, зачем?
TC, лучше делай так что бы контент который у вас тянут не приносил никому большой пользы, кроме вас.
А это как, можете привести пример?
p.s. А еще лучше, чтобы у вора, укравшего контент, начиналась полоса неудач. Только как написать такой контент?
Трудно будет парсить, только если к классам в коде будет добавляться какая-либо переменная, сбивающая парсер с толку.. :)
Но если Ваш сайт будет не прицеле и это бесполезно.
Чем больше верстку запутаете, тем меньше возможностей спарсить контент. Хотя практика показывает, что парсится абсолютно все! Был бы прогер хороший.
ТС, спарсят всё и с любого двига, была бы голова и интерес к вашему ресурсу самого чела-парсера, пока интереса нет, соответственно и ни кому это не нужно.
С DLE обычно парсят через RSS, отключите поток и доставите неудовольствие многим школо-парсерам. ;)
Когда сайт чётко встанет в ПС, включите, если нужда будет.
Также в DLE есть такая возможность: Использование RSS потоков разного типа одновременно
В принципе "волков бояться, в лес не ходить".