- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уважаемые форумчане, много говорилось о пессимизации сайтов из-за неуникальности текста, и вот я, с одним моим товарищем решил написать скрипт, такой чтобы:
1. определял копии текста со всех странниц сайта
2. находил сайты с похожим контентом
3. Функции таймера (допустим раз в сутки автоматически запускался-не знаю,возможно это сделать, но сотоварищ говорит можно)
Вот что хочу спристь, что еще добавить желательно к функциям скрипта?может этим уже кто занялся(чтобы время на написание не тратить)?
определял копии текста со всех странниц сайта
Это он сам искать будет или пользоваться поисковиками(копискейпом)?
Если поисковиками, то как будете обходить бан айпи за превышение количества запросов(предположим у меня сайт на 5000 страниц)
то как будете обходить бан айпи за превышение количества запросов(предположим у меня сайт на 5000 страниц)
Много методов всяких есть, кто Вам сказал, что запросы будут происходит разово?
Ну кстати, наверное надо ставить лимит на кол-во страниц, есть сайты и 100000 стараниц, "завис" будет...
забаню нафиг по ip - и так надоели левые поисковики и всякие парсеры.
забаню нафиг по ip - и так надоели левые поисковики и всякие парсеры.
это к чему?
Мне вот кажется,
Что смысла в этом нет.
Ну сделаете вы свой уникальный контент. После появление его в индексе его тупо копируют и раздербанят на саттелиты.
Что вы будете делать если обнаружите копии? Писать новый контент? А смысл? Его всеравно сопрут и рерайтнут ;)
Нет ничего важнее человеческого фактора, даже в жизни и в природе (глобальное потепление), все зависит от человека. Так что скрипт Вас - не спасет !!! ☝
Зачем раз в сутки проверять-то? В лучшем случае после каждого апдейта Яндекса.
В принципе скрипт очень простой, особенно, если на сайт каждый день добавляются уникальные тексты, то можно заносить либо по 3-4 фразы из них в базу для проверки, либо скрипт сам будет выбирать случайные фразы из уже существующих страниц.
XTR, полностью согласен
только не забудьте приводить буквы к единому виду, а то только что, на башорге смеялись про систему поиска плагиата по рефератам которую школьнеги обходили меняя русские буквы на англицкие такого же начертания. Пpeвeд :)
Мне вот кажется,
Что смысла в этом нет.
Ну сделаете вы свой уникальный контент. После появление его в индексе его тупо копируют и раздербанят на саттелиты.
Что вы будете делать если обнаружите копии? Писать новый контент? А смысл? Его всеравно сопрут и рерайтнут ;)
Ну во первых, не факто что сразу сопрут. Горы контента лежат неспионеренны несмотря на отдельные темы на форуме :) Кроме того, если вы на контент ставите ссылки - то он как главный и определится. Так что пусть тырят.