- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте! Помогите новичку!
Многие сайты разрешают перепечатку своих статей, но такое не очень одобряется поисковиками из-за не уникальности подобного материала.
Идея, скриптом заполнить пробелы ками нибудь символами, чтоб текст получился 100% уникальным, а при выводе на экран скрипт, убирая всё лишнее, сгенерирует нормальный текст.
Вопрос: где точно поисковики берут информацию, с исходников на сервере или анализирует конечную информацию, которая будет вводиться на экран?
Здравствуйте! Помогите новичку!
Многие сайты разрешают перепечатку своих статей, но такое не очень одобряется поисковиками из-за не уникальности подобного материала.
Идея, скриптом заполнить пробелы ками нибудь символами, чтоб текст получился 100% уникальным, а при выводе на экран скрипт, убирая всё лишнее, сгенерирует нормальный текст.
Вопрос: где точно поисковики берут информацию, с исходников на сервере или анализирует конечную информацию, которая будет вводиться на экран?
Клоакинг давно придуман)
И ПС это понравится не больше чем копипаст)
Закажите лучше дешевый рерайт
Клоакинг давно придуман)
И ПС это понравится не больше чем копипаст)
Закажите лучше дешевый рерайт
СПС, и всё же, как ПС отслеживает новые статьи на сайе?
чтоб текст получился 100% уникальным
Такхого пипадет под илтрацию.
Вот 100% уникальный текст)
Смотрите на уникальность шире.
Ну и кроме того, есть много методов проверки неявных дублей, кроме пошинглового сравнения.
СПС, и всё же, как ПС отслеживает новые статьи на сайе?
Засылает робота, который индексирует страницы по ссылкам или по карте сайта.
Возьмите да проверьте.
Яндекс обычно берет текст из кода страницы. Гугл - неплохо и скрипты обрабатывает. А вот что попадает в индекс - я бы протестировал.
Можно довольно просто это проверить. Заменить все похожие буквы на английские и при выводе менять на сайте все обратно. Ну или использовать спецсимволы.
Но что-то я не думаю, что такая "уникальная" бурда будет нормально участвовать в поиске.
Помогите новичку!
новичок и сразу о воровстве-халявке думать...
ТС - читайте про дорвеи там ваш успех..
---------- Добавлено 27.04.2020 в 18:40 ----------
где точно поисковики берут информацию,
самое точно место:
загрузить в браузер и посмотреть код страницы
ТС лучше вообще никогда сайты не делай
Проще копипаст продвинуть чем такой фигнёй страдать. И безопаснее уж точно. Яндекс точно фильтрует подобные вещи с обманом юзера или бота. Даже если эта бурда попадёт в выдачу и встанет в топ, вполне может владелец статьи её увидеть и наныть в сапорт на визит к вам модера и накажут вас не за копипаст, а за обман и даже не скажут об этом :) Сиди потом думай что пошло не так.
Чувствую, скоро еще один гс "выйдет в свет"....:D
Тестировал в 2017 году подобное.
Была функция на PHP, которая тупо заменяла символы с русских на английские.
Далее делал 2 копии. Одна копипаст, вторая обработанная.
Далее пытался яндекс ботам подсовывать обработанную, остальным копипаст. Чтобы, если че, платонов дураками выставить)
Результат - Фильтр малополезный контент в яшке либо несколько проиндексированных страниц.
10-50 страниц индекса в гугле. На таких "сайтах" было по 5-8К страниц. Были нулевики 5 штук и дропы 5 штук.
Попробуйте, может у меня не прокатило.