- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
то что ПС на данный момент не может определить первоисточник, так я думаю ни когда и не сможет это пока даже теоретически невозможно
О том и речь. Не можешь что-то уверенно определить? Так какой смысл делать выводы на основании неопределенных фактов?
Это как в дестве игра такая была.
Собираются несколько балбесов, один становиться спиной, а остальные дубасят его по спине, а он должен определить, кто его долбанул :)
Детский сад.
И вот еще что, на счет 2 одинаковых документов.
Предположим, есть сайт, где в корне на сервере лежит один единственный вайл *.txt с неким текстом.
А есть офигительно красивый и функциональный сайт с тем же самым текстом. Кто из них должен остаться? Если мы говорим о
2 документа с одинаковым содержанием?
Есть мысль создать сайт с текстами различных песен.
P.S. Внимание вопрос: через сколько дней после индексации сайт выпадет из Яндекса за неуникальный контент? И как этого избежать?
Вот сколько раз ни искал тексты различных песенок - все, все сайты (штук 10-15 точно) присутствуют в выдаче. И никогда никуда не пропадают. С чего Вы это взяли?
😆
Не ставьте знаки препинания. В текстах, например, на старых "винилах" так и делалось. Или ставьте. Делайте намеренные незначительные ошибки. Или пишите все строчки со строчной буквы. Юзайте многоточия.
:D
А Вы про новости не догадались подумать то же самое? Или про стихи? Целые произведения - из прозы? Или что-то подобное? Вы вообще в сам Интернет заглядывали - что там?;)
А если, к примеру, блоггер будет через три-четыре поста помещать тексты песенок или стихи - так, для выражения настроения... Или в сами посты? Так его тоже банить, что ли?
Миха. Миха-а-а-а!!! Ты бы лучше вот с такими, мягко говоря, неумными постами разбирался.☝
Есть мысль создать сайт с текстами различных песен.
P.S. Внимание вопрос: через сколько дней после индексации сайт выпадет из Яндекса за неуникальный контент? И как этого избежать?
P.P.S. Пишу после того, как из индекса Яндекса пропало несколько моих сайтов, не содержащих уникального контента.
ИМХО, неуникальность - понятие относительное. Для торговых контор, прайсы повторяются, и накладывать такой фильтр - глупость. Так что, Яндекс понимает тематику и возможность появления в ней неуникального контента, иначе все интернет-магазины были-бы за 50-ой позицией, так как многие наименования товара есть дубль.🚬
И если действительно размещать комментарий, только не перед каждым абзацем, а по крайней мере на каждой странице ? А сам стих в noindex. Т.е. по названию песни страницу можно будет найти а по строчке - нет.
Tarry, [offtop] Бразилия - португалоязычная страна [/offtop]
по теме - имхо за тексты песен не должен выкинуть из индекса, посмотрите сколько всяких фансайтов и все живут.
Выскажу свои мысли. На сайте вполне может быть чужой контент, главное - чтобы также была другая (новая для поисковиков) информация. Имхо, достаточно сделать свой title, названия, форматирование и поставить уникальные навигационные ссылки. Идеально - добавить на страницу уникальный текст, хотя бы комментарии.
Думаю, что Яндекс по-разному относится к сайтам, у который полностью краденый контент, и к тем, у которых только 1-2 раздела неуникальны. Летом я как-то разместил на сайте с уникальными материалами раздел с примерно 100 страницами неуникального контента (присланного мне по e-mail. Но это дублирование я увидел только потом (нашел дубли на 3-4 сайтах), когда сделал основную работу по подготовке контента. Жалко было стирать уже подготовленный материал, поэтому все-таки разместил его в интернете, поставил несколько каталожных и обменных ссылок. Сейчас он в топе (тема неконкурентная).
бред вы все говорите, почитайте как работает алгоритм шинглы и не советуйте парню ерунды...
Если так боитесь санкций за дубли, то тексты песен можно в <noindex>, а оставить только заголовки и уникальные вещи (типа комментов к текстам).
бред вы все говорите, почитайте как работает алгоритм шинглы и не советуйте парню ерунды...
Кажется, вы уже прочитали про работу этого алгоритма. Расскажите тут вкратце нам, несведущим. :)
версткой текс песни резать... + делать динамическую навигацию...