- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сразу хочу подчеркнуть, что это не жалоба, а попытка предостеречь тех, кто может пострадать от подобного. Сам виноват, что протормозил положившись на методы, которые почти всегда работают для быстрого добавления сайта в индекс. Тема не новая, но повторение лишним не будет наверное.
Был создан сайт на нулевом домене и запущен сразу со 100+ страниц уникального контента. Гугл съел почти всё за первые сутки. Через сутки были проведены работы, которые позволяют добавить сайт в индекс Яши за 10-30 минут в 90% случаев и в течении суток в остальных 9%.
Этот случай выпал на оставшийся 1%, когда страницы в индекс попадать никак не хотели. Конечно же всё это дело потихоньку начали растаскивать старые говносайты с пузом и входить в индекс. Решил написать абузу через специальную для этого форму с просьбой исключить из поиска неугодные страницы всё подробно описав и приложив в качестве доказательства выдачу от Гугла (понимаю, что смешно, но имхо это самый простой и правдоподобный вариант). Так же попросил включить мне форму для добавления уникальных текстов в вебмастере - понимаю, что это не панацея, но могло бы быть некоторым плюсом.
В итоге болты по всем статьям:
Риторический вопрос: "А нахрена все эти возможности, если они не работают?"
Для себя сделал один вывод: теперь буду делать одностраничные заглушки, вводить из в индекс, набирать хоть какой то тиц, а потом начинать на них что то делать.
Для себя сделал один вывод: теперь буду делать одностраничные заглушки, вводить из в индекс, набирать хоть какой то тиц, а потом начинать на них что то делать.
хм
а вы пробовали втолкнуть в индекс сайт на котором яша сьел 1 страницу 2 месяца назад?! до нескольких месяцев можно пытаться
вопрос: "А нахрена все эти возможности, если они не работают?"
Как обычно, похвастаться новым начинанием... уже и так отставшим на годы. Но вот скорость индексации Зеркало повысить ну никак не может.
TheVS, как насчет старой доброй схемы защиты контента? Насколько я понимаю, она актуальна до сих пор, если burunduk до сих пор ее продает. Да и datot проводит почти открытый эксперимент, использующий подобную схему защиты.
От растаскивания контента она не спасет, но свои очевидные плюсы данная мера имеет.
В любом случае, это принесет больше пользы, чем ругань на Яндекс на страницах серча. Ибо от последнего совсем толку не будет.
хм
а вы пробовали втолкнуть в индекс сайт на котором яша сьел 1 страницу 2 месяца назад?! до нескольких месяцев можно пытаться
в крайнем случае можно платонам написать, по крайней мере эту проблему они способны решить
JayD, Спасибо за совет, но ехать в другой город за платным советом мне пока что лень. Если воры не образумятся и добровольно не удалят мой контент, то я просто сделаю так, чтобы их аккаун в adsense забанили, ибо нефиг.
Про эксперимент datot прочитал пару дней назад и сразу же проверил, да, тема действительно рабочая, загнал в индекс страницу за 10 минут, при этом по запросу точного текста она выше оригинала.
богоносец, тут не могу ни прибавить, ни убавить, а только согласиться.
TheVS, аналогичная история. Впервые уже 1,5 месяца новый сайт с авторской информацией не может войти в индекс Яндекса. Платон советует развивать ресурс. При этом сайт уже на 1-2 странице в Google по своим запросам без покупных ссылок, двигается вверх, посещаемость растет. А с призрачной индексацией в Яндексе терять десятки хороших готовых статей совсем не хочется. Поэтому возникла идея ввести их в «Оригинальные тексты» и индекс на одном из старых сайтов, а уже потом разместить на новом с 301-редиректом со старого ресурса.
Кто-то практикует подобное? Передается ли статус оригинала таким способом? И не будет ли санкций к старому домену за редирект на сайт под фильтрами?
Во-первых, какой смысл добавлять все страницы в индекс? Я обычно выкладываю пару-тройку страниц. Итого, если сайт попадает в индекс, имеем 3-4 страницы, что уже говорит о том, что домен не в бане. Во-вторых, если в этом случае сайт не индексируется 3-4 апа, перекидываю на новый домен, ибо вести переписку с Платоном - терять время
Мне как-то друг рассказал историю, как продавцы пива решили одну свою проблему. Был магазин, по сути пивная с разными закусками. Когда люди покупали бокал пива, продавец наливал его в бокал и давал посетителю (вроде простая схема). Было очень много негодований и споров со стороны посетителей, что одним вы наливаете больше, другим меньше, у меня много пены, ты не умеешь разливать пиво и т.д. ...
Как решили проблему? Дали посетителям возможность наливать пиво самостоятельно, кто на что горазд. Теперь клиент оплачивает покупку, ему дают бокал и тот сам себе сколько хочет наливает пива :) проблема недовольства исчезла, но при этом каждый остался со своей пеной.
Если бы яндекс заморачивался на авторских правах, то пришлось бы половину сотрудников перевести в режим поддержки пользователей, это неразумно.
И да, TheVS, Яндекс изначально "не наливал вам", а предлагал самим. Он лишь предоставляет место, где это можно сделать... Отсюда, как решить проблему вам? Так, как советует Платон - развивать ресурс для пользователей, а не для поисковых систем.
да, яша удивляет... Гугл в этом плане гораздо шустрее оказался
проблема в том, что яндекс считает ваш контент плагиатным.
Да, поэтому он отказывается индексировать текст. Теперь, пожалуйста, расскажите, откуда в индексе столько копипаста? Это ведь плагиат
Отсюда, как решить проблему вам? Так, как советует Платон - развивать ресурс для пользователей, а не для поисковых систем.
Что очень порадует владельцев ГС. Но у Бота Шукина и про это есть отписка, помню...
И вы, и Яндекс прячутся от признания того факта, что ПС способствуют созданию ГС. А особо тормозные — способствуют более. А год назад индексилось быстрее...
ps Интересно, что скажет самоназначенный специалист по соответствиям сайта критериям качества Яндекса?.. который уже мало чему хорошему соответствует, застряв в каком-то году. В нём всё ещё есть какие-то АПы...