one, inurl:* , не?
Грубо говоря, сегодня ссылки есть, завтра нету, послезавтра опять есть...
SocFishing, Вы наверное невнимательно читали. Яндекс не отменил АГС, просто обнуляется ТИЦ и понижаются позиции в выдаче. Сами страницы остаются в поиске.
Ап вроде был. И нормальный такой, по крайней мере у меня. Даже пачка двухмесячной давности наполовину проиндексировалась (свежереги), а я про нее и думать забыл. И фриблог на честно сворованном унике тоже. Живем... :)
Dos3, только аддурилка?
Если говорить про текстовое содержание сайта, то скорее всего дело не только в одной уникальности. Один сдлщик знакомый на неделе рассказывал про отличие уникальных текстов от оригинальных для Яндекса. Мы бухали сильно, и я слабо помню разговор, но суть такая - робот вполне себе способен более-менее разобраться в структуре и содержании текста и даже отличить рерайт от копирайта.
Есть способ добычи уника для Яндекса (не рекламируюсь и не спалю (пока) :)) - нормальный контент. Подшаманил около 50 статей под НК ключи, вручную залил на трастовый фриблог, перелинковал аккуратно, тайтл, дескрипшен, все дела. Загнал быстробота, в индекс половина статей как по маслу залетела, траф пошел. Обрадовался, стал жадно потирать руки, но не тут то было. В общем, теперь в Я только четыре страницы... Хотя хз, может зайдет еще.
Это к чему мои пьяные мысли: если уникальный читабельный контент выпадает, то что тут про доры говорить.
Добываем морфологически правильный уник:
1. Любым доступным способом парсим текстовку нужной тематики на ин. языке (я пользуюсь XParser Light)
2. Загоняем ее в Word и автоматически пеерводим на русский язык (например, с помощью PROMT Professional)
3. Полученный результат прогоняем через фильтр (во вложении) - так убираем предложения, где есть хоть одно не переведенное на русский язык слово
4. В том же Ворде - верхнее меню "Рецензирование" вкладка "Проверка правописания" поможет избавиться от предложений с неправильной морфологией. Я автоматизирую этот порцесс с помощью фришной утилиты Tasker - запускаю и просто оставляю на ночь. Тем, кто знаком с программированием, думаю, не составит труда наваять скриптик на том же PHP.
В гугл такая текстовка влетает отлично - соплей не наблюдается, все в майн индекс. В Яндекс тоже нормально.
Вот такой я извращенец... :)
Вы уверены? Конечно, могу ошибаться, но Яндекс вроде их считает разными. Во-первых, каждому сабу в ЯВ можно присвоить отдельный регион. Во-вторых, для каждого саба же можно (и нужно) составить robots.txt, карту сайта и т.д. Ну а в-третьих, просто слышал где-то...
Ой-ой-ой, рерайт и копирайт не панацея, а в случае ТС особенно.
Я БС и не занимаюсь, но это просто ...дец. Так, быстро пробежался:
Наличие в гугле 17 к страниц свидетельствует о куче дублей. Это раз.
Текста на страницах нет, ни копипаста, ни ререйта, ни копирайта. Индексировать нечего - это два.
http://tempforest.ru/uploads/sitemap.xml это сайтмап в дле такой? 😂
Посмотрел три страницы подряд, в двух ошибки в дескрипшене. И это не вчитываясь...
Ну и последнее, не знаю как эти страницы сайта называются, в вордпрессе - записи, короче, такие http://tempforest.ru/2014/03/23/campaignify-crowdfunding-wordpress-shablon.html , одна строчка исходного кода удивила. Угадайте, какая: <meta name="robots" content="noindex,nofollow" />
Да, и в индексе Яндекса не 120, а 91 страница.☝
Первым делом о седе подумал. Не он? 😂