Как насчет статейных с бирж?
Запарился искать качественные сайты в ГГЛ. Все заср..о ссылками и супер-текстами около 1к символов.---------- Добавлено 24.08.2015 в 12:06 ----------
Это стимул развивать собственное производство. Россия один из крупнейших экспортеров зерна.
А, если развивать туристическую отрасль, то дешевый рубль будет этому весьма способствовать.
У них какой-нибудь отдел по разработке интерфейсов должен деньги получать. 😂
Все никак не пойму, что за гугло-гений сделал в предпоследнем отчете ссылку "последние 28 дней". Какому воспаленному мозгу такой отчет может понадобиться.
Нормальный признак, сильный, чо. 😂
У некоторых в этой теме одна мысль - яндекс стал искать плохо, он без ссылок погибнет, яндекс стал искать плохо и так по кругу. Понятно, конечно, доход у них от продажи ссылок падает.
Я, конечно, не сторонник фильтров за внешние факторы, даже наоборот. Но некоторые продолжают тешить себя иллюзиями, что все будет, как прежде. Ну не знаю.
Интересный пример. Таких много в том же ггл. Какие признаки Гсайтовости назовете для данного конкретного примера? Ссылок, кстати, с него не особо много продано.
Да просто народ про тематичность говорит. Чета сложно все это, на мой взгляд, в текущих условиях для яндекса. Он же не Cкайнет. :) К тому же есть сайты, типа всяких капросто - и какая у них тематика?
Так чего тут определять, я же говорил про свой сайт - покупных ссылок не было, прогонов по каталогам не было, конкуренты на него ничего не покупали.---------- Добавлено 18.08.2015 в 22:52 ----------
Для машины, которой является яндекс, самое очевидное и малозатратное - это принадлежность донора к некоему списку спамных сайтов, которых можно довольно просто выявить. Вон в теме про ГГЛ народ уже вовсю плачется, что хороших сайтов там все меньше и меньше.
В свое время один мой сайт в google попал под ручные санкции за ссылки безо всяких покупных ссылок. Были только естественные. Есть у кого сайты, попавшие под Минусинск без покупных ссылок? Ибо у не новых проектов их может быть довольно много.
Хотел сказать, что сейчас, возможно google пересмотрел свое отношение к роботс и уже не индексирует все подряд, как раньше.
Недавно google у одного сайта не правильно показывал адаптивную версию. Оказалось, что css и скрипты были закрыты в robots. И выдавал ошибку, что googlebot не может получить доступ к таким то ресурсам. После их открытия в роботсе, все стало нормально.