LEOnidUKG, спасибо, всё починил. Но, на самом деле, я имел ввиду внешнюю оптимизацию :)
Ingref, у меня есть перелинковка. Это в разделе "Города рядом". Я написал специальный алгоритм, основывающийся на функции гаверсинуса и определяющий ближайшие по координатам города к городу направления. Это не подходит?
kittenAA, под прогоном я имел ввиду заказ копирайта статей со ссылками и их размножение в тематических блогах. Наверное, стоило это уточнить.
У меня информация на страницах генерируется динамически и если этой информации недостаточно, то страница будет практически пуста. Я хочу исключить такие страницы и уже нашёл способ.
Когда пользователь начинает поиск по определённому направлению, то по его окончанию в базу кладётся информация о минимальной и максимальной цене в тот конкретный день, на который пользователь планировал вылет. Есть такие направления, на которых авиабилеты ищут ну крайне редко или не ищут совсем. Например, направление Бильбао - Гонконг - https://www.flaut.ru/tickets/bilbao/hong-kong/
По этому направлению билеты не искали совсем и там по всей странице тексты "Недостаточно информации", и только внизу статичный текст (один из четырёх возможных). Если робот зайдёт на страницу с похожим направлением, где отличаться будет только текст внизу страницы, то он с вероятностью 99% выбросит страницу из индекса с пометкой "Дубль", а потом присвоит ей статус "Недостаточно качественная".
Странный вопрос. Конечно же, я пишу текст сначала для людей, после чего оптимизирую его для ПС во избежание наложения санкций, но без потери изначального смысла.
Попробуйте servers.com
У них VPS в Амстердаме от 360 рублей. Дедик Е3-1231, 32гб памяти, 4тб хард с возможностью поставить RAID0 или RAID1 и гигабитный порт 20ТБ в месяц - 7000 рублей.
Напишите в поддержку ВКонтакте. Они обычно отвечают в течение суток и дадут вам исчерпывающий ответ.
В том, что это не единственный способ запрета индексации. В своей группе такого мета-тега в исходном коде я не нашёл, а значит, это относится к новым группам и работает во избежание распространения спама.
Вы не можете объяснить на словах?
Понятия не имею. У вас показатели куда более стабильны, чем мои.
Изначально на моём сайте был фильтр "Переспам" или "переоптимизация". Я почистил тексты на страницах, уменьшил количество точных вхождений и ключевых слов по тематике. И добавил новые страницы уже с хорошими текстами. Они влетели в индекс и тут же начали давать трафик, но через пару дней весь трафик сдулся. Я так понимаю, что санкции на сайт накладываются не на конкретные страницы, а на весь сайт целиком. И когда новые страницы попали в индекс, они ещё не были под санкциями и Яндекс давал им хорошие позиции, но затем уже подъехал алгоритм, который понизил позиции новых страниц основываясь на ситуации по страницам сайта в целом. Сейчас вот старые страницы с переспамлеными текстами начинают понемногу переобходиться роботом. Надеюсь, что скоро санкции спадут и трафик возрастёт. Предупреждаю сразу, что это лишь мои собственные догадки и субъективное мнение.
А ещё, полагаю, Яндекс может поливать трафиком новый сайт чтобы оценить поведенческие факторы.