JamesJGoodwin

JamesJGoodwin
Рейтинг
49
Регистрация
15.02.2018

LEOnidUKG, спасибо, всё починил. Но, на самом деле, я имел ввиду внешнюю оптимизацию :)

Ingref, у меня есть перелинковка. Это в разделе "Города рядом". Я написал специальный алгоритм, основывающийся на функции гаверсинуса и определяющий ближайшие по координатам города к городу направления. Это не подходит?

kittenAA, под прогоном я имел ввиду заказ копирайта статей со ссылками и их размножение в тематических блогах. Наверное, стоило это уточнить.

SmileP:
Будет. А почему не должны то?

У меня информация на страницах генерируется динамически и если этой информации недостаточно, то страница будет практически пуста. Я хочу исключить такие страницы и уже нашёл способ.

SL.ME:
А какие такие прям уж уникальные данные (статистика) там собирается, которой не хватает для генерации?
Автоматически сгененированные тексты ведь похожи один на другой скороее всего, разница только в городах.
Пусть алгоритмы сами и генерируют похожие тексты заменяя одни города другими + на основании каких-то данных по предыдущим городам.
К тому же, чем менее популярен, менее конкурентен запрос, тем меньшее количество текста может требоваться на его продвижение.


Почему небудет графиков с ценами? а откуда эти цены берутся при наличии запросов?, надо направить алгоритмы на автоматическое получение этих графиков с ценами.

Когда пользователь начинает поиск по определённому направлению, то по его окончанию в базу кладётся информация о минимальной и максимальной цене в тот конкретный день, на который пользователь планировал вылет. Есть такие направления, на которых авиабилеты ищут ну крайне редко или не ищут совсем. Например, направление Бильбао - Гонконг - https://www.flaut.ru/tickets/bilbao/hong-kong/

По этому направлению билеты не искали совсем и там по всей странице тексты "Недостаточно информации", и только внизу статичный текст (один из четырёх возможных). Если робот зайдёт на страницу с похожим направлением, где отличаться будет только текст внизу страницы, то он с вероятностью 99% выбросит страницу из индекса с пометкой "Дубль", а потом присвоит ей статус "Недостаточно качественная".

wa-lk:
Нормальным в плане восприятия человеком, или алгоритмами поисковиков, о структуре которых гуру СЕО (и и создатели сервисов проверки текстов) могут строить лишь предположения?

Странный вопрос. Конечно же, я пишу текст сначала для людей, после чего оптимизирую его для ПС во избежание наложения санкций, но без потери изначального смысла.

Попробуйте servers.com

У них VPS в Амстердаме от 360 рублей. Дедик Е3-1231, 32гб памяти, 4тб хард с возможностью поставить RAID0 или RAID1 и гигабитный порт 20ТБ в месяц - 7000 рублей.

nimeka:
есть точные данные?
например спустя какое время? или какое количество участников?

Напишите в поддержку ВКонтакте. Они обычно отвечают в течение суток и дадут вам исчерпывающий ответ.

nimeka:
я создаю группу в вк,ок,фб
открываю хтмл код и там вижу <meta name="robots" content="noindex,nofollow" />
в чем трудность понимания?

В том, что это не единственный способ запрета индексации. В своей группе такого мета-тега в исходном коде я не нашёл, а значит, это относится к новым группам и работает во избежание распространения спама.

nimeka:
попробуй создать новую группу и увидишь

Вы не можете объяснить на словах?

Понятия не имею. У вас показатели куда более стабильны, чем мои.

Изначально на моём сайте был фильтр "Переспам" или "переоптимизация". Я почистил тексты на страницах, уменьшил количество точных вхождений и ключевых слов по тематике. И добавил новые страницы уже с хорошими текстами. Они влетели в индекс и тут же начали давать трафик, но через пару дней весь трафик сдулся. Я так понимаю, что санкции на сайт накладываются не на конкретные страницы, а на весь сайт целиком. И когда новые страницы попали в индекс, они ещё не были под санкциями и Яндекс давал им хорошие позиции, но затем уже подъехал алгоритм, который понизил позиции новых страниц основываясь на ситуации по страницам сайта в целом. Сейчас вот старые страницы с переспамлеными текстами начинают понемногу переобходиться роботом. Надеюсь, что скоро санкции спадут и трафик возрастёт. Предупреждаю сразу, что это лишь мои собственные догадки и субъективное мнение.

А ещё, полагаю, Яндекс может поливать трафиком новый сайт чтобы оценить поведенческие факторы.

Всего: 68