- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
угу. Но даже в отличае от softsearch у него не так много дублирующего контента.
Возможно это кому-то покажется странным, но от версии к версии описание программы обычно почти не меняется.
Возможно это кому-то покажется странным, но от версии к версии описание программы обычно почти не меняется.
Вот поэтому и вытекает очевидное решение - либо запрещать к индексации старые версии, оставлять только последнюю. Либо обновлять статью на более новую версию. Если хочется оставить старую, то можно сделать что то в роде "история версий" в рамках одной статьи либо опять с запрещением индексации старого.
Тогда хотя бы не будет такого многочисленного дубляжа контента и, возможно, яндекс (и гугль) будет более лоялен к индексации сайта.
Второй вариант как приводили в пример - это редтрам. Ему пофигу на поисковый трафик, основная цель это обмен целевыми посетителями между сайтами схожей тематики. Вот на этом они и имеют огромное число посетителей.
Как цель тоже самое для softsearch - поменять концепцию сервиса.
Второй вариант как приводили в пример - это редтрам. Ему пофигу на поисковый трафик, основная цель это обмен целевыми посетителями между сайтами схожей тематики.
Да ну? А вы попробуйте такой вопрос задать редтраму, отказались бы они от халявных посетителей с поиска? Что то слабо верится что вы получите утвердительный ответ :)
Другое дело что сейчас это не так критично, но лишние тысячи уников никому карман не оттянут. Вы хоть думайте что пишите в следующий раз.
Да ну? А вы попробуйте такой вопрос задать редтраму, отказались бы они от халявных посетителей с поиска? Что то слабо верится что вы получите утвердительный ответ :)
.
Где я написал что они добровольно отказались? Я тоже много хочу, но есть реалии. Редтрам выпал из поиска, но сильно на его посещаемость это не повлияло.
вроде бы уже вылетали раньше?
и редтрам тоже вылетал ...
вроде бы уже вылетали раньше?
и редтрам тоже вылетал ...
Угу, ровно год назад. Яндексу не нравилась вот эта страница http://softsearch.ru/top.shtml и т.п.
Тут пришло письмо от второго Платона. Видимо они между собой не комутают. Пишет, что softsearch.ru забанен (хотя в выдаче он есть) за то, что Яндекс проиндексировал результаты поиска. robots.txt, который пол года уже не менялся, этот Платон не посмотрел почему-то. А там написано, что Яндексу нельзя индексировать страницы с поиском. Я написал ему, что он вероятно был невнимателен. Пока ответа нет.
Уважаемые форумчане, подскажите пожалуйста, что второй Платон мог принять за результаты поиска? Или может robots.txt у меня криво написан и Яндекс его не понимает?
Вот интересно... ждать 14 дней ответа на письмо "я всё исправил" - это нормально?
[Ticket#2007022510001917] на случай, если Платон читает этот тред.