- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Запустили недавно сайт, в базе более 15 миллионов страниц, перелинковка достаточно хорошая и продуманная, все внуряки имеют входящие ссылки, причем с более или менее релевантных страниц.
Естесственно из-за такого колличества страниц, у многих из них получается не мало уровней вложенности.
2 ключевых проблеммы это много уровней вложеннсти и небольшое колличество контента на страницах.
Сайт белый, не дорвей и не сплог, реальный сервис.
Прошу дельных советов по полной индексации сайта, т.к. с такими обьемами ранее не сталкивались.
Всем спасибо.
15 миллионов страниц
Что-то сильно до... много для старта сервиса, Яша не любит такие вещи 😒
Тоже интересует данный вопрос, страниц правда на порядок меньше. Есть список урлов, надо их как-то скормить гуглу.
Да Яша по.., ресурс чисто буржуйский, в основном на гугль нацелен. То что много и сразу, понятно, но как уже говорилось, ресурс реальный и полезный, не сплоги и не дор. В плане траста уже куплен сквозняк ПР7 и на днях будет морда ПР9, так что думаю страстом вопросов не возникнет.
В плане траста уже куплен сквозняк ПР7 и на днях будет морда ПР9, так что думаю страстом вопросов не возникнет.
ну тогда остается просто ждать...
+ проставляйте внешние ссылки на ключевые страницы разделов, так же можно на морде проставить ссылки на подразделы и менять их раз в 1-3 дня, т.е. помочь роботу найти все страницы...
соглашусь, 15кк страниц - многовато для старта...
+ проставляйте внешние ссылки на ключевые страницы разделов.
В этом плане решил их прокачивать ссылками из коментов со страниц ПР3-6 по такой схеме:
Тайтл страницы чужого блога к примеру "бла бла president" - пр5
ставим там в коменте ссылку на наш внутряк вида president
внутряки все перелинкованы у нас нормально, так что боту будет куда развернуться там
так же можно на морде проставить ссылки на подразделы и менять их раз в 1-3 дня, т.е. помочь роботу найти все страницы...
есть подобный блок, там показываеться 100 ссылок на популярные категории, блок постоянно обновляется по мере изменения рейтингов категорий.
Спасибо за мысли, может еще что?
ставим там в коменте ссылку на наш внутряк вида president
но у вас на странице слова "president" нет, так ведь? тогда какой смысл?
angr добавил 30.01.2010 в 14:00
есть подобный блок, там показываеться 100 ссылок на популярные категории, блок постоянно обновляется по мере изменения рейтингов категорий.
не многовато? мне кажется это гуглу не очень понравится...
С такими большими не работал, максимум двигал 100К страниц. Гугл хорошо ест сайтмепы, причем текстовые не хуже иксмыльных. Раскидать по 50К ссылок на файл и скормить гуглу через панель вебмастера и через роботс.тхт.
Но в любом случае опасаюсь, что процесс будет небыстрым: гугл считает высокой скоростью индексации все, что выше 250 страниц в сутки; загнать больше 1000 в день мне не удавалось ни разу. 15 лямов при такой скорости растянутся на 45 лет... Может раскидать разделы по поддоменам?
1кк страниц уходит примерно за 15 апов ......
думайте сами)
Почему нет, если страница http://www.ourdomain.com/catogory/president/ то там у нас выводится только релевантный кею контент, тоесть о president.
Для ресурса данного типа не много поидее, анализировал конкурентов, у некоторых и по 200 на морде, тем более на морду скоро будут мощнейшие беки стоять.
Мапы сгенерили, разбили естественно на пачки, пока не добавляли, хочу что бы бот сам побегал пока.
Кстати вопрос с их добавлениями есть, сразу все добавить или лучше по одной с определенным интервалом?
думайте сами)
Что это было?
15 млн страниц, это фантастика. Такое количество страниц не расположить в трех кликах от главное, а все что дальше может до безумия долго индексироваться. Чтобы 15 млн страниц были в индексе, на этот сайт необходимо немерянно ссылок и не только на морду, но и на разделы и на внутренние страницы.
Гугл хорошо ест сайтмепы, причем текстовые не хуже иксмыльных. Раскидать по 50К ссылок на файл и скормить гуглу через панель вебмастера и через роботс.тхт.
Ест хорошо. Только потом в сопли выкидывает моментом. Я больше не пользуюсь картой сайта. Был уже опыт. Загружает карту, вроде все в индекс влетает, а потом в сопли улетает столько, что совсем не радует. А если дать гуглу самому дойти до всех страниц, то в соплях оказывается меньше страниц. Исключительно имхо, не претендую на истину.