- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт. С 500 000 страниц. Структура следующая: на главной выводится 100 ссылок на страницы с контентом + пагинатор, это 100 ссылок на такие же страницы как главная. На каждой следующей странице пагинатора выводятся ссылки на следующие 50 страниц + на 50 предыдущих страниц и т.д. до конца.
Понятно, что сейчас апы идут раз в две недели, но я не уверен, что для столь обширного сайта у меня сделана удачная перелинковка. И на счет карты сайта я тоже не уверен, ибо размер ее слишком велик.
Что посоветуете?
З.Ы. А да, забыл сказать, на страницах с контентом есть 4 ссылки на другие страницы с контеном, выбранные случайным образом.
Академик,а бан за переспам не схватишь за такое?
Это тебе к дорвейщикам.
Скорее всего АГС получишь через несколько апов.
Sitemap и ссылку на него прогнать по твиттеру как вариант. Можно каждую ссылку твитануть если 500 000 рублей есть лишних.гы
Sitemap и ссылку на него прогнать по твиттеру как вариант. Можно каждую ссылку твитануть если 500 000 рублей есть лишних.гы
Не, 500К даже деревянных выкладывать не вариант. А вот про сайт мап я писал, слишком он уж большой. Может его разбить как?
Скорее всего АГС получишь через несколько апов.
Это с какого хрена? Я старый свой форум откопал, переношу на новый домен.
Академик,а бан за переспам не схватишь за такое?
За переспам чего?
Ты со ссылками не переборщил? или мне, студенту, рассказывать тебе про оптимальное количество на странице? Чел выше написал про агс - я про бан - уже бытует мнение, что в индексе сайту недолго висеть.
про сайт мап я писал, слишком он уж большой. Может его разбить как?
карта сайта должна быть до 10 мб в сжатом виде и содержать не более 50.000 url.
разбей на куски и загони все через вебмастер или пропиши в директиву Sitemap в robots.txt
Как вариант - разбить карту сайта на разделы. и в Яндекс и в Гугл сайтмапов можно несколько добавлять.
(на практике с таким количество страниц не пробовал, но думаю для того и есть возможность добавлять несколько карт сайта).
У сёрча проиндексировано меньше 600К старниц
500к сходу никак не влезут, плюсом на таких объемах нужно бороться за каждый байт страницы (для гугла это точно, но и для яндекса скорее всего так есть), а судя по настройке перелинковки Вы этим явно не озаботились.
У сёрча проиндексировано меньше 600К старниц
500к сходу никак не влезут, плюсом на таких объемах нужно бороться за каждый байт страницы (для гугла это точно, но и для яндекса скорее всего так есть), а судя по настройке перелинковки Вы этим явно не озаботились.
соглашусь, чтобы много страниц зашло нужен очень жирный домен и минимальный вес страничек с быстрой отдачей их ПС. про контент и напоминать не буду
не самая удобная структура, ну да ладно.
может у вас есть странички, которые вы бы хотели засунуть в первую очередь?
из вариантов - выше уже говорили про твиттер и сайтмап.
от себя добавлю: купить в сапе пару ссылок с трастовых СМИ ресурсов, на которых живет быстробот. после сканирования, можете снять.
однозначно все страницы одномоментно в индекс не влезут.