- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Спасибо, учту, я так и хотел, что бы бот сперва сам прохавал как можно больше но теперь думаю добавление сайтмап отложу на дольший срок.
для google сразу будет подозрительным новый сайт с 15 миллионами страниц. Если он достаточно быстро поймет, что контент на страницах примерно одинаковый по типу или совпадает по содержанию с другими схожими сайтами - то торопиться google не будет в плане отображения страниц в индексе. И даже множеством входящих ссылок этот процесс при неуникальном контенте ускорит незначительно (на первых порах ускорит, а потом рост замедлится )
Schoolly, структуризировать (а это вроде сделано) и ссылочками на эти структуры...
Если вы имеете ввиду ссылками прокачивать внутренние страницы подразделов то да, работы в этом направлении ведутся, но даже таких страниц там туча, их только комментами можно прокачать и спамом, купить такое количество линков нереально и не рентабельно.
А можна глянути на сайт? Що це за монстр з 15 мільйонів сторінок на старті. Це ж половина нашого Юнету
Я бы тоже посмотрел. Судя по всему - все серьезно 🚬
ТС, ссылки, ссылки и еще раз ссылки :) и терпения на год минимум,а то и на полтора.
Гланое чтобы денег хватило, на ближащие 2 года :)
Ставте ссылки на внутренние страницы, это во-первых значительно ускоряет индексацию сайта, а во-вторых не даст внутренним ссылкам улететь в сопли ;).
про сайтмэп уже сказали.
не знаю на сколько живой сайт, но если нет движухи на главной, то постарайтесь ее создать. Новости крутить нпаример, или что-то другое.
Вообщем все :)
самое главное забыл, организуйте 15 лямов ссылок, всего и делов то ;)
tutonhamon_ добавил 04.02.2010 в 11:03
Но в любом случае опасаюсь, что процесс будет небыстрым: гугл считает высокой скоростью индексации все, что выше 250 страниц в сутки; загнать больше 1000 в день мне не удавалось ни разу. 15 лямов при такой скорости растянутся на 45 лет...
оказывается гугл читает википедию уже 135 лет 😂 : Results 1 - 10 of about 45,600,000 from wikipedia.org. (0.05 seconds)
15кк страниц гугль воспримет как неестественные и сгенерированные, ссылки из комментов лишний раз подтвердят это. От бэков с ПР7-9 может быть прямо противоположный эффект. т.е. для гугла нелогично чтоб сайт с ПР9 ссылался на новый домен без траста.
15кк страниц гугль воспримет как неестественные и сгенерированные, ссылки из комментов лишний раз подтвердят это. От бэков с ПР7-9 может быть прямо противоположный эффект. т.е. для гугла нелогично чтоб сайт с ПР9 ссылался на новый домен без траста.
вот к пример уahoo (или кто-то другой) открывает свой новый сервис и ставит с главной ссылку, и что?
новый сайт сразу попадет под фильтр гугла?
О, господи, во всем интернете сайтов не намного больше. Можете показать домен? Жутко интересно, что за тексты могут быть на 15 миллионах страниц. Или это фотографии?