- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть 1 страница сайта А. Из 100 страниц сайта Б рандомно выбираются 10 страниц, из которых проставляются ссылки на 1 страница сайта А. Тоесть бот каждый раз будет находить ссылки из разных страниц сайта В, но не более 10. Может лучше когда будут 10 заведомо помеченых страниц сайта В ссылатся на страницу сайта А (постояная ссылочная база)? Вариант с рандомным выбором дает како-то плюс (суть - старые ссылки исчезают, но появляются новые. типа движение, жизнь на сайте :idea:)? Или такая динамика будет в минус?
Сложно разобрать Ваш вопрос, написан как-то не-порусски.
Если я правильно понял, то не нужно менять ссылки, они должны быть статичны и проиндексированы ПС, наращивайте их количество и будет тогда хорошо.
Если я правильно понял
понял правильно
проиндексированы ПС
проиндексированы
наращивайте их количество и будет тогда хорошо
это понятно!
не нужно менять ссылки, они должны быть статичны
аргументируйте. чем это плохо?
Как Вы хотите расти в серпе, если каждый раз Ваша ссылка будет разной???
Т.е. ПС будут индексировать какждый раз разные ссылки, а нужно постоянство, например для топ10 по слову "куплю корову", необходимо 30 ссылок с данным анкором, а у Вас то их 2, то 13 то 4.
В итоге Вы ничего не получите кроме траты денег.
Жизнь на сайте создавайте обновляемым контентом, а не рандомными ссылками.
ссылок с данным анкором, а у Вас то их 2, то 13 то 4.
не правильно поняли. их постояно 30, но постояно с разных страниц.
не правильно поняли. их постояно 30, но постояно с разных страниц.
Вот их и надо будет ПС постоянно проиндексировать эти постоянно меняющиеся страницы. И какой плюс вы в этом можете увидеть?
Лично я ни какого плюса в этом не вижу...
Лично я ни какого плюса в этом не вижу...
а какой минус?
10 ссылок то гарантировано будут на страницу ссылатся
не правильно поняли. их постояно 30, но постояно с разных страниц.
Ага, это при условии что ссылки будут генериться только при посещения роботов?
Иначе откуда ты знаешь что именно во время посещения робота ссылки создадутся там где надо, что бы было всегда постоянное число? Или ты думаешь сайт всегда индексируется сразу в один момент?
Ловец снов добавил 14.01.2009 в 18:30
10 ссылок то гарантировано будут на страницу ссылатся
Будут ссылаться, но ты уверен, что это будет знать ПС?
Ага, это при условии что ссылки будут генериться только при посещения роботов?
при открытии страницы. (роботом, посетителем)
Будут ссылаться, но ты уверен, что это будет знать ПС?
проиндексит и будет знать
проиндексит и будет знать
Как вы определите заход ПС на заданную рандомную страницу? Как вы их вместе сведете?
Время на раздумье пошло.
Как вы определите заход ПС на заданную рандомную страницу?
нет рандомных страниц. страниц всего 100. все в индексе. 10 проиндексированых ссылок на страницу есть. вопрос в том, что каждый раз эти 10 страниц другие.
например
на страницу А
сегодня ссылаются В1, В3, ... , В9, В11 (непарные)
завтра - В2, В4, ... , В10, В12 (парные)
что плохого в этом? почему когда постояно одни и теже - это лучше?