- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Единственный реальный вариант - 20 000 000 внешних ссылок (то есть на каждую страницу) - нагенерить трамплинов на бесплатных доменах/поддоменах.
Пасиба, посмеялсо. :D
дану сами добавятся... ты много сайтов знаешь с 20 000 000 страницами?
есть у кого-то опыт по добавлению хотя бы от 500 000 страниц?
может поступить как вконтакте? сначала все закрывать от индексации а потом открывать постепенно? только вконтакте сразу все открыл. и вроди бы норм проиндексировался.
Есть сайт в 500 тыс страниц. Гугл боты в день оббегивают около 250 тыс страниц.
Но это сайт трастовый и старый, на него ведет более 2.5 тыс внешних ссылок, включая штук 10 с внутрянок с PR9 доменов.
Нулевой сайт и сайт без жирных ссылок будет есть 20 млн страниц вечно...
Так что для такой индексации нужны очень жирные ссылки и много.
Интересно, а гугл посчитает все страницы сайта нужными в своем индексе? Думаю, нет.
Да и 20 млн.. Хм, у вас соц сеть, о которой никто не знает?
Думаю, банальный парсинг Amazon...
супер, покупать 20 млн ссылок. вы всегда покупаете по одной ссылке на страницу?
Что ни у кого светлых идей?)
Постов по типу, ссылки и карта сайта лучше ненадо) если бы карта сайта помагала столько заиндексировать гугл бы давно уже перестал существовать из-за круглосуточного downtime ))
А ссылки для индексации нереально покупать.
Что ни у кого светлых идей?)
1. сделать 20 сайтов по 1М страниц
2. сделать 200 сайтов по 100К страниц
3. сделать 2000 сайтов по 10К страниц
...
:)
есть пример 4-хлетнего сайта с примерно 600К страниц, из них в Я примерно 280К страниц, в Г - 40К страниц,
индексация постоянно скачет (+- 10-20К)
супер, покупать 20 млн ссылок. вы всегда покупаете по одной ссылке на страницу?
Покажите, пожалуйста, где в моем посте:
Не, не схавает. Единственный реальный вариант - 20 000 000 внешних ссылок (то есть на каждую страницу) - нагенерить трамплинов на бесплатных доменах/поддоменах. Вполне реализуемый вариант при должном уровне автоматизации.
Есть слово покупать?
которые надо загнать в индекс. ;) Меняем шило на мыло?
которые надо загнать в индекс. ;) Меняем шило на мыло?
200 сайтов по 5000 страниц с 20 ссылками на странице загнать в индекс не так сложно
200 сайтов по 5000 страниц с 20 ссылками на странице загнать в индекс не так сложно
А контент где брать на 5000 x 200 = 1 млн. страниц? Можете не отвечать - и так понятно. ;) Ссылки надо брать (если надо) с уже существующих и проиндексированных сайтов и, естественно, не в таких удручающих объёмах. Иначе будет просто двойная работа по загону в индекс пачки сайтов, чтобы проиндексировался другой.
А контент где брать на 5000 x 200 = 1 млн. страниц?
Вы вообще в курсе, чем отличается отношение к качеству контента у ругугла и яндекса? Можете не отвечать - если бы знали, то не задавали бы такой вопрос.
Ссылки надо брать (если надо) с уже существующих и проиндексированных сайтов
И тратить хз сколько денег и ждать хз сколько времени переиндексацию, которая как правило, медленнее, чем первичная индексация.
Иначе будет просто двойная работа по загону в индекс пачки сайтов, чтобы проиндексировался другой.
Если объем работы увеличить в два раза, разбить весь полученный объем на сто частей и все части выполнять параллельно, время выполнения всего объема работы увеличится или уменьшится, как Вы считаете?
Guruhuev добавил 29.05.2011 в 15:17
ТС, стукните в личку, могу подсказать еще один вариант, попроще.