Все правильно :) Вы вместе с господином svift-ом меня не так поняли.
Я предлагал сделать сам сайт из индексной страницы и 300 страниц контента. Я не имел в виду бэкварды. На индексе самого этого сайта разместить все 300 ссылок на все 300 страниц. Без подразделов. Тем более, что у человека с ними проблема. Поэтому при наличии хороших бэквардов только на индексную страницу предложенный мной вариант сэкономит дней 10 времени.
На своих сайтах я вижу, что бот посещает индекс каждый день. Если он найдет там 10 ссылок на 10 подразделов, то в следущий deep-crawl (или как это называется) он вытащит только подразделы. И только тогда он узнает о существовании в подразделах еще 300 ссылок и только в следущий раз (еще дней 10) он их проиндексирует.
А если на все 300 страниц ссылки будут стоять прямо на индексе, то все это может проиндексироваться весьма быстро.
А речь, между прочим, шла именно о быстрой индексации:
Начиная где-то с 10-го августа у меня куча дорвеев из кэша выпали (все были на одном фрихосте). Остались только урлы. Одна пачка ближе к сентябрю восстановилась и растет в моих глазах :) , а другая (побольше) до сих пор в заднице. Кое как выползла одна страница (не индекс 😕 ), но на нее ссылки хорошие стояли.
Читаю форум и создается впечатление, что этот процесс носил глобальный характер. Наверняка у гуглоидов что-то с железом было...
PS: И бот пассивнее стал...
А не быстрее ли будет если прямо на главной странице разместить все 300 ссылок на все 300 страниц? Конечно, не самый лучший вариант, но человеку нужно быстро...
У тебя в вопросе "в самые кратчайшие сроки". Чем больше будет внешних ссылок на твои страницы, тем короче сроки. А по второму пункту аналогично - чем пиаристей ссылки, тем охотнее бот лезет вглубь. Нет пиаристых - поставь хоть какие-нибудь, хоть с пр=0, лишь бы гугл их нашел (посматривай в кэш).
А вообще-то, с твоей структуре сайта (с разделами и подразделами) для быстрого индексирования нужно будет много ссылок - и на индекс, и на разделы, и на подразделы.
IMHO
спорить не буду. Но в данном случае лучше, наверное, второй вариант (с http:).
"/links.html" - относительная ссылка (относительно корня сайта)
"http:--www.domain.com/links.html" - абсолютная
Угу. Создается впечатление, что все вычислительные мощности гугля сейчас заняты подсчетом бабок вместо того, чтобы ПР считать :).
А может у них ПР не автоматом обновляется, а вручную персоналом? 😂
Раньше в BW показывались лучшие ссылки, а теперь их специально прячут 😂
А какое отношение имеет IP к PR?
Это потому что в этой формуле одни только "+". Не хватает минусов :)
Хотя общий смысл она действительно отражает. Я нечто подобное для себя вывел еще месяца 2 назад. Под нее подходит все, о чем говорят гуглоиды: и то, что главное - это контент, а ПР учитывается в последнюю очередь, и очень много специфичных вещей, о которых не принято говорить на каждом углу. Да, много хороших ссылок могут значить гораздо больше, чем кейворды на самой паге, но хорошая ссылка - это текст с кейвордом. А чтобы "крутой" сайт (пиаристый и не дающий возможность самостоятельно задать текст ссылки) поставил на вас ссылку с кейвордом, на вашей странице должен быть контент про этот кейворд.
PS: насчет последней очереди. Есть в английском языке такая фраза: "last but not least". По-моему, это как раз про ПР...