- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Предлагается следующее:
1. Используя Google sitemap по серверным логам сделать карту сайта в его стандартном xml формате. За сим для Гугля все заканчивается и дальше можно не заморачиваться. Остальное читать для остальных поисковиков.
2. Обрабатывается xml файл любым доступным способом (хоть с помощью регулярных выражений, парсинга, обработки xml или тупо в Ворде с помощью замены) и оттуда выдераются все url полученных страниц.
3. Потом все это пилится скриптом (прогой хоть на VB или Delphi) на html страницы содержашие ссылки. Сразу тут же можно выдерать из реальных страниц тайтлы и подставлять их в ссылки. Таких страниц получается много. Общее их количество ограничивается только количеством исходящих ссылок. Примем их равным (условно) 200, хотя ничего не мешает и придерживаться полуофициальной цифры 150. Так же создается индексная страница, содержащая ссылки на страницы по 200 (150) урлов.
4. Создается либо поддомен map.site.ru либо папка site.ru/map. Первый вариант хорошо для неЯндексов, т.к. это внешний домен, но в этом случае все ссылки будут являтся внешними и ограничение в 150 может еще ужесточится. Поэтому предпочтительнее думаю второй вариант в виде отдельной поддиректории, в этом случае все ссылки будут считаться внутренними. Хотя думаю варианты еще требует обсуждения. На эту "суперкарту" ставится ссылка с главной. Все полученные страницы заливаются на сервер, если все это делалось не на сервере непосредственно.
Итого. Принимая ограничения в 200 урлов таким образом можно сделать доступными для поисковиков с учетом "правила 3 кликов" 200*200=40000 страниц сайта.
Единственным узким место данного метода лично я пока вижу сложности с первичным наполенением серверных логов. Хотя если сайт реально посещаем то он сделается быстро. В крайнем случае можно просто посадить человека или создать своего бота который может пробежаться по всем страницам.
P.S. Надеюсь что это абсолютно "белый" метод оптимизации. :)
и что на страницах будет?
урл1
урл2
урл3
?
имхо, за такое и побанить могут
и что на страницах будет?
урл1
урл2
урл3
?
имхо, за такое и побанить могут
Ну если лениво выдерать тайтлы, то да. А так будут вполне обычные ссылки в вынутыми по урл тайтлами. А за что банить-то? Где тут нарушение пункта 3.5? Это же обычная карта сайта. Т.е. в смысле не совсем обычная, а очень большая.
У меня такое еще по поддоменам разбито.
Работает плохо.
Ну для экпериментов нужен новый большой сайт. У меня таких под рукой нет. Думаю кто-нибудь попробует и расскажет результат.
а зачем такие извращения?
У меня прога для построения карты сайта.
Она автоматом сканирует все мои 50000 страниц и сама строит карту сайта для гугла
А так же делают карты любых других видов.
И таких прог полно в сети.
Ну и само собой карта сайта которая автоматом генерится на сайте
Dybra, мдааа... Почти год на форуме... И такие поражающие новизной идеи...
Всем рекомендую прогу GSiteCrawler http://gsitecrawler.com/
На русском, бесплатная и творит невозможное.
ЗЫ За пивом не бегает :(
Всем рекомендую прогу GSiteCrawler http://gsitecrawler.com/
Факт!
+1
сам ей пользуюсь, и карты сайта составлял, яша мнгновенно весь сайт в индекс заносит
причём гуглу тоже помогло быстрее проиндексировать
На русском, бесплатная и творит невозможное
что то на сайте я руского не нашел. покажите слепому? в инстале тоже не обнаружил
что то на сайте я руского не нашел. покажите слепому? в инстале тоже не обнаружил
Ставьте прогу - она мультиязычная
Потом в настройках смените язык