- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
насколько я понял, google sitemaps generator не делаетиндексацию всех ссылок автоматом, а вот как сделать автоматизацию? чтобы сам прошерстил все ссылки ( и динамические) и оформил sitemap.
У меня есть прога Gsitecrawler и она все это делает прекрасно, но вот при попытке скормить полученный x,l файл, гугля ругаеться на неправильный формат даты. Не исправлять же дату на боле 4000 ссылках..есть идеи?
Не исправлять же дату на боле 4000 ссылках..есть идеи?
Да замените её любым текстовым редактором, понимающим в поиске/замене регулярные выражения, тот же UltraEdit пойдёт...
Если ваш сайт основывается на PHP или другом языке, и страници генирируются типа /ru/forum/search-engines/google
То есть большая вероятность что причинна именно в этом.
Здесь на форуме неоднократно проскакивали сообщения, что от Google Sitemaps отдача нулевая; сам правда не пробовал.
Могу поделиться опытом.
Есть сайт, англ. Порядка 30 000 страниц, стоящих в 4-х кликах от морды. Морда - 4. Выложил эти 30 000 страниц в августе.
С августа до января проидексировалось может 100 страниц, может 200 :(, да и то скорее всего те,, которые я ручками добавлял.
В самом начале января добавил два сайтмапа и "сайтмап сайтмапов".
С начала января по текущий момент по сайтмапам проиндексировано около 500-1000 страниц.
Контент уникальный, не дорвей.
Так что не сильно он их кушает, хотя есть вероятность, что дело в низком пейджранке.
Геннадий0, вообще фигово ест в последнее время такие сайты почему-то... у меня в подопечных сайт на 3000 страниц офигенного контента. ПР7. За полгода Гугл съел сотни четыре)
За полгода Гугл съел сотни четыре)
Да, похоже пора заказывать или покупать автоматическую addurl'ку, хотя и с этим проблема ... в течение месяца занес в гугль 7 новых сайтов, хоть бы морды появились, не кушает и все, даже несмотря на огромное количество внешних ссылок на них.
com
да, сайт на движке invision, и там генерируються страницы именно так. Неужели и гугл sitemap такие ссылки не кушает? А я уж надеялся запихать в sitemap ссылки с форума и скормить гуглу :)
да, сайт на движке invision, и там генерируються страницы именно так. Неужели и гугл sitemap такие ссылки не кушает? А я уж надеялся запихать в sitemap ссылки с форума и скормить гуглу :)
Да кушает, только ждать нужно доооолго :). Вот отчет о моем эксперименте: http://irodov.nm.ru/cgi-bin/ikonboard/topic.cgi?forum=1&topic=58
Но и сейчас иногда наблюдается возврат к старым значениям.