- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Создаю интересную систему позволяющую лучше индексировать сайт ...
Итак у меня есть сотня статических страниц, которых не должен видеть пользователь, но должен проиндексировать google!!!
Тоесть схема такая: тысячи стат html, файл индекс с ссылками на все html и главная страница с невидимой ссылкой на индекс!!!
Сомнения же в следующем???
1. Подойдёт пустая ссылка на страницу с индексом всех статических страниц??? Или нужно обязательно ссылка на кртинку и текст со style="display:none"
2. Есть ли ограничения на размер файла??? Индексный файл может оказаться достаточно длинным!!!
а зачем индексировать то, что пользователь не может видеть?
это вы сами такую классную идею придумали?
а вдруг пользователь поиском найдет страницу спрятанную? вам обязательно надо сделать редирект с этих страниц на главную сайта своего.
и подождать немного... 😂
Вообще-то велосипед Вы не изобрели. У меня было примерно тоже самое.
Я на морде сделал такую ссылочку a href="k.htm">.< /a>
Ну а толку то? Гугля все это дело проиндексирует, пользователь введет на гугле запрос и попадет на вашу супер страницу, увидит что там творится😮 , закроет страницу и забьет на ваш сайт на всегда... Вам это надо?
Есть возможность поставить редирект, но в таком случае гугля возможно не будет индексировать страницы с редиректом.
Есть возможность поставить редирект, но в таком случае гугля возможно не будет индексировать страницы с редиректом.
.... будет
Вообще-то велосипед Вы не изобрели. У меня было примерно тоже самое.
Я на морде сделал такую ссылочку a href="k.htm">.< /a>
Ну а толку то? Гугля все это дело проиндексирует, пользователь введет на гугле запрос и попадет на вашу супер страницу, увидит что там творится😮 , закроет страницу и забьет на ваш сайт на всегда... Вам это надо?
Есть возможность поставить редирект, но в таком случае гугля возможно не будет индексировать страницы с редиректом.
off {Он он подаст в суд, а лучше найдёт меня по записям в whois, и зарежет за то что я сволочь такая :d }
Я вам обьясню: Рендеры страниц делаються так как, мой проект не хом пейдж типа я весь такой хороший, и люблю весь мир!!! Это такая страница которую не один Bot не сможет заиндексировать, только если он не обычный браузер с полной поддержкой JavaScript и умеет нажимать кнопки как юзер!!! Поэтому я собираюсь делать рендеры страниц которые уже со сработанным JavaScriptom!!!
Итак смысл в том:
Сначало google индексирует все страницы (идя по ссылкам)
Возникает вопрос:
а) мне делать статические страницы и устаналивать тег переадресации??? Но бот переадреснёться или будет индексировать???
б) делать скажем страницы с названием shtml и работать с UserAgent, тоесть каким образом отфильтровывать юзеров с броузеров и ботов!!!
Итак у меня есть сотня статических страниц, которых не должен видеть пользователь, но должен проиндексировать google!!!
и
Я вам обьясню: Рендеры страниц делаються так как, мой проект не хом пейдж типа я весь такой хороший, и люблю весь мир!!! Это такая страница которую не один Bot не сможет заиндексировать, только если он не обычный браузер с полной поддержкой JavaScript и умеет нажимать кнопки как юзер!!! Поэтому я собираюсь делать рендеры страниц которые уже со сработанным JavaScriptom!!!
как между собой согласуется?
не понял я чего то вашу цель.
Megavolt, может человек ajax использует.
TJmaster, попробуй использовать гугл site map
Megavolt, может человек ajax использует.
TJmaster, попробуй использовать гугл site map
Ну да это AJAX, и по такое интересной схеме если читали ComfortASP!!! Когда вся страница находиться в переменной JavaScript ... последствия видите какие ...
SiteMap пользуюсь ... тока не понятно это стандарт в Google ещё Beta, а вот другие поисковики собираються его поддерживать :) ???
SiteMap пользуюсь ... тока не понятно это стандарт в Google ещё Beta, а вот другие поисковики собираються его поддерживать ???
Другие поисковики думаю не будут поддерживать. А sitemaps хоть и бэта но работает чудненько.
А вообще ajax поисковиками ой как не скоро будет поддерживаться. Поэтому лучше использовать его только в неиндексируемых частях (админка и закрытая область). А остальные страницы делать с помощью старого доброго GET/POST
но в таком случае гугля возможно не будет индексировать страницы с редиректом.
а ещё бывает редирект на флеше :)