- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Многоуважаемый Олл.
Старательно изучаю сайт и форум. Разобрался уже и с robots.txt и user-agent. Все понятно тут. А где можно почитать о том как нужно писать META под конкретного user-agent`а и какие есть от них требования?
Если я все правильно понимаю, то это все в комплексе и есть пресловутая "оптимизация страниц под поисковики"? Или для полного цикла нужно еще что-то знать и уметь?
Спасибо.
Нужно.
META практически не влияют на релевантность документов, если вообще учитываются конкретным поисковиком.
Нужно.
META практически не влияют на релевантность документов, если вообще учитываются конкретным поисковиком.</font>
Тогда я еще больший ламер, чем думал.
To AiK: что же влияет на релевантность документов, и что учитывается конкретным поисковиком? Да! Доктор, еще интересный случай - как же поступать с документами, которые, например *.asp, реально тексты не содержат, т.е. их нельзя проиндексировать? Или где
?
1. На релевантность документа влияют:
1) Текст документа
2) Текст ссылок с других документов
3) Ссылки с других документов.
2. Поисковый робот отличается от браузера только тем, что не выполняет скрипты, ActiveX и прочую шушеру типа flash.
В динамически создаваемых документах как то JSP,perl, ASP, PHP и иже сними, скрипты выполняются на сервере, поэтому робот видит почти тоже самое, что и обычный браузер.
А каков механизм осуществления запроса робота к динамическим (*.asp) страницам?
Ведь результат работы ASP-скрипта зависит от параметров передаваемых скрипту.
И еще - запутался окончательно. Зачем все таки нужны метатаги?
Если лень лекции читать ламеру
, дай, плз, ссылки где есть систематизированнная информация в комплексе о грамотной оптимизации по поисковики.
Сенкс.