- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Очень развернуто уважаемый ..пасибо.. но не все пункты отразил, напрмиер 1й
1. Закройте дубли на страницах. C www и без www c закрытой слешем "/" и без закрытого. Приведите к одному виду.
Что значит закрыть дубль на странице, простите, если туплю) .. глав зеркало настроено, что то понять ничего не могу).
Ткните мне плиз о чем речь(( ?!
2. На страницах отсутствуют h1 Пример
Да, есть такой грешок, поправлю заголовочки h1, но не думаю что косяки с индексацией имеются из за этого. Недооптимизация скорее это)
3.Вот в эти страницы я бы выводил только заголовки. На них контент дублирует тот который находится при клике на саму статью.
Варианты
- сделать эту страницу канонической
- закрыть ее в robots.txt
- попробовать закрыть в noindex
Вот это самый пожалуй и очевидный мой косяк((..
Специально ради канонических урлов переехал на 3ю ветку joomla на прошлой неделе, но rel=canonical теперь и внутри поздравления и в категориях (Вот в эти страницы ), пример которой вы привели.
Теперь технически не смогу сделать категории каноническими(.
Вообще Вот в эти страницы для продвижения хороши мне кажется. А на отдельные поздравления будет капать НЧ траф. вот такая изначально была задумочка у меня по крайней мере.
Может, чтобы контент не дублировался полностью на эти страницы, попробовать публиковать первую часть поздравления (первое четверостишие например), ну или как вы сказали заголовки(?!
Хотя мне кажется, что людям не интересно кликать по заголовку чтобы попасть внутрь и читать, хотя....
Закрывать в ноиндекс или роботс не хочется почему то, не варик мне кажется. (
Остается либо выводить заголовки, либо первые строки с заголовками, но это тоже не даст 100% уникальности старнице категории..
либо самый пожарный вариант, оставить лишь страницы категорий и на них все поздравления по-порядку, то есть без конечных урлов поздравлений.
что думаете будет лучше?
4. Сам материал не уникален. Понятно что это стихи и все такое, их не перепишешь.
Варианты
- думать какую то текстовую генерацию на странице, для того что бы сделать ее более менее уникальной и со смыслом
- наращивать ссылки что бы сделать страницу весомой.
в дескипшне стараюсь что то уникальное писать к каждому поздравлению,
Ссылки закупаю потихонечку на страницы категорий.
p.s на сколько я понял сайт у вас MFA, не знаю на сколько актуально в этой тематике будет наращивание ссылок.
p.s и это мое личное мнение, старайтесь делать сайты на собственных движках. Ваш же можно было вообще на голом html написать.
Можно, просто я не тех специалист, просто пытаюсь найти себя в чем-то, раз получается сочинять, то буду сочинять, а вам респект, за развернутость) ..
Было бы здорово, ели бы продолжили диалог, оч интересно
---------- Добавлено 12.11.2014 в 15:52 ----------
У, Joomla, насколько я помню, большие проблемы с дублями страниц: одни и те же страницы доступны по разным урлам. Посему, робот может скушать кучу дублей, а потом забить на сайт.
Контент на сайте уникальный? Навигация удобная?
Напишите сколько страниц имею какой уровень вложенности:
УВ-1 х страниц
УВ-2 у страниц
УВ-3 .. страниц и т.д.
До 500 страниц в месяц можно вручную загонять в индекс через вебмастер тулс.
ПС. Просканировал ваш сайт Netpeak Spider. За минуту нашло 600 страниц и 600 в очереди (остановил сканирование). И количество все растет и растет. Как и писал выше: у каждой страницы минимум один дубль.
Контент уникальный!
По навигации сказать пока сложно, такую структуру задумывал сам, проверка временем и веб-визором нужна)
Большинство страниц имеет 3й уровень вложенности (это процентов 80-90 навскидку)
воспользовался вашей прогой)..
Вижу много таких страниц http://screenshot.su/show.php?img=bb5581f5c22458aef8c094cf74a144a2.jpg
Оч странно, но дефолтовый robots от joomla закрывает
Disallow: /components/
а не Disallow: /component/ как видуно из примера..
только вот не пойму, почему в проге красным подсвечено это..?! Типа ошибка?!. Но какая? что значит?
И почему ссылки с нормальными урлами тож красные?!
---------- Добавлено 12.11.2014 в 15:53 ----------
На каком хостинге сайт?
Некоторые хосты (ip) гугл считает за спам-помойки, и плохо индексирует на них.
хостинг норм! Нэтэнджелс
Нареканий к нему не было.
---------- Добавлено 12.11.2014 в 16:02 ----------
Но самое поганое вот эти дубли
http://screenshot.su/show.php?img=c4de3741c0252b3cb7fc5c0c2f4b17bd.jpg
Они влияют на хреновую индесацию?! и можно ли их прикрыть в роботсе?!