- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Поменял сортировку сайтов в каталоге. Теперь новые отображаются в конце списка. Так страницы будут "более статическими", что должно повлиять на индексацию. Что вы об этом думаете?
ЗЫ: Прочитал, что Рамблер обходит динамические сайты быстрее, если их рейтинг выше в топ100. И не обходит вообще, если в топ100 сайта нет.
Выкинул из базы все записи, где пытались выводить html код. Его вывести всё-равно не получится - эта возможность заблокирована в целях безопасности, но всякий мусор в тексте из-за этого появлялся.
В данный момент работает робот, проверяющий существование внесённых сайтов. Ещё полтора дня, и в базе не останется "мёртвых" ссылок. По предварительным наблюдениям, будет удалено 10% записей. Напомню, что при добавлении сайта, уже сразу происходит такая проверка, и в каталог попадают только "живые" ссылки.
Позже будут удалены дубликаты, а также перенесены сайты, размещённые не в том разделе (на основе анализа ключевых и стоп-слов).
Закончена проверка работоспособности ссылок каталога. Как и предпологалось, вылетело 10%. Теперь в нашем каталоге только существующие сайты.
Почему бы не сделать больше категорий (точнее подкатегорий) и сгенерировать статику? Я вот добавил сайт и не могу его теперь найти. Нет ни сортировки по дате добавления ни по названию. Очень похоже на линкопомойку...
Категорий больше делать не буду, так-как преследовалась цель отображения всех разделов/подразделов на главной странице (для удобства навигации). А когда разделов слишком много, то можно в них потеряться. Напиши пожалуйста тематику, которую ты не нашёл среди разделов. Возможно что-то переименую, возможно и добавлю, если действительно что-то пропустил.
Статики не будет. Это пережиток, от которого поисковики должны избавляться. Тем более, что им мешает отказывать от индексации огромного количества "статических" страниц, которые явно формируются на лету. Это очень легко определить. А вот у меня в каталоге сейчас списки сайтов сортируются по дате добавления. Таким образом сайт всегда расположен на одной и той же странице в списке + у сайта есть своя персональная страница. Благодяря этому его легче найти поисковиком.
По названиям нет абсолютно никакого смысла сортировать, так-как сайт может называться: "каталог сайтов Нашли.com", "Нашли.com - каталог сайтов", "Супер каталог Нашли.com" и тд. Так что эта затея не очень хорошая, а вот по ссылке ещё может есть смысл делать сортировку (отбрасывая http, www). В ближайшее время сделаю некоторые виды сортировок, но сначала форму поиска добавлю. Это будет полезнее для пользователей.
Со стороны может пока и похоже на линкопомойку, но я каждай день пересматриваю добавленные сайты, и подчищаю мусор. Кроме того, часть мусора отваливается ещё на этапе внесения в базу. Так например, не принимаются сайты, которые уже есть в базе, с короткими описаниями, с описаниями, в которых слишком мало русских букв, или много в верхнем регистре, если название и описание совпадает и тд.
Всё ещё в переди. Спасибо за советы и замечания.
Статика это не пережиток, статика это будущее :)
Давайте проверим, сколько страниц из вашего сайта знает google. Всего 141? Почему же так мало? Их ведь на самом деле около 40 тысяч, не так ли? Хотя на сайт есть не мало ссылок и ему уже почти месяц.
Возьмите за пример Яндекс-каталог. Лучшего каталога пока не существует (с точки зрения организации структуры). Если это не понятно, могу объяснить детально.
Статика это не пережиток, статика это будущее :)
Давайте проверим, сколько страниц из вашего сайта знает google. Всего 141? Почему же так мало? Их ведь на самом деле около 40 тысяч, не так ли?
там просто нет 40К сайтов.
в каталоге видел сайты с описанием в виде перечня ключевых слов. Не думаете от этого избавляться?
там просто нет 40К сайтов.
Я думаю есть, так как в каждой категории от 3 до 100 страниц по 15 ссылок на каждой, а категорий около 50. Думаю заявленная цифра в 32к ссылок это правда.
По поводу Google, то понятно. Каталог новый (не месяц, а полторы-две недели), и поисковики только недавно начали индексирование. Яндекс ещё не индексировал, только ИЦ обновил (уже 60).
Сайтов действительно ровно столько в каталоге, сколько показывает на главной странице. Было больше, но в течении нескольких дней робот проверял ссылки, и выбросил 3254 нерабочих. Были и другие зачистки (по размеру описания, стоп-словам и тд.), и будут ещё. Мне самому как бельмо в глазу всякий мусор в каталоге. Нужно только разработать правильные алгоритмы его "утилизации", и жизнь наладится. :)
По поводу организации каталога в Яндексе, то мне, например, не нравится что во первых не видно какие подразделы есть в разделах (показывается несколько штук из примерно десятка), во вторых, количество уровней в разделах колеблется, в третьих, чтоб добраться до списка сайтов, нужно загрузить лишних 2-5 страниц навигации по разделам. Хотя может кому-то так и удобнее...