- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
случайно нарыл свой давно забаненный и забытый мной каталог, откровенная мусорка, и самые смешное он снова в индексе
Иногда они возвращаются. :) Ненадолго...
Отдельные страницы под описания... потому они и выбрасываются из индекса. Если не использовать отдельных, то описание конкретного сайта будет среди десятка других, на другом каталоге другая комбинация. Псевдоуникальный контент из разных комбинаций неуникальных описаний. :)
Mas7777 делал я каталог со структурой яши непомогло
Я после того, как открыл для себя сейп, про каталоги для продвижения собственных сайтов забыл.
Я после того, как открыл для себя сейп, про каталоги для продвижения собственных сайтов забыл.
я тоже для себя ее открыл, после чего мой сайт попал в гугле в бан
разбанили конечно через два дня.. после слезных писем и обещания, что я не буду покупать ссылки
Олег Л., ну вы и сравнили, каталоги в которых мы регимся если и платно но единаразово, и сапу, так называемую "иглу" которую нужно все время проплачивать, не буду спорить что сапа эффективна, но и бюджеты должны быть не маленькими. Так что не с тем сравниваете!
По поводу каталогов, скажу так, у меня есть они, и довольно давно, да были исчёзновения, но и возвраты тоже следовали, постоянная прибыль с контекста идёт...
наверное просто каталоги нужно как то ограничивать по количеству ссылок тогда может будут жить. или просто периодически открывать на добавление
Гуглу можно в бан попасть??????
Гуглу можно в бан попасть??????
только в песочницу для нового сайта.
В продолжении темы каталогов, набрёл на статейку, статья вполне интересная и так как она размещена на сайте с которого продают каталоги, я не хочу их пиарить, вот вставлю её как цитату
При этом, схема всегда одна - 100% индексации в первый раз, т.е. полный проход по каталогу известным поисковиком, далее 0% индексации, т.е. бан. Таким образом, очевидно копирайт ни на что не влияет и не учитывается при определении "каталог" / "не каталог". Это было бы слишком просто :(
Каковы же критерии определения "каталог" / "не каталог" со стороны известного поисковика, который не в состоянии держать нагрузку?
Мы отследили ряд каталогов, по поводу которых к нам обращались наши клиенты за техподдержкой. У их кривых хостеров не работал mod_rewrite и им пришлось отключить поддержку статики. Все их каталоги имеют 90% индексации.
Отсюда совершенно очевидный вывод - А не слишком ли мы все увлеклись статичными страницами? А не слишком ли быстро мы бежим? (Приключения принца Флоризеля)
Все почти движкит каталогов формируют на основе модреврайта тясячи страниц в одной папке, которых реально не существует. Таким образом "супер-алгоритм" может быть сведён к очень простой операции опознания каталогов вне зависимости от разработчиков и копирайтов, по одной лишь формуле - а скока у вас страниц в одной прапке? Тысяча? Да такого быть не может на нормальном сайте! Значит каталог. Логика проста и убойна своей тупизной. Но с ней можно бороться. И легко - достаточно отключить формирование статичных страниц, как бы в это не было сложно поверить. Купите новый домен для любого движка и попрорбуйте сами... Мы уже пробовали.
С другой стороны, есть ряд движков каталогов (преимущественно буржуйских вроде Движок WSN ), которые не смотря на "алгоритмы" имеют 100% индексации даже с использованием мод_реврайта. А почему? Анализ показывает, что буржуи куда умнее того поисковика, о котором даже не слышали - под мод_реврайтом формируются страницы отнюдь не в одной папке. Каталог имеет структуру максимально приближённую к реальному сайту, т.е. много папок, а в них мало страниц.
В общем, хотите верьте, хотите проверьте, но уже готовится к выходу проект Sc@nerlink Stealth. Цель - создание индексируемого не смотря на "алгоритмы" каталога, и полный обход (без взлома) всех алгоритмов и прилад одного пока ещё известного поисковика.
Всё бы хорошо, и мы опять в дамках как всегда, но встаёт один мааааленький такой вопросик конфликта интересов. А кому всё это надо? Мы раньше часто получали вопросы "а как бы мне так сделать каталог не индексируемым и чтобы об этом ни кто не знал?". Теперь этих вопросов нет - на помощь не честным людям пришёл большой друг всех варёзов и жуликов - некий поисковик на последнюю букву алфавита. Владелец каталога теперь имеет бэки а его юзера не имеют ни чего. Правда продать рекламу на неиндексируемых страницах не всегда легко, но это уже дело десятое.
Конечно, рано или поздно, зодчие Тындекса напридумывают новых "алгоритмов". Например, будут подсчитывать не страницы в папке а всего страниц на сайте и некое магическое число при выходе за которое индексация или прекращается совсем или происходит как нить криво. Вот больше 1000 страниц у вас на сайте - добро пожаловать в бан. Маразм. А что делать? На сервера то у Яши денег нет.
В этой ситуации путь у вебмастера каталога, который хочет сохранить индексацию (например для продажи платных ссылок) это резкое уменьшение базы ссылок (много менее тысячи на один каталог) при улучшении их качества. Особенно качества бэков. Здесь надо не только ограничивать включение ссылок по формальным параметрам, но и тщательнее контролировать бэки. Особенно по индексации поисковиками. Возможно проверять по нескольким разным поисковикам. И уш точно не ставить по 10 каталогов на один сайт. Желательно резко ограничить взаиможействие с системами автодобавления, т.к. бэков большинство из них не даёт вообще ни каких.
В этой связи интересно направление по созданию общей анти-спам базы. Если вебмастер хоть раз убрал страницу с бэками или обманул хоть кого то, то добавить тот же сайт он уже не сможет ни в один из каталогов на данном движке. А может быть даже и в каталоги на других движках (в далёкой перспективе). Что приведёт к резкому снижению потока мусорного трафика и затрат мощностей на проверку всякого спама.
Еще одна статья-боян. Никуда каталоги не денутся и эффект останется такой же, как сейчас.