- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
мне кажется одной из основных причин может являться "неуникальность" кода - контент то все стремятся уникализировать, а вот теги в ноль одинаковые, а ведь порой теги составляют чуть ли не половину текстового представления сайта....
на тему ip - очень многие пользуются дешевыми хостингами, на которых на один ip сотни сайтов (и я так делаю в том числе)
мне кажется есть еще вариант поглядеть не сетка ли - выборка по ip + регистратор домена - уже куда больше вероятность "спалиться" чем просто по ip
rusevgen добавил 26.05.2008 в 11:05
кстати если кому не жалко - покажите пару-тройку url вылетевших сателитов с уник (рерайт) контентом с которых еще не успели продавать ссылки в личку - появилась одна мысля - хочу проверить (у самого меня нет "чистых" сайтов в бане, поэтому прошу)
а как вы считаете? например могут при добавлении сайта в адурелке записывать COOKIE
и потом по ней вычислять все добавленные сайты одним пользователем, и соответственно искать среди них сателиты?
или тоже самое делать при проверке индексации сайта, или это параноя?
У людей начинается мания преследования со стороны Яндекса: регистрация и запись в базу айпишника, сбор данных о сайтах с одного айпишника, cookies... 😒
Яндекс же поискових, а не каратель сайтов. Думается, что причину нужно искать в другом. Не исключено, что при добавлении сайта происходит просмотр его роботом и по итогам, скажем, такой оценки делается вывод о добавлении сайта в индекс. По поводу бана. По заявлению представителей Яши, параметров стало вдвое больше, что мешает оценить сайты с малым трастом по новым параметрам и загонять их в бан? А вот какие они, эти параметры, стоит смотреть и думать. Экспериментируем пока...
если подряд добавить кучу сайтов в адурилку - то забанит весьма вероятно - точно не нужно так делать
pims, уже 50 раз обсуждалось.
Если все будут знать алгоритм бана и его обходить,то алгоритм поменяется.
Кто умеет думать итак поймет ибо алгоритм,как уже было сказано примитивен,а кто думать не хочет - пускай дворником идет работать.
мне кажется одной из основных причин может являться "неуникальность" кода - контент то все стремятся уникализировать, а вот теги в ноль одинаковые, а ведь порой теги составляют чуть ли не половину текстового представления сайта....
это вообще бред.
pims, уже 50 раз обсуждалось.
Если все будут знать алгоритм бана и его обходить,то алгоритм поменяется.
Кто умеет думать итак поймет ибо алгоритм,как уже было сказано примитивен...
На 50 обсуждений не попал, в чем встаки фишка? 🙄
В соседней ветке поднимал обсуждение., но там все переросло в неизвестно что.
У самого такая проблема. Есть 10 сайтов. Живут мес.7
1. Ip разные
2. Private
3. разные телефоны и e-mail
4. Уникальный контент
5. Разный дизайн
6. Сапа вешалась после индексации
Из 10 сайтов не попал в индекс только один сайт, и то в самом начале.
Переписка с Платоном ничего не дала, в бане до сих пор.
Поменял текст на морде, вот жду...
У меня банились всего 3 сайта, причем 2 из них - по ошибке. Письмо Платону исправляло положение за одну-две недели.
На одном сайте стояли заголовки <h1><a>..</a></h1> но не с "поисковыми" целями а в пользу логики (не люблю всякие "читать далее" и тп), но это пришлось исправить и сайт вышел из бана.
Имхо, что важно
1. Униконтент.
2. Если есть сапа - не больше 6-7 ссылок в 2-3 блоках.
3. Сапу (и др) лучше ставить через месяц-полтора после индексации (лучше пока тиц наберите с пр =0))
4. Контакты администрации: лучше писать реальный мэйл (существующий, проверять его, конечно, не обязательно ;)), надпись типа "Руководитель проекта - ...", а если просто портал, то хотя бы формочка обратной связи. Вобщем Вы меня поняли.
5. И конечно, то, что никто не отменял: отсутствие поискового спама, нетематических и немодерируемых каталогов и тп. фигни.
Что не важно:
ип, хуиз, облака и способы добавления.
Свой сервак, 5 сайтов компании, около 80 - клиентов, около 30 сапроектов. Перелинковка, все дела - все работает отлично.
Вот хотел спросить на счет этого подробнее.
Как вообще робот сможет определить, что это страница с контактами? Может это какой нибудь пример заполнения формы, или прото сообщение на форуме. Если я сейчас в этой теме оставлю свои контактные данные и домашний адрес, не будет же страница с моим сообщением считаться контактной информацией администратора сайта.
И как можно проверить что e-mail, телефон, адрес действительные?
А если закрыть эту страницу от индексации, так что, для ПС получается на сайте страницы с контактами нет?
mfl, нет, естественно это не обязательный фактор.
Но он может стать "плюсиком" вашему сайту в плане доверия ПС.
(имхо)