- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Давайте подумаем, что такое "однотипные" сайты в глазах ПС...
Я категорически не думаю, что дело в структуре категорий сайта, и тем более, в качестве рерайта (если контент имеет уникальность в районе 95% и выше, он никак не может быть "однотипным", Яндекс технологиями Искусственного Интеллекта пока не владеет...) Что касается структуры категорий, - они у нас одинаковы для сайтов определенной тематики, но они логичны, и, думаю, встречаются на многих тысячах ру-сайтах. Например, если это сайт о детях и родителях, то список категорий таков: "Детский сад, Подготовка к школе, Начальная школа, Детская психология, Игры и игрушки"... Если капнуть глубже, - то сайтов с такой структурой категорий мы сделали и продали около 20 шт. За год. Я не думаю, что это огромные объемы однотирной структуры для поисковика...
Таким образом, основное подозрение у меня - именно на структуру HTML кода шаблона. Для упрощения работы над версткой мы разработали что-то, наподобие html+css фреймворка, то есть, если разобрать по полочкам html код шаблона, робот может увидеть большой процент (думаю, что не менее 90%) "схожести" кода... именно html разметки, исключив контент. Я говорю о структуре элементов (<div>), о наименованиях классов и id в стилях (css), о структуре заголовков и т.д...
То есть, робот Яндекса (и не Яндекса), при желании, может "распознать" наши сайты по html коду, просто исключив все текстовое наполнение и проанализировав исходный код html... и, при совпадении, допустим 90% и более с неким образцом, применить санкции...
Именно таким образом ПС могут санкционировать WP-сайты, работающие на некоторых бесплатных шаблонах...
Думаю, что для решения этой проблемы, необходимо провести немного кропотливую, но довольно несложную операцию обфускации html кода, изменив код шаблона таким образом. что его не "опознает" ни поисковый робот, ни автор, ни родная мама...
Например, рассмотрим небольшие куски кода для образца (я взял с сайта тов. Colt - stroycamp.ru):
В самом начале кода (файл header.php) мы видим подключение 6 стилевых файлов CSS :
/css/reset.css, /css/common.css, /css/wordpress.css, /css/comments.css, /css/simple.css, /css/main.css
Сразу... переименовываем эти файлы в любой набор символов и меняем имена файлов на новые в HTML коде...
Далее, по тексту ищем все открывающиеся блоки <div>...
<div class="htexts onleft">
<div class="top_menu onleft">
<div class="search_form onright">
<div class="rss_icon onright">
<div class="navigation leftbar_bg box bordered">
и т.д...
и меняем все вхождения имен классов во всех файлах темы (включая файлы CSS (!)), таким образом, получаем вместо
<div class="htexts onleft"> что-то такое: <div class="pajdshhdg aavvd"> и соответственно, в описании стиля будет не .htext и .onleft а новые имена классов...
Весь этот процесс можно автоматизировать, существует множество специальных программ, так называемых обфускаторов (практически, это рерайт html кода... подобно рерайту текстов)...
Думаю, что именно уникализация html кода сможет уберечь сайты от санкций за неуникальный код... и, думаю, что есть люди с опытом такой работы, занимающиеся уникализацией паблик-шаблонов под WP, и успешно двигающие на них сайты...
Ну а по поводу покупки ссылок... - имею такой же горький опыт неумелой закупки на сапе (скорее всего рано купил ссылки, и слишком много), т.к. сразу после закупки ссылок (через неделю) сайт попал под АГС, в то время, как другой сайт, с такой же структурой и на таком же шаблоне - живет успешно около года, и даже продает ссылки сам... (тиц не теряет, индекс не теряет)... так что, аккуратно и осторожно двигаемые сайты живут, независимо от html кода...
artalex Вы будете уникализировать код на новых своих сайтах?
п.с. Создание сайтов на основе сателитов купленных на форуме (от разных изготовителей) это лотерея вылетит/не вылетит, попасть под АГС может как потчти сразу, так и через несколько месяцев. Проверенно на собственном опыте и не на одном десятке сайтов.
Уже думаем над уникализацией кода... как сделать ее более эффективной и безболезненной... в любом случае, все последующие сайты будут иметь уникальный html код, а так же, "по просьбам трудящихся", будем ставить "в стандартный пакет" плагин all-in-one-seo и прописывать для каждой статьи дескрипшены и кейвордсы, так же, более вдумчиво работать с расстановкой заголовков <h1> - <h4>, тайтлами на картинки и другими СЕО - элементами... постараемся так же, чтобы это не сильно повлияло на цену (хотя, этого не избежать, т.к. придется привлекать дополнительных работников...).
den197705, По поводу "лотереи" - не согласен. Любое движение должно иметь свои причины, и при более глубоком анализе их можно и нужно находить и исправлять... возможно, дело вовсе и не в уникальности html, но пробовать стОит
А старым покупателям бонусы будут?
P.s.: на 95% уверен, что дело именно в однотипности html+css и похожести структуры сайтов.
Уже думаем над уникализацией кода... как сделать ее более эффективной и безболезненной... в любом случае, все последующие сайты будут иметь уникальный html код, а так же, "по просьбам трудящихся", будем ставить "в стандартный пакет" плагин all-in-one-seo и прописывать для каждой статьи дескрипшены и кейвордсы, так же, более вдумчиво работать с расстановкой заголовков <h1> - <h4>, тайтлами на картинки и другими СЕО - элементами... постараемся так же, чтобы это не сильно повлияло на цену (хотя, этого не избежать, т.к. придется привлекать дополнительных работников...).
den197705, По поводу "лотереи" - не согласен. Любое движение должно иметь свои причины, и при более глубоком анализе их можно и нужно находить и исправлять... возможно, дело вовсе и не в уникальности html, но пробовать стОит
Приятно читать, что код у новых сайтов будет уникален.
h заголовки лучше вообще не использовать, они лишь придают спамность сайту.
Тайтл для картинок вещь бесполезная, лучше бы альты для картинок прописывать.
И все же, хотелось бы, чтобы категории имели разные названия. Десяток сайтов с 6 одинаковыми категориями, как название, так и урл, это дополнительный шаг к АГС.
вот здесь litemoney.blogspot.com/2011/10/blog-post_6760.html рассказывается про фильтры за отсутствие контактов или инфы про авторство в последние апы как раз. Склонен больше думать именно в сторону подобных факторов. так как паблик шаблоны, да и коммерческие очень популярны у начинающих пользователей, причем используются они десятками тысяч. у меня висят заглушки на доменах, стандартные темы из дистрибутива вордпресс. контент минимальный - один пост о домене. индексируются яндексом по несколько страниц и висят в индексе. тем более если копирайтеры пишут тексты, которые могут быть длиннее кода страницы, код шаблона - не основной фактор.
Причем тут уникальность шаблона, проблемы с доменом и так далее. Не в ту степь копаете. Это АГС по поведенческому фактору. Как первоисточник. А причиной неудовлетворительного "поведения" как раз и становится структура, наполнение.
Обратите внимание - это блог! Для чего нужен блог? Мы идем на типичную блоговую структуру, когда нам 1) интересен автор - читаем все, что он пишет; 2) актуальные и своевременные новости, объединенные одной логикой - логикой блога (типа новостника).
Поставит ли кто-то на такой проект естественную ссылку? Отвечает ли страница удобством, наполнению потребностям поисковой системы? Будет ли "правильное" поведение у пользователя или % отказов будет зашкаливать? Пользователь, например, перейдя на страницу с "советами по прокладке электропроводки" не имеет связки дополнительной информации по теме. Конечно, можно поставить модуль перелинковки по "читайте также", но это не поможет.
Эксперименты проводились мною полтора года назад на нескольких десятках сайтов litour, а поэтому, описанное выше не является просто предположением. Считайте, спалил тему.
tradeinvestor толково расписал.
Покупал сайт. Всем доволен. Пробовал сделать похожий сайт (структуру). Так вот что заметил:
Купленный сайт до сих пор в индексе. Добавил порядка 10 новых записей и пару нужных мне плагинов за все время и забыл. Самоделку вылизывал (корпел над каждым постом - выравнивал - проставлял теги - альты - вешал уникальные картинки - одним словом все чтоб было шикарно) Шаблон заказывал уникальный. Текст - копирайт 100%. Кол-во трафика росло ежемесячно. Я нарадоваться не мог. Прошло пол года. Стал замечать что с начала сентября стали вылетать страницы. Стал добавлять по 1-2 записи ежедневно. Но не помогло. На начало октября в индексе 1 страница. Стал думать что как. И тут вспомнилось про сайт с которого собственно и появилось желание сделать все самому с нуля - все у него в норме. До сих пор ВСЕ! страницы в индексе. Только появилось к каждому посту по 15-20 спам сообщений (без внешних ссылок - все резали плагины). Мозгонув чуть пришел к выводу - что сайт для поисковика вроде как живой был - заходили боты и писанину не нужную мне оставляли а нужную для ботов. А на самоделке изначально убрал возможность коментить что либо. Возможно теория tradeinvestor права. Оба домена кстати почти одинаковые - разница в 3 знака и висят на одном хостинге.
Интересное замечание - нужно взять на вооружение.
Пересмотрел сегодня клиентские сайты и обнаружил интересную закономерность. Сайты, которые после покупки развивались (добавлялись новые статьи и рубрики, комментарии и т.д...) - прекрасно себя чувствуют в индексе яндекса, получили ТИЦы, Пиары и т.д. Кому интересно, - вышлю список таких сайтов (только в Л.С. и только нашим клиентам)... Причем все они на стандартной нашей верстке... отсюда делаю вывод, что все-таки уникальность шаблона - далеко не самый важный фактор... если вообще имеет какое-то значение для П.С...
Пришло в голову вот еще что...
Все наши сайты сделаны на движке WordPress, в котором, как известно, очень легко отследить дату публикации поста... Мы наполняем наши сайты статьями в один день... тог есть дата публикации всех статей выставлена одна и та же...
Как бы Вы на месте П.С отнеслись к блогу, автор которого опубликовал за один день 50 статей и "умер"... ?
... З.Ы. В настоящее время готовим к продаже сайт... Абсолютно уникальная верстка (html код), дополнительные плагины, СЕО-оптимизация, уникальные рубрики и УРЛы и т.д... При публикации статей раскидываем их по датам "задним числом", чтобы была видимость постепенной публикации статей (возможно, сделаем так же и отложенную публикацию для некоторых статей)...