Михаил

Михаил
Рейтинг
190
Регистрация
02.03.2007
Должность
Москва
Интересы
3D-графика и анимация, компьютерная графика, интернет-реклама, SEO, PHP-программирование
Родился по заданию разведцентра
Лично когда мне нужно каким-либо образом идентифицировать визитёра – беру конкатенацию его IP + UserAgent, шифрую в MD5, добавляю «соль», шифрую повторно и обрезаю полученный хэш символов до восьми. Способ серверный (подделывать входящий IP и UserAgent реальному клиенту лениво и не нужно), а потому наименее капризный и неплохо идентифицирует гостей.  Полученной в результате процедуры последовательностью символов обзываю текстовый файл и в него уже пишу всё, что заблагорассудится – скажем, настройки для гостя или условия блокировки. Естественно, при таком подходе, если гость сменит тёмную тему на светлую, а затем зайдёт на сайт из другого браузера – он снова получит тёмную тему, т. к. UserAgent у него будет уже другой. Правда, есть ещё те, кто в процессе сеанса по десять раз меняет UserAgent, то и дело подставляя новые значения – но этим, поверьте, абсолютно без разницы, какая на сайте тема – светлая или тёмная. В вашем же случае в этом текстовом файлике можно записать, к примеру, указание на css-стиль.
LEOnidUKG #:

вам надо задаться вопросом другим, откуда он берёт этот адрес. Проверить сайт не указан ли где-то этот урл. Проверьте Яндекс вебмастер, возможно там где-то светиться ссылка на index.php 

Совсем необязательно. Время от времени с той или иной целью набираю в адресной строке что-то вроде «[адрес сайта]/абра-кадабра-септ-аккорд-олеонавт/», к концу дня в индексации Я-Вебмастером уже вижу этот адрес, с 404-м ответом, естественно. Достаточно периодических попыток стука по несуществующему адресу – и Метрика сообщает этот адрес Вебмастеру, а тот каждый раз пытается проиндексировать его. Особенно радуют орды дятлов-краулеров с запросами типа «[сайт]/wp-admin/» – занятно смотреть, как Вебмастер вслед за ними то и дело пытается найти этот ветхозаветный URL в моей самописке.

Forzed #:

А если страниц очень много, нужно же в php лезть писать условие?

Именно так.

Из вариантов...

/page/139

/page/139/

/load/page/139/

...выбираем один, который будет каноническим (к примеру,  /page/139/), и ставим в блок мета-тегов строку:

<link rel="canonical" href="<?=[адрес сайта].$_SERVER['REQUEST_URI'];?>">

Эта строка будет означать для поисковиков: вот правильная страница, остальные с тем же контентом – жалкое подобие, не ходи туда,  ходи сюда.

Соответственно, для двух остальных видов страниц – ставим переадресацию на канонический тип страницы, что-то типа:

header('HTTP/1.1 301 Moved Permanently');
header('Location:'.[канонический формат страницы без квадратных скобок]);
exit;

И будет вам счастье.

Dmitriy_2014 :

При наведении на вкладку в браузере Chrome он показывает 165 МБ, но что так много может весить, если моя страница весит всего-то как документ 35 кб

Для отображения любой WEB-страницы любой из браузеров загружает кучу библиотек, задача которых – правильно отобразить страницу. Все эти библиотеки универсальны и содержат огромное количество методов для обработки любых, даже самых заковыристых костылей в HTML-коде и Ява-скриптах (и не только), картинок, медиаконтента и пр. При этом загружается браузером сразу всё что у него там есть в ассортименте, чтобы лишний раз не бегать за нужной библиотекой. Если на WEB-странице нет медиаконтента – ну что же, нет так нет, значит, не понадобилось.

Ко всему прочему, в большинстве браузеров сейчас предусмотрены ещё и инструменты разработчика – это такая весьма и весьма мощная панелька, в которой любую WEB-страницу можно разобрать едва ли не по молекулам, проанализировать свойства любого элемента страницы, и даже вручную переверстать на лету любую загруженную страницу с новыми свойствами. И да, эти инструменты также загружаются для каждой открытой страницы в числе прочих библиотек – а вдруг вы разработчик и вот прямо сейчас захотите проанализировать структуру открытой страницы? Не заставлять же вас ждать, пока загрузятся нужные библиотеки. Загрузим сразу всё, на всякий случай.

Вот примерно так 35 Кб и превращаются в 165 Мб.

И да, кстати о птичках, кто не в курсе: в точности так же, по тем же принципам, на сегодняшний день работает и подавляющее большинство стандартных движков для WEB-сайтов, типа Joomla, WordPress, Bitrix и пр. Попробуйте вывести сакраментальное «Hello world» на страница сайта на Битриксе – и вы узнаете, как глубока кроличья нора. Но это так, к слову.

Brat_Sergij #:

А можете привести для сравнения старый и новый robots? Возможно в старом у вас как раз и была ошибка, повлиявшая на проблемы с индексацией.

К сожалению, нет – снёс старый подчистую.

Примерно он выглядел так (взято с другого сайта, в котором закрыты другие разделы):

User-agent: *

Disallow: /cgi-bin

Disallow: /wp-admin/

Disallow: /page/

Disallow: /wp-includes/

Disallow: /wp-content/plugins/

Disallow: /wp-content/cache/

Disallow: /wp-content/themes/

...и так далее. В конце:

Sitemap: [адрес сайта]/goods_sitemap.xml

Sitemap: [адрес сайта] /prod_image_sitemap.xml

Сайтмэпы и Яшей и Гошей читались норм и обходились регулярно. Яше, повторюсь, данная структура robots.txt индексировать страницы не мешала, да и ошибок Яша при проверке не нашёл. Строго говоря, об ошибках и Гоша не сообщал, 99% страниц сайта просто висели в статусе «Обнаружена, не проиндексирована». Что касается причин явления для вебмастера – Гоша на таких мелочах, как правило, не заморачивается, благо его основная целевая аудитория – ясновидящие.

Sultan :
Хотел уточнить что "robots txt" влияет на снижения трафик?

Прямое попадание в тему. Долгое время у меня был аналогичный robots на сайте, 75% страниц в индексе у Яши, Гоша – полный игнор. Штук десять страниц из двух килодесятков – в индексе, остальное в лимбе. Проверял robots Яшей – всё норм, без нареканий. Сегодня решил на пробу снести все disallow из текста, благо всё равно все пути перекрыл на серверном уровне, и добавил allow / в самом начале. Самое уместное сравнение эффекта – это как дамба рванула: во второй половине дня Гоша уже бодро рапортовал о полутора тысячах проиндексированных страниц (вместо десятка), да ещё и отчитывался, что так оно ещё позавчера было. Вот такой вот  коленкор...

А не проще добавить модуль, который будет периодически по крону перезаписывать ключевые библиотеки на исходные из наглухо запертого хранилища? Либо создать таблицу хэшей библиотек и по тому же крону сверять их, перезаписывая те, у которых хэш неверный?

Антоний Казанский, спасибо, всё по полочкам и снова картина в целом, даже не знаю, как благодарить за такие подробные ответы.

Mazay, качество можно определять либо по тому, что сделано, либо – если результат не устраивает – по тому, как делается. У меня – второй вариант, и чтобы не платить двойной тариф за дискуссии с Продвигаторами, я сначала интересуюсь мнением специалистов здесь – у кого есть возможность, подсказывает, что к чему.

Понимаю, что в работе с ПС всегда есть фактор неопределённости, который может уронить ниже плинтуса даже работу очень квалифицированного специалиста, но в целом (даже рискуя показаться вам идиотом) оцениваю качество примерно так: если сайт спустя два-три года (примерно столько времени Продвигаторы начали работу по сайтам) в топах по требуемым запросам – качественно, если не в топах – некачественно.

Заметьте, некачественно – это не финальный вердикт Продвигаторам, это просто оценка текущей ситуации. Главный вопрос здесь выглядит следующим образом: чем я могу им помочь? Ну, например, преобразовать страницу с параметрами 68/70 (скорость/оптимизация) по PageSpeed в страницу 100/100 – хороший вариант помощи? Мне кажется – да, особенно если это ощутимо увеличивает процент попавших в индекс Гугля страниц. Но когда натыкаешься на противодействие SEO-компании – это, наверное, можно расценить как своеобразный маркер качества.

То же самое и с текстами. Из договора можно почерпнуть об этом чуть менее чем ничего – там нет ни слова об уникальности или тошноте текстов, там есть некие формальные обязательства (к примеру, ежемесячно создавать 2-3 новых страницы), которые никем не выполняются, потому что всем кому надо понятно, что фактически деятельность Продвигаторов ведётся совершенно иначе, методы свои они не оглашают, и в договоре этого никто регламентировать не станет (чтобы не быть голословным – просто напомню про контору под названием «Битерика», вот это из той же оперы).

Вот и приходится, не будучи специалистом, точно так же искать маркеры, по которым можно хотя бы косвенно оценить качество работы. Само по себе это качество меня не волнует – лишь в той степени, в какой касается визитов ЦА на сайт, и поиска способов, как улучшить это качество.

Антоний Казанский #:

за "вредность" действительно могут попросить в виде оплаты доп. консультаций и/или трудочасов и это вполне правомерное требование, ибо создает доп. нагрузку

Согласен, но тогда: насколько правомерно пожелание доп. оплаты просто за качественную работу? То есть за базовую ставку по договору – гарантированно будет халтура, а чтобы качественно – доп? О том, что халтура – сделал вывод из вашей же оценки ситуации выше, если правильно вас понял.

Mazay #:

Это бесполезно. Это все равно что дискутировать со специалистами автосервиса, которому вы отдали автомобиль на ремонт или на диагностику. И влезать в их работу, пытаясь "разобраться". Адекватные вам скажут, либо езжайте дальше, либо доплачивайте "за вредность" ))

Согласился бы с вами – но у меня такое уже было. Три электрика подряд назвали три разных причины, почему не заводится – устранить не смогли. Стал разбираться сам – оказалось, секретное реле зажигания под водительским порогом в цепи сигнализации (в числе названных электриками причин не значилось). По совету из тырнета перестал ставить на сигналку и начал запирать ключом – проблема исчезла до весны (потом съездил в сервис и заменил реле).

И вот тогда я понял одну простую истину: я неимоверно крут когда ты разбираешься «для себя» – у тебя больше шансов разобраться, чем у тех, у кого таких, как ты, десятки в день и им некогда заниматься каждым до победного, потому что у них задача – просто получить свои деньги и перейти к другим задачам. 

Всего: 522