Reise

Рейтинг
174
Регистрация
22.06.2007

Да, веселая конечно пятничная тема :)

Какой траф вы хотите получить с апорта, если на нем самом его практически нет - 30 тысяч по ЛИ?

Hkey:
Автоматически метакейвордс не генерирует ни один из движков известных мне.

Вы что шутите? DLE в дефолтной конфигурации и тот же WP с плагином All-in-One SEO pack точно генерят. Уверен, что многие другие с нужными плагинами генерят...

Hkey:
например,
квартиры посуточно
квартиры посуточно в Одессе
недорогие квартиры
Превратиться в "Недорогие квартиры посуточно в Одессе". Хотя все зависит от частотности запросов.

Это хорошо. Только интересен вопрос анализа морфологии. Как вы гарантируете, что тайтл получится "человекочитабельным"?

Hkey:
Мигание не будет из-за особой вариации рандома. При F5 он не мигает.

Я не об этом мигании говорил, еще не хватало, чтобы по F5 что-то менялось, я как раз об этом:

Hkey:
Те данные которые используются при генерации страницы, обновляются когда число переходов на нее увеличиться в 1.5 раза.

Кстати какие именно данные? Все что-ли, в том числе тайтл, тайтлы ссылок, альты, кейвордсы?

Hkey:
Фильтры накладываются за сео-спам, а не за изменения на сайте.

Согласен, в том то и вопрос, не посчитают ли поисковики эти манипуляции как сео-спам.

Hkey:
Поисковики наоборот любят когда на сайте производятся изменения, это означает что сайт жив.

Изменения чего? здесь надо было дописать изменения контента, а вот изменения ссылочной структуры и других вещей, связанных с сео могут пс не понравиться.

Hkey:
gzip-сжатие при полной буферизации вывода не ускоряет, а наоборот замедляет работу сервера в целом.

Скорость работы сервера и скорость работы сайта - улавливаете разницу? Я же написал:

Reise:
А вы не думаете, что отключение только этого скажется на скорости работы сайта, особенно если он большой, тяжелый и посещаемый.

Да, нагрузка на процессор при включенном gzip-сжатии резко возрастает (особенно если выбрать неоправдано высокий уровень сжатия - например 9), но зато при этом страницы отдаются очень быстро из-за их маленького объема и линейной передачи в виде одного файла - практически летают, что несомненно является положительным фактором не только для конечного пользователя, а и ранжирования.

Ну и я так и не понял, работает ли ваш скрипт с включенным gzip-сжатием. Кстати включаю его на уровне веб-сервера (nginx), то есть конечно не хотелось бы отключать его для конкретного хоста только для того, чтобы работал ваш скрипт.

Hkey:
Мета кейвордс учитывается Яндексом. У них так на сайте написано.

Почему-то вспомнилось сразу про забор :) - там тоже написано...

Hkey:
Чтобы выбрать один ключевик пропорционально его весу с вероятностью пропорциональной числу переходов по нему, используется модификация бинарного поиска, которая выбирает его крайне быстро, за логарифмическое время. Например, из 1000 ключей один выберется максимум за 10 шагов, а из 1 000 000 за 20 шагов.

Что-то очень сложно.

Нельзя ли просто на основе рандома с коррекцией по вероятности (частотность) высчитывать номер анкора из скажем отсортированного списка. Все ж намного проще, о каких 10-и шагах вы говорите, о каком поиске - там он не нужен - задача ж не заключается в абсолютной точности, здесь же вероятность - а значит результат все равно случайный, просто случайность смещается на основе вероятности. Покажите на конкретном примере вашу задачу, что вы пытаетесь вычислить - может мы коллективными усилиями проще придумаем.

Hkey:
Титлы ссылок выбираются другим способом, но при быстром разборе используется один запрос к БД, чтобы выбрать все титлы ссылок (при настройке "быстрый разбор").

Уже напрашивается вопрос, а что же происходит при "Медленном разборе" :) - неужели на каждый титл по запросу. То есть пусть в среднем имеем 30 внутренних ссылок на другие страницы - так что 30 дополнительных запросов к БД?

Hkey:
В итоге мы получаем 4ре запроса на генерацию всей страницы.

Это очень много! Нельзя ли записывать все вычисления в 1 таблицу БД и потом делать 1 запрос. Денормализуйте БД, зачем доставать какие-то "недоданные", которые еще надо долго и мучительно просчитывать, храните сразу результаты. Неужели это невозможно реализовать - подумайте над этим.

Hkey:
CMS в среднем используют где-то 20 запросов.

Ну почти согласен, только я бы не говорил в среднем - это почти максимум, столько делает тот же WP, например этот форум vbulletin - внизу этой страницы "Page generated in 0.11626 seconds with 15 queries". DLE для генерации внутренней страницы делает от 2 до 5! По моему с кешированием только 2 запроса.

Далее, CMS которые занимаются таким извращением (я про 20 запросов) абсолютно не предназначены под большой траф, если вы с этим не согласны - покажите мне сайт на WP с большой посещаемостью...

Ваш же скрипт наоборот по сути тем лучше будет работать (в теории), чем выше посещаемость - но нагрузка...

Ну и повторюсь, я заинтересован вашим скриптом, только хотелось бы чтобы он научился быстро работать с минимумом запросов к БД - ведь это и есть основное его узкое место. Советую поработать и кардинально сменить структуру, и тогда цены ему не будет: автоматически формировать СЯ по ходу работы сайта - это нечто новое и нужное.

sasa84:
Если вас "забанят" - с меня пиво, консультации по SEO и соболезнования

Спасибо, хорошее возмещение за забаненный сайт :)

То есть я вам 200 с лишним баксов, меня банят, я теряю все, а вы мне ставите пиво и соболезнуете...

Присоединяюсь к поздравлениям!

Только сильно не напивайся там :)

Мои варианты:

1. тестят работоспособность площадки

2. нагоняют тиц, возможно полагая, что нужны анкоры и околоссылочный как можно уникальнее :)

Step40:
Вы наверное не оптимизатор?
Я ставлю такие ссылки.....
фишка в том что там где агрегаторы ставят бюджет 1000 руб, я обхожусь 100 рублями

Ну а дальше :)

Ну спалите раз уже начали...

Прочитал оба ваши топика (сначала читал первый, я же не знал, что в конце будет ссылка на новый :)). Ушло 2 дня. Накопилось куча вопросов, все и не припомню.

1. Вы говорите переписываются альты? Какие альты? Альты картинок целевых раскручиваемых страниц? Тогда возникает вопрос, на что именно переписывать? Например на страницу постоянно идут переходы по 10-и разным НЧ-запросов, какие именно из них запишутся в альты и как, через запятую что-ли? А какие именно альты подлежат смене, а если картинок в новости 10, что что все альты будут одинаковыми или ключи по альтам будут как-то распределятся?

2. Похожий вопрос о тайтлах ссылок. Переписываются только тайтлы, анкоры что-ли не трогаете? Вы считаете это один из существенных параметров ранжирования? Про метакейвордс я вообще молчу. Не хотелось бы с вами спорить (видел как вы дискутировали с кем-то кажется еще с первой ветке), но мое мнение такое, что если уже и метакейвордс есть, то главное, чтобы там не было большого процента слов, которые вообще не встречаются на данной странице (а такой метакейвордс генерирует практически любой нормальный движок либо плагины к нему), а хоть какой-либо эффект на ранжирование этот метатег не оказывает. То есть какую-то лепту в определения переоптимизации/недооптимизации он может и внести, но положительно повлиять - никак, стоит ли тогда вообще этим заниматься, дополнительно перегружая и без того нелегкую систему? Я понимаю, что вы написали хорошие алгоритмы для генерации метакейвордс и вам жалко теперь его не использовать :), но все таки советую проконсультироваться с кем-то из гуру (если мне не изменяет память, некоторые блогеры ставили эксперименты по данному поводу).

3. По поводу тайтла целевой продвигаемой страницы. На что именно он переписывается? Я так понимаю на самый частотный запрос? А вам не кажется, что тайтл может быть оптимизирован под целый хвост разных НЧ и его переписка только ухудшит ситуацию? Или может тайтл переписывается с перечислением ключей через запятую - это тоже не вариант и уже на сео-спам смахивает.

4. На счет нагрузки. Я когда прочитал возможности скрипта, первое, что я подумал, как это все работает не нагружая систему. Там столько просчетов, причем все делаются на лету при работе сайта. Тогда еще никто не писал о нагрузках. Я так понимаю вы очень тщательно просчитываете вероятности выпадания нужных ключей и неужели делаете это с помощью манипуляций таблиц mysql (тяжелые выборки, сортировки), при этом пытаетесь делать все это онлайн. Здесь явно надо все упростить, вам кстати здесь показывали как надо сделать, я надеюсь вы это заюзали? Мне правда кажется, что можно еще проще, просто достаточно хранить результаты вычислений где-то в таблицах (при необходимости можно пересчитывать).

Моя идея: при трафике с ПС только собираете базу, обрабатываете и все просчитываете потом - скажем ночью и постепенно, и кешируете результаты.

5. Ну и я уже так тихо скажу о том, что технология работает аля sape: то есть загружаем урл - ссылка есть, добавляем параметры в урл - контент тот же, а ссылки нет. Почти любой движок любит наклепать дублей страниц. У нас получится, что на одной странице скажем контекстная ссылка есть - на другой - нет или другие. Да, это подлежит склейке, но контент должен быть одинаковым. Вам не кажется, что это может стать дополнительным подозрением со стороны ПС, что сайт использует сео-манипуляции?

6. А мигание? Мне кажется, все круто мигать будет: то такие ссылки, то другие, то такие тайтлы, то другие и т.д. Здесь мы не рассматриваем одну конкретную страницу, мы рассматриваем массовый эффект на все сайте? Это разве не те самые попытки повлиять на выдачу?

7. Ну и самый главный вопрос. Никто не боится, что сама по себе технология такой перелинковки опасная и зависит от работоспособности БД и кода скрипта. Если что-то случается со скриптом или вдруг вы решите его снять (а при текущем положении вещей это рано или поздно произойдет ввиду роста нагрузки), то вы сразу потеряете все, что нагенерил скрипт. Он же не в БД сайта данные хранит, а в своей - что очень плохо. Я понимаю, что здесь для разработчика рулит вопрос кроссплатформенности, но для конечного пользователя это как минимум плохо - у него стоит конкретный движок и его не особо интересует, что зато скрипт мог бы работать еще на чем угодно.

Кстати читая топик, видел что многие скрипт то снимали, то заново ставили (он же при этом мог генерить уже все по-другому), то опять снимали. Если в результате вы не получили фильтров, то я считаю, что вам крупно повезло.

Hkey:
Отключите gzip сжатие и почистите кеш.

То есть с включенным gzip-сжатием ваш скрипт не работает? А вы не думаете, что отключение только этого скажется на скорости работы сайта, особенно если он большой, тяжелый и посещаемый. В гугле, как уже и отмечалось в данной ветке, скорость загрузки страниц - весомый фактор ранжирования (и не надо приравнивать его к остальным как вы выразились 249, он как показали некоторые мои наблюдения довольно весомый, что кстати логично: топ 10 - это для юзера прежде всего беглый обзор найденного для поиска самого релевантного и его не интересует страница, которая грузится по 20 сек, он и так не дождется, а пойдет дальше - так смысл ее вообще показывать в топ10, с т.з. паука он тоже не будет дожидаться загрузки, ему легче вообще ее не индексировать...).

П.С. Я надеюсь вы не припишите меня к своим конкурентам :)

Я потенциальный покупатель, просто прочитав полностью все о вашем скрипте сложилась мысль пока подождать, пока не сделаете работоспособную версию.

xander kej:
круто конечно, но под тотже WP и Joomla есть аналогичыне БЕСПЛАТНЫЕ расширения, которые по функицоналу повторяют ваш скрипт.
6к р имхо многовато. И в чём уникальность я так и неуловил
sasa84:
В том что сайт может быть не на ВП и Джумле, а абсолютно любой. В том что для работы со скриптом не нужен программист.

Хорошо, в чем уникальность для тех, у кого сайт на ВП и Джумле?

Reise добавил 03.08.2011 в 04:58

Ну и самое главное - вам не кажется, что это слишком нагло линковать все подряд? Вам не кажется, что это не совсем белое SEO и возможны санкции ПС.

Concurent, правильно, если у человека было бабло для битрикса, то почему бы не срубить еще и при допиливании, фрилансеры это понимают.

Вопрос на засыпку, там хоть ЧПУ есть, а то как-то в тех примерах, что видел, отсутствует.

TiA:
Данные в БД часто дублируются в той или иной форме. Это называется денормализацией базы данных.

Да, это мне известно, так как в универе это изучал. Собственно по этой причине и работает быстрее в реальных условиях.

Reise добавил 02.08.2011 в 04:38

TiA:
Там не в повторениях проблема. Архитектуры как таковой нет, костылей много, но работает...

Это мой взгляд дилетанта в php-программировании. Приходилось кое-что дописывать своими кривыми руками.

Reise добавил 02.08.2011 в 04:39

TiA:
С выключенным кешированием для обычной страницы http://site.com/content/ свежеустановленного Битрикс 10.0: Управление сайтом генерируется 47 запросов к базе данных.

Это кошмар. Чем они думали, почему 47, а не сразу 470 :)

RDS bar:
Счет пополнили, приятной работы.

Спасибо, подтверждаю, добавили 20 баксов на счет.

Продолжаю активно использовать ваш сервис, все настолько удобно у вас, что и не к чему придраться :)

Спасибо, что вы есть.

Всего: 1587