Hkey

Hkey
Рейтинг
222
Регистрация
30.09.2006
Интересы
Java
trolikua:
Вчера писал на електропочту, но ответа нет, пишу сюда.
Купил скрипт, с установкой пробем нет, но есть небольшой вопрос.
У меня несколько доменов на мультисайтинге, и получается, что облако ссылается на главный домен. Как можно руками задать правильный адрес?
П.С. работа скрипта нужна только на одном домене

письма на почту нету.

if(split('.',$_SERVER['SERVER_NAME']==2))//домен второго уровня

{

код подключения HTracer

}

san13:
И еще раз....

Поясните, пожалуйста, что при тестировании значит надпись: ht_context_links OK, but not have places

не находит текст куда вставлять ссылки?
или не находит ссылки которые можно было бы вставить?

з.ы. т.к. второе точно есть, а ссылок нет. перове впрочем тоже точно есть, но может скрипт не виидит...

Это значит все верно, но в данном тексте нет мест куда можно вставить ссылку.

x0xa:
Друг, я указал 20, есть 314. Этого мало ????? :)

Все понятно - не показываются ссылки с одинаковым анкором хоть и на разные страницы. Этот вопрос снят.

Остался еще один - у всех ли работает галочка Удваивать вес при переходе со второй страницы ?
У меня все наоборот происходит - с первой страницы вес удваивается, со всех остальных - нет.

Возможно вы сильно большую случайность поставили

С БД все в порядке, если поставить галочку тестирования, то появляются отладочные сообщения в нужных местах.

То что скрипт работает, еще не значит что у админки и у той части скрипта, которые исполняется на сайте одна и таже БД. Проверьте стоит ли MySQL на форсировании, если не стоит, то проверьте что имя БД HTracer совпадает с БД сайта.

ovechka:
а установку вы еще делаете?

Да если у вас возникают проблемы, я бесплатно устанавливаю. Но, обычно, проблем не возникает.

---------- Добавлено в 10:48 ---------- Предыдущее сообщение было в 10:46 ----------

x0xa:
Вы почитайте, что в помощи написано по этой галочке =)

Она стоит (или не стоит) - разницы никакой нет, новые слова не добавляются в базу. Есть только те слова, которые были импортированы из аналитики гугла.

странно. Отправьте мне данные на мыло.

Если не стоит форсирование то проверьте имя БД и префикс таблиц он должен совпадать с тем что у вас на сайте.

---------- Добавлено в 10:55 ---------- Предыдущее сообщение было в 10:48 ----------

ovechka:
и еще, скажи, вопросы от того кто на бронепоезде

у меня есть магазин 10 к страниц только товара
тайтлы страниц товара стоят по формуле:
название товара + фирма производитель + артикул товара
когда покупатели ищут в поиске товар, они как правило ищут по формуле: производитель +артикул

вопросы:
1. Заменит ли трейсер все тайтлы страницы, или они остаются те же?
2. в руководстве трейсера "Создавать семантические облака и блоки ссылок на внутренние страницы" - в чем разница и как они формируются (какого вида будут ссылки - запросы из псов?...)
3. будут ли перелинкованы между собой ВСЕ страницы сайта (или какой здесь принцип перелинковки)

с какой скоростью идет замена тайтлов, кеев, титлов-альтов картинок и простановка ссылок? или за сколько времени, перелинкуется и "оптимизируется" 10к страниц (ориентировочно, я понимаю что здесь может частота запроса играть)?

1. Нет, если вы не добавите специальный код.

2. Разницы нет. Просто в облаке разные ссылки имеют разный размер в блоке он все одинаковые и в одной строке один ключевик.

3. Все страницы будут акцепторами, донорами только самые модные посадочные.

-------------------------------

P.S. В части случаев в магазинах титл лучше писать в виде

название товара + фирма производитель + артикул товара + : цена, фото и отзывы (или что в таком духе)

Например, Пылесос Samsung D100: цена, фото и отзывы

kan99:
Хочу просто уточнить, данная ошибка выдается из-за нехватки места на диске я так понимаю?
кстати хостер мне уже советует отключить совсем кэш файлы, но из-за этого производительность не упадет?

Поставьте кешировать только общие данные (кеш будет занимать меньше метра, если вы папку отчистите).

Если будет тормозить включите быстрый разбор либо отключите альты ссылок.

---------- Добавлено в 17:03 ---------- Предыдущее сообщение было в 16:18 ----------

worldgaysex:
Hkey,
к одной базе можно подключить несколько HTracer?
т.е. есть основной сайт на котором полноценно работает скрипт, и есть несколько других сайтов(доноры), на которых нужно использовать базу с основного сайта, что бы ссылки расставлялись контекстные, облако.
я так понимаю нужно на донорах снять галочку --Запоминать переходы:-- и они будут просто использовать базу без внесения в нее новых данных
правильно?
если так, сколько можно подключать к базе сайтов?
нагрузка повысится?

Несколько экземпляров HTracer могут работать с одной базой данных (есть настройка префикс таблиц). Но для перелинковки сайтов HTracer не рассчитан. С одного сайта на другой кучу ссылок лучше не ставить, они пойдут как непотные.

---------- Добавлено в 18:07 ---------- Предыдущее сообщение было в 17:03 ----------

crashescars:
А можно подробнее?
Дело в том что давно ищу скрипт чтобы автоматизировать работу но недопонимаю. Почему от количества заходов зависит вес ключа(ведь при низкой позиции в ПС у ВЧ ключа может быть на сайт количество заходов меньше чем у СЧ на позиции первой например). Перелинковка ведь делается для поднятия позиций по ключу?

Поисковиков несколько, выдача у них разная. По нч идет трафик не только с первой, но и со второй, 3, и, иногда, даже с 4ой и пятой страниц выдачи. Если сайта нет по ключу на позициях с 1-50 ни в гугле ни в яше, значит у него нет страницы релевантной данному запросу. Следовательно, не создавая новую страницу или не переписывая старую этот НЧ продвигать не эффективно.

Так вот, допустим у вас есть большой сайт он получает трафик по нескольким тысячам НЧ запросов. Эти запросы располагаются на 1-30 позиции поиска в Гугле и Яндексе.

В теории, любой из этих запросов можно продвинуть при наших ресурсах на первое место, но все невозможно продвинуть. Нам нужно решить задачу распределения ресурсов по запросам. Причем мы не знаем какая у нас конкуренция. Одинаковые усилия могут привести к разным результатам для разных запросов.

Мы будем тратить ресурсы пропорционально числу переходов. Через некоторое время часть запросов будет двигаться хорошо, часть плохо. Мы заново перераспределим вес, опять пропорционально числу переходов в итоге слаборастующие запросы лишаться части ресурсов, а быстрорастущие получат. И так далее пока все не устаканится.

По ВЧ совсем другая картина страница может быть и на 1000 месте, поскольку 99 ее конкурентов купили ссылочки и под ВЧ рационально затачивать страницы, а не обходиться имеющимися. Да и плановый подход более приемлим. Для анализа тысяч НЧ и балансировки между ними ресурсов нужно сильно много времени, да и это сильно сложная задача для человека.

-------------------

Поскольку экономика изучает балансирование производственных ресурсов можно провести аналогию. Мой метод рыночная экономика, обычных подход - плановая. Плановая экономика во время ВОВ отлично клепала 10 моделей танков, 5 самолетов, 2 винтовки... Приемлемого качества и в огромных объемах. Но с задачей обеспечения населения 1000 видами потребительских товаров она слабо справлялась, несмотря на огромные институты планирования. Задача балансировки в этом случае через чур сложна.

crashescars:
А нельзя вес присвоить на основе данных из вордстата того же. Или семраша хотябы. Так как вес ключа это не количество переходов. А колл-во переходов зависит от позиции.

Тогда бы не было положительного обратного эффекта.

---------- Добавлено в 01:20 ---------- Предыдущее сообщение было в 01:19 ----------

Madal:
Расскажите как поставить скрипт на UMI.CMS 2 месяц бьюсь на проблемой. Кто-нибудь уже обращался? есть готовые решения.

напишите доступы мне на мыло a.v.belousoff@gmail.com

---------- Добавлено в 01:21 ---------- Предыдущее сообщение было в 01:20 ----------

x0xa, вероятно было включно gzip сжатие в ЦМС

RuslanLight:
Так я про гугл и говорю, если вбивать тот же запрос что и ваша программа (через кнопку G) то вижу что первый наиболее релевантный урл (на продукт) пропускается, а берутся зачастую 4-й 5-й УРЛы на картинку (скриншот этого продукта), по крайней мере у меня так. Но суть все таки в том что берется не первый УРЛ (самый релевантный).
Это конечно не такая критическая ошибка, но я думаю ее надо будет допилить...

Вопрос по настройке скрипта:
Стоит ли добавлять вручную ВЧ запросы, по которым нет и не было еще заходов на сайт, особенно если межды ними и НЧ, собранными самим скриптом, очень большая разница в весе (кол-ве месячных запросов)?

Вопрос в том хватит ли скрипты ресурсов на их продвижения. Большинство ВЧ без внешней прокачки ссылками не продвинешь. Лучше добавить пару СЧ, производных ВЧ. Продвигая по ним скрипт, если это возможно со временем продвинет ВЧ.

---------- Добавлено в 23:07 ---------- Предыдущее сообщение было в 23:04 ----------

И еще вопрос - как-то скрипт решает сколько линков ставить на страницу? Например есть СЧ ключи а есть НЧ. И для поднятия НЧ запроса достаточно 10ка внутренних ссылок, а СЧ поднимется только после простановки 100.

Вес ключа зависит от числа переходов по нему. По СЧ переходов больше чем по НЧ.

---------- Добавлено в 23:08 ---------- Предыдущее сообщение было в 23:07 ----------

darmoid:
Как в новом дизайне гугла аналитикса импортировать данные? Нигде не могу найти функцию для исключения "not set" 😒

используйте старый интерфейс. Хотя исключать подобные запросы не обязательно - скрипт фильтрует их при импорте.

V_G:
Простой пример. Магазин где отключается кнопка "КУПИТЬ" если товар закончился на складе. Скрипт кеширует страницу целиком, товара нет, а кнопка все равно есть, поскольку кеш.
Отключения кеша дает существенную нагрузку на сервер. (запросов в БД более 25000).
Решается эта проблема решена - в самом скрипте силами Штрейсера изменяет необходимые куски страницы и кешируем в Мемкеш.
Аналогичная ситуация будет и по форумам.

Кеш страницы пробивается при любом изменении на странице.

Чтобы уменьшить число обращений к бд поставьте быстрый разбор либо отключите титлы ссылок.

---------- Добавлено в 10:13 ---------- Предыдущее сообщение было в 10:11 ----------

Amaroid:
Подскажите пожалуйста в чём может быть проблема.
Решил первый раз воспользоваться экспортом ключей и отсеять в яндекс xml топовые ,но получаю ошибку -



(конфиг keysyn настроил как положено , IP сайта в яндекс.xml разрешил.)

на хостинге запрещена функция file_get_contents для внешних адресов. Обратитесь в суппорт хостинга.

---------- Добавлено в 10:17 ---------- Предыдущее сообщение было в 10:13 ----------

yamayki:
У меня в одну папку ведет несколько поддоменов одного сайта. Насколько я понял (а скрипт я уже купил), htracer не может обрабатывать эту ситуацию - он не запоминает хосты в страницах.

Я не смогу использовать скрипт?

Залейте несколько папок HTracer - на каждый хост по одной. И подключайте на разные хосты разные папки.

---------- Добавлено в 10:19 ---------- Предыдущее сообщение было в 10:17 ----------

а то думал у меня хороший хостинг ,так через неделю поддержка пишет мне "ваш скрипт нагружает сервера бла бла бла" , чем с ними спорить лучше пошлю их куда подальше.

Попробуйте поменять конфигурации в вкладке быстродействие.

---------- Добавлено в 10:31 ---------- Предыдущее сообщение было в 10:19 ----------

RuslanLight:
При использовании скрипта возникли некоторые трудности с добавлением (импортом) ключевиков. А именно:

1. Проверка частотности через вордстат проходит ооочень медленно. Но это не такая большая проблема и решается с помощь Google KeyWord Tool который позволяет выдать данные по 2500 кеям за раз.
Реальная же проблема получается когда после вставки слов с кол-вом запросов и запуске функции поиска релевантной страницы, обнаруживаются 2 проблемы:
2. Не всегда адекватно оценивается релевантная страница, а если быть точнее, то берется не первый из релевантных URLов, а 4-й или 5-й, что не есть гуд.
3. После 100+ кейворда, результаты релевантных страниц перестают попадать (полностью или частично) в соответствующее поле напротив кея, хотя в реальности результаты поиска релевантной страницы имеются (если совершить переход по ссылке G).
Решением 2-й и 3-й проблемы стала фришная программа PosWatcher которая определяет релевантные страницы из списка ключевиков, причем берет 1-й или 2-й релевантный URL и есть выбор в какой ПС их поверять.

Это хорошо что есть куча бесплатного софта, но хотелось бы что бы Htracer все таки выполнял качественно те функции которые в него включены. Плииииз! :)

1. Вордстат парсится действительно медленно. Если парсить его быстрее в несколько потоков, то яша быстро банит. Добавлю кевродтул

2. страница оценивается по гуглу, поскольку парсить его в разы проще и он шустрее Яши индексирует.

3. да гугл в последнее время начал затраты свои урезать и его апи теперь обладают жесткими лимитами.

crashescars:
"Сообщение от crashescars Посмотреть сообщение
Привет всем.
Подскажите делает ли такое скрипт. Опишу как ранее делали перелинковку - руками:
1. Выбирали руками ключи из аналитики и подбирали те что еще хотели бы поднять в поиске.
2. Затем анализировали ключи и каждому присваивали вес.
3. Затем анализировали в гугле какие страницы релевантны ключу.
4. Потом ставили ссылки на самую релевантную страницу по гуглу с менее релевантных страницах.
5. Количество ссылок проставляемых регулировали в зависимости от веса из пункта 2.
6. Ссылки проставлялись и закреплялись по мере посещения посетителями страниц.

Эту работу раз в полгода повторяли.
Делает ли это ваш скрипт все, и есть ли еще какие тонкости кроме ускорения работы и автоматизации, из-за чего стоит купить скрипт а не мучатся с сетью вручную?
Спасибо большое за ответ"

А все таки точнее на мой вопрос. Делает тоже скрипт или нет? Напомни вы ответили примерно. В чем тогда его отличие?

Скрипт работает так:

1. При переходе в скрипт запоминает ключ. Также есть возможность импортировать из аналитикса или вручную добавить ключи.

2,3. Если ключ удовлетворяет критериям (нет матов, системных запросов), то он добавляется как полноценный. Если не удовлетворяет, то вы он появляется только в админке, с выключенной галочкой СЯ, которую можно включить. Вы можете включать и выключать ключи. Также вы можете настроить фильтры, например, фильтровать запросы со словами бесплатно кряк и прочее.

4. Ссылки ставятся без учета релевантности страницы-донора запросу. Поскольку поисковики учитывают релевантность донора, чтобы бороться с ссылочным непотизмом, а о ссылочном непотизме внутренних ссылок говорить как-то глупо. Один из основных факторов, которые оптимизирует скрипт -- распределение веса по сайту. Основные посадочные страницы получают больше веса, если выбирать релевантные страницы-доноры, то этот эффект смазывается.

5. Ссылки и прочие методы учитывают вес запроса и/или вес страницы.

6. Этот пункт не понял.

Всего: 2639