- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
MyOST, прошу прощения :) Я подумал что нужно убрать с кейколлектора :-) Уже все убрал.
очень хотелось бы что бы появился анаогичный функционал под Google
и да, не могу найти в теме как сортировать полученные фразы по количеству слов в фразе? в переменных не силен но где-то видел в ветке - не могу найти
Можно отфильтровать.
/ru/forum/comment/9332669
MIND добавил 19.09.2011 в 21:05
добрый день
как в "съем позиций" сделать так чтобы слова не по алфавиту были, а в том порядке в котором они у меня?
Если сортировка по полю "Фраза" не стоит, то никак. Слова добавляются в контексте одной транзакции :(. Если слова добавлялись в разное время (в процессе сбора или за несколько приемов), то можно воспользоваться сортировкой по полю "Дата добавления".
интересует следующий момент: при парсинге частотности "!" программа всегда самостоятельно приостанавливает парсинг, при этом процент прочеканных значений колеблется от 1 до 100%
к примеру, сегодня спарсил 25000 слов, поставил их на проверку "!" До того момента как проверилась первая 1000, парсинг заданной частотности отключался порядка 8-ми раз
с чем это может быть связано?
*********а подключена, коннект стабильный
с чем это может быть связано?
с дисконектом со стороны вордстата. Увеличивайте число повторных попыток
Что то не могу разобраться. На вкладке "релевантные страницы" у меня список ключей. Я определяю для них релевантные страницы, копирую это все на вкладку "Съем позиций" и хочу собственно эти позиции снять. Получается, что мне надо вверху указать URL/ После этого прога заново начинает определять релевантные страницы и снимать позиции.
Плюс, получается, что я не могу никак откорректировать урлы, чтобы снять позиции с нужных мне страниц. Очень неудобно. Имхо.
Получается, что мне надо вверху указать URL/ После этого прога заново начинает определять релевантные страницы и снимать позиции.
эти 2 вкладки сейчас между собой не связаны, при этом релевантная и та которая находится в поиске на каком-либо месте - могут быть разными страницами.
Мы знаем о этом неудобстве, нам поступило несколько предложений по взаимодействию этих вкладок, решаем :)
1. поймал себя на мысли, что в программе нельзя вычесть из одного списка ключевых слов другой. Например, есть список ключей в базе (1000 шт.) и есть 100 других ключей, которые необходимо удалить из базы/отметить в базе. Функционал стоп-слов под это не подходит.
2. Наверное ранее уже задавали этот вопрос, но т.к. история программы большая, то я не нашел. Какой смысл разделять программу на 3 окна (ключевые слова, релевантные страницы, позиции)?
Мне, наоборот, было бы удобно видеть ключевое слово, какие-то параметры его (частота итд), позицию в нужной ПС и релевантную страницу на одной вкладке, а не на нескольких. Из-за этого приходится собирать все данные, экспортировать в эксель и уже в нем объединять вкладки и дорабатывать проект.
3. будет замечательно, если кроме обычного добавления ключей можно будет добавлять ключи с данными по колонкам. Т.е. некий импорт ключей с остальными данными.
4. ливинтернет сейчас парсится со страницы "по поисковым фразам". А если парсить "экспресс-аудит", то можно ключи фильтровать по поисковым системам и региону. Этот функионал есть в traffic web. Вот бы его и в коллекторе реализовать!
Писал в аську, но решил раскрыть мысль тут, было не плохо сделать, сделать плагины для внутр. оптимизации, а именно перелинковки известных движков WP, DLE, Drupal.
Смысл какой, порой сделал семант. ядро, а теперь хочешь сделать перелинковку на сайте, в ручную очень долго, то что есть не отвечает требования, да и порой развивают плагины как-то не в то сторону, а здесь мы знаем, что Александр проф. в области внутр. оптимизации, а значит ф-ционал плагинов был бы всегда на высоте, плагин может платный, при чем который будет связан с программой.
И так, как работает плагина.
1) В поле плагина вбивается список запросов с кодами ссылок на внутр. страницы сайта.
После чего выставляются параметры:
- точность вхождения;
- неточность вхождения (другой род и падеж)
- страницы не ссылались друг на друга (т.е. что бы не было перекрестных ссылок)
- сколько раз повторять на странице;
- сколько раз повторять на всем сайте;
2) Далее идет нажатие кнопки "Найти"
3) Результат работы выводится в виде таблицы результат работы модуля, где видно, для какой целевой страницы на каких странцах-донорах были найдены места «простановки ссылок» и рядом возможно отредактировать / удалить / подтверить
Ф-ционал для всех движков может быть одинаковый, понятно дело, что реализация будет разная. Думаю продажи программы выросли, да и доп. заработок был бы с плагинов.
Думаю, желающих на такие плагины для разных движков было бы очень много.
Поддерживаю russ25, здравая мысль, хоть и не нова (есть у Хортицы скриптик работающий по этому алгоритму), но неплохо было бы такое реализовать, думаю не составит никакого труда с имеющимися наработками.
+ я вчера отсылал проект "сломанный" на myonlinestudio@ya.ru, хотелось бы узнать есть ли решение или можно заново начинать парс.
3) Результат работы выводится в виде таблицы результат работы модуля, где видно, для какой целевой страницы на каких странцах-донорах были найдены места «простановки ссылок» и рядом возможно отредактировать / удалить / подтверить
ориентировочно в начале октября будет реализовано на основе http://seom.info/2011/06/29/seo-prodvizhenie-saita/ - будем выдавать рекомендации по оптимизации
MIZER, рассмотрим.
Какой смысл разделять программу на 3 окна (ключевые слова, релевантные страницы, позиции)?
задачи разные.
К примеру определить позиции и оттуда взять релевантную - а если запрос не в топ 100? то сколько это запросов к яндексу на 1 слово?
Правильно - много, поэтому релевантные проще - 1 запрос и есть страница.
Ну и еще 1 важный момент, не забываем, что все в 1й куче - это большая нагрузка на компы, лучше разделять. Т.К. мы пока не идеальны в плане нагрузки, работаем над этим.
+ я вчера отсылал проект "сломанный" на myonlinestudio@ya.ru, хотелось бы узнать есть ли решение или можно заново начинать парс.
не обработан еще, хотя можете продублировать в личку емайл, т.к. у меня 2 письма с проектами есть на сегодняшнюю отработку, не уверен что Ваше тамже (просто для уверенности в личку инфу по письму)