- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Раз в неделю стабильно прогоняю, не первый год в сапе :) . ПОсле апа бывает, но здесь что-то уж очень сильное. 90% вылетело?
возможно глюк плагина, кто-жаловался на него на саповском форуме. попробуйте его переустановить/обновить.
проще всего проверить пару-тройку или десяток страниц ручками. если они будут вне индекса, то это не глюк
возможно глюк плагина, кто-жаловался на него на саповском форуме. попробуйте его переустановить/обновить.
проще всего проверить пару-тройку или десяток страниц ручками. если они будут вне индекса, то это не глюк
В том-то и дело, что проверил десяток-другой вручную, они действительно все вылетели из Яндекса. Никто подобного не наблюдает?
Обычно из 200 ссылок в ГБЛ отправляю 50, сегодня же около 150...
В том-то и дело, что проверил десяток-другой вручную, они действительно все вылетели из Яндекса. Никто подобного не наблюдает?
Обычно из 200 ссылок в ГБЛ отправляю 50, сегодня же около 150...
сейчас проверил свио ссылки, из 300 примерно 60 похоже в бане, но это два сквозняка, поэтому это вполне ожидаемо
Теоретики млин.
Никто не удосужился посмотреть плагин? Там интересная галочка в настройках стоит - "Оповещать сапу о неверных данных".
Сапе нужно лишь корректно обрабатывать поступающие данные, а десятки тысяч халявных ИП даём мы, что-либо проверяющие.
Теоретики млин.
Никто не удосужился посмотреть плагин? Там интересная галочка в настройках стоит - "Оповещать сапу о неверных данных".
Сапе нужно лишь корректно обрабатывать поступающие данные, а десятки тысяч халявных ИП даём мы, что-либо проверяющие.
тоже вариант, но что мне помешает поковырятся в этом плагине и отослать "левые" данные о сайтах конкурентах в моей ценовой нише. пока будут разбираться что да как, я буду снимать сливки от вала заявок.
на мой взгляд, проверку делать лучше силами сапы.
хотя, учитвая какое количество сайтов висят с пометкой "в Яндексе 0 страниц", похоже плагин все-таки используется сапой.
вопрос не только в том, чтобы проверить, а в том чтобы сапа не размещала ссылки на сайтах, у которых в индексе 0. она тем временем упорно туда пихает ссылки, несмотря ни на какие фильтры (((
тоже вариант, но что мне помешает поковырятся в этом плагине и отослать "левые" данные о сайтах конкурентах в моей ценовой нише.
Сильно сомневаюсь, что одной проверки от вас им будет достаточно.
Рекомендую прогнать плагином УЖЕ купленные ссылки
После каждого апа железно есть десяток-другой выпавших страничек :)
P.S. Хотя и не факт, что они уже не вернутся в индекс.
тоже вариант, но что мне помешает поковырятся в этом плагине и отослать "левые" данные о сайтах конкурентах в моей ценовой нише. пока будут разбираться что да как, я буду снимать сливки от вала заявок.
на мой взгляд, проверку делать лучше силами сапы.
Ваш взгляд - взгляд дилетанта, если не сказать жёстче, размечтался, вот прямо так - получила сапа данные, и давай бегом в БД значения менять...
Знакомы с системами удалённых расчётов? Ну там лекарство от рака ищут и т.д.? На миллион компов юзеров отправляется 330К частей одного задания. Т.е. каждая часть отсылается трём разным людям. И при получении результатов обработки доверяют только тем, которые одинаковы у всех трёх.
Ну как-то так, примерно, важна суть. :)
Может и одной хватить, если это данные с акаунта Евгена, и пр. серьёзных товарищей.
den78ru добавил 21.06.2009 в 11:27
Что-то сапа пару дней работает исправно...
Вношу предложение, которое, в случае одобрения идеи и принятия к исполнению, подвесят её капитально. :)
Практически все покупают ссылки по достаточно широкой линейке фильтров. Сейчас что бы хоть как-то контролировать ситуацию приходится заводить кучу урлов, отдельный под каждый фильтр. Это чтоб хоть как-то контролировать, допустим, купленные по фильтру "ВС до 5 ПР от2 тиц от 50", и выделить их из одщей кучи.
А куда удобней было бы вверху страницы сделать, наподобие того, как на странице в подверждением/отклонением повышений цен, возможность отбирать из одщей кучи только те ссылки, которые куплены по определённому фильтру.
Допустим на морду покупалось по 5-и фильтрам, значит, и возможностей сортировки, тоже, должно быть 5. Отсортировал - и сразу видно, кто вылез из заданных параметров, у кого ПР или ТИЦ упали, ВС больше стало и т.д. Крайне удобно, но системе придётся хранить и удалённые с интерфейса фильтры, по которым когда-то шла закупка, и ещё стоят ссылки.
Вот, кто за?
потерто...извините, вопрос решен
Допустим на морду покупалось по 5-и фильтрам, значит, и возможностей сортировки, тоже, должно быть 5. Отсортировал - и сразу видно, кто вылез из заданных параметров, у кого ПР или ТИЦ упали, ВС больше стало и т.д. Крайне удобно, но системе придётся хранить и удалённые с интерфейса фильтры, по которым когда-то шла закупка, и ещё стоят ссылки.
Вот, кто за?
Я за нормальную и стабильную работу базовых функций, а остальное лучше делать самому или с помощью внешних сервисов.