- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Почему стало собираться очень мало беков??? не больше 30шт???
Даже на яндекс 22 бека всего получила прога. Источники стоят все.
Что то вы там намудрили разработчики язла??
Beton добавил 30.10.2011 в 01:29
Почему стало собираться очень мало беков??? не больше 30шт???
Даже на яндекс 22 бека всего получила прога. Источники стоят все.
Что то вы там намудрили разработчики язла??
все разобрался.
с конфиг файлами проблема была 🤣
Здравствуйте, подскажите как удалять ссылки сапы через язл? Программа нашла непроиндексированные ссылки, я их выделил, нажал "удалить", подтвердил удаление, при этом не из списка программы, ни из sape ссылки не удалились, что я делаю неправильно?
RUPak, я написал вам на почту.. продублирую сообщение сюда:
Что бы иметь возможность удалять ссылки из сапы, необходимо, что бы ваш аккаунт имел доступ к расширенному API SAPE. Для этого вам необходимо тратить в SAPE больше 1500 рублей в месяц. В противном случае удаление ссылок, добавление их в BL и GBL не возможно.
Создание карты сайта, постоянно пишет не может загрузить robot.txt а если не пишет, то ей пофиг на него!
Приведите пример сайта, с которого программе не удается загрузить robots.txt, а если и удается то игнорируется.
Проверяю на http://www.yazzle.ru/ robots.txt получается и обрабатывается корректно.
А что слышно с анализом беков по яху?
karlsone, а что должно быть слышно? В CS Yazzle все работает.. берем данные из основной выдачи, а не по API как когда-то.
Вот уже на протяжении недели неправильно определяется PR. Все значения - 0. В чем может быть проблема?
Извиняюсь, если вопрос уже был, но я гуглил :)
cocoNut, попробуйте обновить программу. Google немного изменил формат запроса для получения PR, и мы вынуждены были принять меры и выложить исправленную версию. Но поскольку релиз версии 4.10.1.3020 был в тот же день, тремя часами ранее, было принято решение не увеличивать версию.
У нас обновление:)
Версия 4.10.2.3030 от 22.11.2011
1. Добавлена поддержка интернациональных доменов во все инструменты и основной анализ.
2. Добавлен новый источник обратных ссылок goo.jp - единственный поисковик, который работает с интернациональными доменами.
3. Добавлена поддержка регионов Google в мастер очереди заданий.
4. Для увеличения стабильности инструмента Яндекс.Вебмастер, в случае, если не удается загрузить файл со ссылками, будет произведено до 5 попыток скачать этот файл.
5. В инструмент «Проверка обратных ссылок» добавлена возможность проверять количество страниц донора в индексе заданной поисковой системы.
6. Пробивка по кешу при работе с Яндексом (Яндекс, Яндекс.XML) вынесена в виде опции, по умолчанию опция включена.
7. Исправлены ошибки:
- в инструменте «Оценка конкурентности запросов»:
- исправлено появление ошибки при выборе региона для Google;
- инструмент «Проиндексированные страницы» теперь работает корректно.
Не забудьте обновить программу!