- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Проиндексировано страниц системой: 25, - очень сложно сделать вывод ссылок моих страниц в "механическом" виде с возможностью закрыть компанию с ручным выбором настоящих страниц.
А то совок получается!
Sitemap.txt к примеру, с пакетным вводом. Ну нет у меня таких ссылок на сайте, ёпрст!!!😡 😡 😡 😡 😡
И кнопу к вашему "ПАУЧАРЧЕГУ" чтобы не искал новья, не ползал по моёму сайту. Пользователям проще самим будет внести новый список страниц если появятся!, а паучок пусть проверяет.☝
ну что вы все такие нервные. Одни жалобы. сказали же паук скоро будет. Никто ведь вас не заставляет участвовать.
Да, нет.. меня как раз все устраивает.. как только все наладится, цены вырастут, будьте уверены...
Sitemap.txt к примеру, с пакетным вводом. Ну нет у меня таких ссылок на сайте, ёпрст!!!😡 😡 😡 😡 😡
И кнопу к вашему "ПАУЧАРЧЕГУ" чтобы не искал новья, не ползал по моёму сайту. Пользователям проще самим будет внести новый список страниц если появятся!, а паучок пусть проверяет.☝
Зря тему спалили 😆
Яндекс уже патентует. 😆
Ну не метод это для многостраничных динамических сайтов с ежедневным прибавлением в сотни страниц.
Да, страницы с левым адресом после доменной зоны уже порядком поднадоели. Нужен или предварительный фильтр для их запрещения, в новой рекламной кампании, или способ для массового удаления, в кампаниях уже работающих.
Я, в общем-то, на них забил - но только лишь в надежде, что в недалеком будущем эту проблему можно будет быстро решить на автомате. ;) Зонк, инфа к размышлению. Эту функцию надо реализовывать.
Одна ссылка разместилась тут: www.roman-glory.com/index.php?s=hbvcrbt+bvgthfnjhs
зашибись, да?
Я уже который день наблюдаю за индексированием страниц моего сайта - www.roman-glory.com. Сайт состоит из 130 страниц, еженедельно количество страниц увеличивается на 2-4. Но при этом системой проиндексировано 781 (!!!) страница. Все "фантомные" страницы двух категорий:
а) старые, уже не существующие страницы, которые были на сайте пол года - год назад (типа http://www.roman-glory.com/02_01_01.html)
б) вообще непонятные страницы (типа http://www.roman-glory.com/MSOffice/cltreq.asp?UL=1&ACT=4&BUILD=5606&STRMVER=4&CAPREQ=0 - откуда это?! )
Причем, 650 "фантомов" дают ежемесячной заработок в 2 тыс. ксапов, а остальные 130 реальных страниц - 20 тыс. Сначала пытался удалять их, но новый сервер меня постоянно возвращает на исходные рубежи :)
б) вообще непонятные страницы (типа http://www.roman-glory.com/MSOffice/cltreq.asp?UL=1&ACT=4&BUILD=5606&STRMVER=4&CAPREQ=0 - откуда это?! )
"Это" в самом деле непонятно откуда - но я думаю, если вы покопаетесь, то сами разберетесь - по аналогии с той страницей, которой на вашем сайте удивлялся предыдущий оратор. А она, эта страница, запросто генерируется любым зашедшим на сайт посетителем. Для этого ему достаточно набрать в поле поиска что-нибудь, нажать кнопочку - и оп-ля, новая страница готова. Вместо того, чтобы удалять вручную эти левые страницы из ксапа, придумайте, как отключить вызов кода ксапа на странице результатов поиска.
"..............удалять вручную эти левые страницы из ксапа, придумайте, как отключить вызов кода ксапа на странице результатов поиска.
Это точно забота не владельца.
"Это" в самом деле непонятно откуда - но я думаю, если вы покопаетесь, то сами разберетесь - по аналогии с той страницей, которой на вашем сайте удивлялся предыдущий оратор. А она, эта страница, запросто генерируется любым зашедшим на сайт посетителем. Для этого ему достаточно набрать в поле поиска что-нибудь, нажать кнопочку - и оп-ля, новая страница готова.
Страницу типа /MSOffice/cltreq.asp?UL=1&ACT=4&BUILD=5606&STRMVER=4&CAPREQ= сгенерирована не поиском, т.к. поисковые страиц имеют вполне определенный вид - http://www.roman-glory.com/index.php?s=%E0%F2%F2%E8%FF и подобных страниц относительно немного. Судя по части кода вроде /MSOffice/cltreq.asp? она вообще сгенерирована непонятно как.
Я-то подумаю, но не факт, что решение проблемы будет найдено. И, по большому счету, это должно быть головной болью создателей системы, а не моей.
Что не понятное с ценами.. Стоят ссылки с ПР0 тИЦ 100 за 7.5 кспов , аТИЦ 1500 за 8 ксапов, далее тИЦ 750 за 6.5 кспаов...
Кто не будеь может мне разъяснить откуда такие цены непонятные?
Или там стоимость ссылок определяет рандом?
И присоединюясь к выше уже сказанному.. нужно срочняк реализовать массовое удаление ссылок.