justuser

Рейтинг
116
Регистрация
15.11.2011

На счет conti-group.ru - есть еще кто-нибудь, кто считает, что ресурс, кол-во исходящих с которого в 10 раз больше колва входящих, можно считать "белым"?

У меня вопрос про buypost Попробовал там зарегиться - регистрация не работает, попробовал отправить запрос в тп - циклично ругается на якобы неверный код авторизации. Посетителей 22 в день. Buypost скоре жив или наоборот?😡

Приму несколько статей строительной тематики с 1 ссылкой на сайты схожей тематики,

лучше о весовом оборудовании, бетоне, бетонных заводах на

http://scales-nn.ru

Пишите на мыло, указанное на сайте

Я вообще в шоке от Яндекса. Недавно всю страницу поиска переделали, теперь не видно регион, сложнее перемещаться между сервисами, все время навязывается индивидуальный поиск, настройки плохо сохраняются. Сегодня вообще похоже все мои сайты пропали из серпа - в xml-выдаче все как обычно, а в обычной выдаче без указания региона - какая-то хрень - смесь из разных регионов, при этом индивидуальный поиск отключен. Мне теперь для поиска в своем регионе надо все время его принудительно указывать?

Рискну задать наивный вопрос: а как распознать, что мой коммерческий сайт попал под это дело?

Есть ли такая вероятность, если в индексе 750 стр, из них 60 - статьи ? Добавляю в неделю по 1-2 статьи, товары практически не меняются, разве что немного цены и описание услуг периодически редактируется

Бьюсь уже пару месяцев над ним - вылетел из топа после того, как владелец прошелся по метатегам и конкретно заспамил все внутренние страницы.. Почистил, потом и анкор лист анализировал, и прополол и окучил и удобрил - не растет и все..

Может не очень понятно выразился, адрес http://site.ru/?option=com_xmap&view=html&id=0

изначально выглядел так: http://site.ru/index.php?option=com_xmap&view=html&id=0

Конечно, в роботсе я эту дрянь закрою, но все-таки интересно как сделать редирект..

Джумла, мать ее..

Почему одни и те же конструкции в htaccess работают на одном сервере и не работают на другом?

От оси и конфигурации зависит?

xml-карта, конечно, есть, всем спасибо, сделаю сквозную и закрою на всех кроме главной

Приветствую За полгода (примерно) использования программа несколько раз выручала, немного помогла вывести в топ тот большой сайт, ради которого покупалась, хоть до сих пор не может его осилить.. Программа по-прежнему загибается на больших сайтах Насколько я понял, пока не введена функция остановки парсинга в нужный момент, чтобы сохранить хотя бы то, что она успела собрать до падения. PageWeight Online прекрасно справляется с этой задачей, но функционал там урезан по старнению со стац. версией 8.7 У меня простая задача - создать карту сайта Ссылок на сайте много, страниц всего тысяч 8, но программа вылетает на 390й странице Онлайн версия выдала список из почти 8 тыс строчек, но при этом сохранить карту сайта не предлагает. При экспорте в *.csv опять грабли - из своей стац. версии я могу импортировать только xml или текст, причем текст обрезается (порядка 390 урлов входит), но и после импорта я с этим ничего не могу сделать - программа пишет "Нет данных" Т. о., sitemap я создаю с пом Excel (добавляя перед и после урлов нужный текст), веса назначаю пропорционально рассчитаному весу Все это несколько неудобно, хотя деньги, заплаченные за онлайн, конечно, в определенной степени отбиваются даже и при таком подходе.. Кстати, так и не понял, почему меня еще после парсинга попросили доплатить и предложили провести операцию еще раз.. Этот второй раз будет стоить столько же?

Доброго времени суток Первый раз в жизни заплатил за софт свои кровные с твердым убеждением, что в бизнес надо вкладывать) Парсинг одного сайта загнулся после сканирования пяти с чем-то тысяч страниц, поэтому надеюсь на развитие вашей софтины С другим сайтом такая картина - 439 страниц пробежал, сохраняю отчет в *.csv - тут, во-первых, обнаружился небольшой глючок - тайтлы с амперсандами (" у меня там в неск-х местах) вместо того, чтобы уместиться в свой столбец "Заголовок" залезли на соседние столбцы (sapienti sat), но это ерунда Объясните чайнику - что я делаю не так - более трехсот ссылок записана в "битые", хотя ни вебмастер ни ксену линкс ни ручные проверки не выявляют битые ссылки и что значит "Исключение во время запроса WebClient"? Т е сервер просто не дал нагло парсить все страницы? Почему программа нашла на сайте всего 9 нормальных страниц и присвоила им одинаковый условный вес?

Использую версию 1.7.9, Опции по умолчанию Все внутренние ссылки относителные, т к сайт имеет 2 адреса, со склейкой все в порядке, основной хост присвоен

Всего: 159