У них там "Красная жара" от претензий.
Никто не ответит никому и ничего 100%
Мне уже пох...
заливаю бэкапы недельной давности на новый хост. Объем большой медленно движется...
Заработает - скачаю свежий бэкап. Не заработает - ну и хрен с ними со всеми.
В любом разе на макхост или как там он по-новому называться будет - уже не вернусь.
Да иск отправлю на возврат уплаченных средств на кипер.
Да нет, где то мелькало, что по договору переуступки прав требования или исполнения передали ... итд итп.
А макхост судя по всему этой переуступки не признает, поэтому орут что третьей стороной, с которой мы дескать дел не имели...
Мое глубокое ИМХО - виноват макхост во всем. Он с нами отношения имеет, и нефиг кивать куда бы то ни было. Разруливать должен макхост. И он же должен был заботиться о сохранности и доступности данных в пользовательских аккаунтах. И он должен нести ответственность за несохранность оных и невозможность предоставить к ним доступ пользователей.
Да, присоединяюсь к просьбе
Подскажите пожалуйста, как можно подключиться по ftp если был на вирт. хостинге?
Контент - юзеры постят. Конечно постят на разные сайты одни и те же новости.
Но я могу целую кучу сайтов показать работающих по тому же принципу у которых все ок с посещалкой.
Если бы большинство подобных сайтов просело... но большинство проседать и не думает...
Да ссылку что светить... могу приватно отправить.
Я просто не знаю с чем связано. Началось все со взлома сайта.
Вроде вычистил всю дрянь...
Потом появлялся код несколько раз. Все вычищал, двиг обновлял. Позакрывал сейчас фтп на свой айпи.
в общем хз...
Трафа с яндекса было на треть примерно больше.
Потом сравнялся с гуглом, то есть понизился. Теперь идет понижение и яши и гугла...
Нет ни порнухи, ни рекламы казино ни прочей ерунды.
Ссылки сапе стоят, но их штук 300 всего, а страниц (новостей) более 17 000
в яндексе показывает страниц в индексе 66к
Информация о сайте
ТИЦ 30
Страниц в поиске 66132
Внешних ссылок на страницы сайта 5177
Время последнего посещения сайта роботом 11.01.2010
Извиняюсь, но ерунда это все.
Какие дубли страниц создает облако тегов?
Облако тегов собирает страницу из кратких новостей по определенному критерию. То есть собранная таким макаром страница, в том самом виде, более нигде не встречается на сайте.
Если любую из этих новостей щелкнуть, то откроется полная новость, у которой свой неизменный адрес, например http://сайт.ru/68547-oar-rain-or-shine-2010.html
Никаких дублей.
Ну вот смотрите.
Тут дело даже не в уникальности, потому как по уникальности оба варианта будут равны, при равных исходных данных (статьях)
Тут вопрос - лучше чтобы каждый раз поисковик видел новый текст, или чтобы он видел один и тот же.
Бот будет воспринимать это как обновления страниц или наоборот сочтет попыткой ввести в заблуждение ПС
(Это просто вопрос касаемо мнения, и логики а не конкретно поведения яши. ...знал бы прикуп, жил бы в сочи, одним словом)
Я немного изначально неправильно выразился.
Сейчас вилка - направо пойти иль налево.
Допустим я закажу 20 статей, размножу и поставлю статично на каждую страницу по варианту.
Второй - динамичный вариант - тоже самое. Я спокойно смогу размножить каждую статью, но не целиком, а по предложению. И получится рандомный вывод статьи, одной из 20. А затем при выводе уже выбранной статьи, она еще собирается по предложению. Каждое предложение - более 100 вариантов.
Понимаете.
ТО есть не надо рассматривать одну статью. Я их могу сделать что в первом варианте, что во втором столько - сколько надо. Точнее на сколько смогу потянуть.
Тут вопрос чисто прикладной.
Пусть 20 уникальных разных статей, размножены на 30 000 вариантов, допустим, и статично закреплены.
Или те же самые 20 статей, размножить по предложению, и собирать из предложений. вот она делема
PS То есть проблема не в том что одна единственная статья на 30 000 стр. Нет. Можно их сделать много, уникальных и каждую размножить, как для первого так и для второго варианта.
Вопрос - какой вариант лучше выбрать.
PPS А если еще точнее, то по большому счету какая разница - эта же собранная статья закрепленная статично. Или каждый раз будет собираться при загрузке.
Вопрос в мерцании этих предложений. Даже если принять, что повторов не будет предложений, то лучше статичную, или каждый раз поисковик будет видеть новый текст на странице.
Да, лучше наверное будет рандомно оставить что-нить типа маленькой обзорной инструкции, а остальные целыми статьями. Блин но это проблематично будет... много страниц, тыс 30 примерно.
Это сколько места надо будет... гиг наверное займет... там еще картинки кэшируются, уже 700 мб есть... это без учета затрат на статьи. На такое количество сколько лучше написать уникальных, чтобы каждую потом размножить и воткнуть?
Чем больше - тем лучше, это понятно, но по минимуму? Штук 20 думаю пойдет. Только шаблоны надо делать с изменением структуры предложений, а только потом набивать синонимы. На 9слов шингл и 5% схожести.