- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Добавилось 5 партнеров и у все ихние статьи отображаютса крякозябриками.........где копать?:(
стукните в аську. глянем.
кодировку не ту поставили
Сижу и размышляю на вашу тему. Не хотите поучаствовать?
Давайте начнем вот с чего. Вы хотите иметь на своем сайте статьи типа
http://kismedia.ru/kismedia/bloknot_dlia_hudognika
добиться этого можно с помощью htaccess. Это ясно.
Но ведь в момент размещения файла htaccess вы не будете знать сколько партнеров у вас будет завтра, а значит не будете знать какие статьи будут размещаться у вас. Ну, например.
Сегодня у вас на сайте одна статья
http://kismedia.ru/kismedia/bloknot_dlia_hudognika
а завтра появляется еще одна
http://kismedia.ru/kismedia/kakayato_eshe_statya
Второй момент. Как вести учет таких адресов в системе? Что делать с теми у кого просто php код стоит?
Вот насчет как вести учет не знаю, на Сапе .htaccess является обязательным условием шаблона.
у нас необязательно htaccess и то народ воет как сложно код ставить.
Большая половина даже не пробовала его поставить... Усложнения в установке кода недопустимы.
у нас необязательно htaccess и то народ воет как сложно код ставить.
Большая половина даже не пробовала его поставить... Усложнения в установке кода недопустимы.
Тогда нужно дорабатывать ядро сбора статистики.
В базе на каждого пользователя будет указан тип ссылок ,шаблон ,который он использует и система будет производить проверку ссылок в соответствии этого шаблона.
Просто, как мне кажется, сегодняшний тип вывода статей ,допустим Яндексу, легко определить ,так же как продажные ссылки Сапы и не включать в индексацию, игнорировать.
Тогда нужно дорабатывать ядро сбора статистики.
В базе на каждого пользователя будет указан тип ссылок ,шаблон ,который он использует и система будет производить проверку ссылок в соответствии этого шаблона.
Просто, как мне кажется, сегодняшний тип вывода статей ,допустим Яндексу, легко определить ,так же как продажные ссылки Сапы и не включать в индексацию, игнорировать.
Понимаете, от яндекса не спрячешься все равно. Ведь смотрите. Самый простой способ отловить "продажную ссылку" для яндекса - это путем выборки сетей, которые их размещают. Вычислить все сайты сапы - не есть проблема. То же самое и здесь.
Можно хоть как усиливать выдачу ссылок и статей, менять адреса, придавая им логический смысл, однако от сети вы все равно не уйдете, т.к. ваш сайт будет с этой сети.
По поводу политики поискового робота. Не учитывать совсем такие ссылки просто нельзя. При наличии нормального контента их будут учитывать, но просто вес их будет чуть ниже, чем с непродажных сайтов.
Думаю так.
Понимаете, от яндекса не спрячешься все равно. Ведь смотрите. Самый простой способ отловить "продажную ссылку" для яндекса - это путем выборки сетей, которые их размещают. Вычислить все сайты сапы - не есть проблема. То же самое и здесь.
Можно хоть как усиливать выдачу ссылок и статей, менять адреса, придавая им логический смысл, однако от сети вы все равно не уйдете, т.к. ваш сайт будет с этой сети.
По поводу политики поискового робота. Не учитывать совсем такие ссылки просто нельзя. При наличии нормального контента их будут учитывать, но просто вес их будет чуть ниже, чем с непродажных сайтов.
Думаю так.
Ну вообще да, согласен, при желании все можно вычислить.
Посмотрим какой эффект будет от обмена, главное что бы не отрицательный.
Такой еще вопрос.
У меня сейчас rabotaet.com показывает:
Партнеры, у которых моя статья проиндексирована Яндексом: 3
Но я не вижку никаких внешних ссылок (этих ссылающихся сайтов) в панели http://webmaster.yandex.ru
Ну вообще да, согласен, при желании все можно вычислить.
Посмотрим какой эффект будет от обмена, главное что бы не отрицательный.
Такой еще вопрос.
У меня сейчас rabotaet.com показывает:
Партнеры, у которых моя статья проиндексирована Яндексом: 3
Но я не вижку никаких внешних ссылок (этих ссылающихся сайтов) в панели http://webmaster.yandex.ru
Значит они удалили код со своего сайта. Значит можно разрывать с ними партнерство и заносить их в черный список. Робот проверок, конечно, что-то там делаем, проверяет сайты на предмет установки ссылок, но я лично часто отлавливаю левые сайты, которые удаляют код вообще. Возможно просто они недавно его удалили... ну короче надо следить за ними.
И так я пирнимаю участие в системе, первое впечатление - довольно пристойно для старта. Также сразу оговорюсь, я в системе без году неделя, на данный момент обменялся с 31 сайтом и 10 уже в чёрном списке а это треть.
С этим десятком дела так обстоят 1-2 сайта кодировка, 2-3 robots.txt (закрыто от ботов), 5 - вообще выдаёт от 404 до какой-то 905(внутренней) ошибки вместо контента.
На данный момент в очереди стоит 217 сайтов. Хотелось бы конечно больше сайтов для людей а не куски чего-то для кого-то.
Вообщем за систему респект!
По поводу сайтов с 404. робот чистит. наверное, еще руками возобновим.