specialist-seo

Рейтинг
116
Регистрация
02.02.2009

Действительно, романтик )). Блоги эффективно продвигать не только через поисковики )).

Если переводить, то лучше уж MODx использовать, там есть функция импорта из html. Движок более проработанный и с гораздо большим функционалом, чем Rumba.

И на том и на другом движке делал импорт html. Rumba еще не доработана.

Ну не сказал бы что плевое дело, если за такую сумму мастера найдутся, мне тоже в личку портфолио покажите.

A.Pulyavin:
Если у Вас там сетка, то ляжете все

😡 а если это сетка СДЛ? :)

Holdwinner, grayn

Мне кажется, или ссылки на примеры разместил первый, а аватарка на майле схожа со вторым?

Про работу, что вижу, то и пишу. Мне потом после ваших установок с заказчиками кашу разбирать, да ну его. Я лучше сразу напишу как есть.

Если это СДЛ, если это качественная установка, примеры и отзывы. Если это фигня, которую я вижу, то не обижайтесь.

Уж лучше Get-simple тогда, она хоть меньше тормозит, чем template cms

DRESSCODEVIP.RU

created: 2010.03.16

В Яндексе - 23 страницы, в Гугле 26, из них часть страниц - страницы поиска

Это точно СДЛ? Или все же обычный сателлит.

Скриптов готовых не знаю, но алгоритм уже был описан

Нужен веб сервис (парсер), основной функцией которого является определение, по введенному URL, участия сайта в биржах ссылок рунета и покупка на нём ссылок на другой сайт. Предполагаю, что реализовать это можно создав универсальный парсер, который будет работать через веб интерфейс бирж, эмитируя работу оптимизатора (рекламодателя).

Этот парсер создаст и будет периодически обновлять для каждой биржи базу данных - название биржи, URL сайта, продающего ссылки и ID этого сайта в этой бирже. Затем URL анализируемого сайта проверяем по нашей базе данных и находим название биржи и ID сайта на этой бирже.

Т.е. если нашли, то опять же через веб интерфейс бирж, в режиме оптимизатора (рекламодателя), покупаем ссылки на нужном сайте - по ID площадки. Веб сервис должен быть много-поточным, работающим одновременно с несколькими аккаунтами оптимизатора на анализируемых биржах.

Решение должно иметь перебор Proxy или IP, настройки задержек обращений к биржам и т.п. защиту от блокировки с их стороны, т.к. они врядли предоставят нам свой API для решения поставленной задачи.

Например, вижу я у конкурента в бэках сайт:solux.ru и хочу купить на нем ссылку на свой сайт.

Если точнее, то функционал данного проекта следующий:

1. Вводим URL сайта, который нужно анализировать на предмет участия в биржах.

2. Проверяем участие этого сайта в известных биржах ссылок.
Если находим, то покупаем ссылки на нем через веб интерфейс сервиса на заданный сайт. При этом авторегистрация на бирже не требуется, логины и пароли для авторизации на биржах будут делаться человеком заранее.

3. Если исследуемый сайт не обнаружен в анализируемых биржах - собираем все исходящие ссылки на этом сайте.

4. Проверяем участие этих сайтов в тех же биржах ссылок. Если находим, то покупаем ссылки на них через веб интерфейс сервиса на заданный сайт. Авторизация на биржах - по аналогии с пунктом 2.

---
Все эти действия сейчас можно сделать в полуавтоматическом режиме.

Схема действий такая: анализируем сайт с помощью программы Yazzle, получаем список бэков, и экспортируем все данные, полученные в результате анализа.

Затем в Sape проверяем URL`ы с помощью функции добавления в избранное: http://www.sape.ru/white_list.php
И покупаем ссылки только с избранных сайтов. На данный момент в этой функции есть ограничение - проверяется не более 500 строк за раз. И полученные данные собираем в Excel, фильтруем, сравниваем и т.п.

:) Но это отнимает массу времени. Требуется автоматизировать процесс.

p.s. указывайте свою цену и сроки. Цена обсуждаема, торг уместен. Если делали что-то подобное раньше - сразу приводите пример функционала.

+ зависит еще от того, какие запросы смотрите.

Есть запросы геозависимые и геонезависимые.

MaxVZ:
закрыть от индексации часть оставшегося

Совсем не обязательно закрывать контент от всех поисковиков. Если нужно вывести из под фильтра только в яндексе, закройте эти страницы только для робота яндекса через файл robots.txt.

Для остальных поисковиков сайт по прежнему, будет разрешено индексировать сайт.

Всего: 396