La5

Рейтинг
65
Регистрация
11.10.2009

Всем большое спасибо! time4vps то, что искал.

Milash:
Добрый день, кто то сталкивался с доменами .travel как они ранжируются в Google? Так же как и com? или он геозависимый. Может еще какие то камни есть подводные с ним. Подскажите плиз кто знает.


Задача мультиязычный сайт повесить на большое количество регионов.

Тестил новые доменные зоны для буржуйского Google, разницы не заметил.

В моем случае я купил 10 доменов: 7 с новыми зонами, еще 3и: com, net, org . Всем в WM поставил регион (в моем случае был US), все по итогу основной траф оттуда и получают. Для себя сделал заключение, что основной фактор: регион+язык в WM, плюс язык контента сайта.

--offtopic--

А можете пример таких страниц показать? Я наверно выпал из жизни, не видел еще в выдаче страницы из GD

--^offtopic^--

Уже давно гуглу пофиг на кодировку через JS. Он выполняет JS, и анализирует результирующее DOM дерево. Проверить очень легко:

- берете простой скрипт, записывающий ip, например:

<?php file_put_contents('ip.txt', $_SERVER['REMOTE_ADDR'].PHP_EOL, FILE_APPEND)?>

- потом вставляете в страницу, например так:

<script>

document.write('<img src="http://site.ru/script.php">')

</script>

- анализируете ip через любой whois сервис

Всего скорее владелец домена провтыкал пополнение хостинга или хостер чего-то накрутил. А гугл взял и проиндексировал.

Исправить так:

1) Регистрируемся в гугл-вебмастер

2) Переиндексируем страницу руками:

- "просмотреть как гугл-бот" и где-то там будет пункт "добавить в индекс"

если не поможет, тогда:

- "удалить страницу из выдачи"

- "просмотреть как гугл-бот" и где-то там будет пункт "добавить в индекс"


<?php

$banned = file_exists('ban.json') ? json_decode(file_get_contents('ban.json'), true) : [];
$banned[$_SERVER['REMOTE_ADDR']] = 1;
file_put_contents('ban.json', json_encode($banned));

Думаю все просто - на сервере стоит ограничение на одновременную загрузку файлов, надо вот эти значения крутить:

max_file_uploads = 20

upload_max_filesize = 20M

post_max_size = 60M

собери файлы при одновременной загрузке которых происходит ошибка и пиши хостеру.

для автонаполнения надо:

1) получать откуда-то данные

2) постить их

Для получения данных, нужен источник и парсер. Источником может быть как, например файл, так и чужой сайт. Парсер - скрипт который разбирает информацию на составляющие, структурирует, дополняет и складывает в формате удобном для постера.

Постер, постит ранее структурированную информацию на сайт.

Я не помню, но по-моему в DLE есть отложенный постинг. Следовательно, можно это использовать. Остается найти источник и достать/написать парсер, который сложит структурированные данные напрямую в базу DLE, указав даты в будущем. Остальное сделает DLE.

Ну, сообственно все.

Обменял у ТС большую сумму (Партнерка > PayPal > Wire), отличный обменщик.

Даже не смотря на то, что я его запутал с тем, какой вариант вывода мне необходим, деньги вывели и они пришли на карту в оговоренный срок.

Сотрудничеством доволен, всем рекомендую 🍻

Спасибо, все понял!!!

Партнерка Chitika, с недавних пор, отменила вывод чеками, оставив только PayPal, основную часть средств вывел через посредника с форума. Но там остались мелкие сайты которые приносят 5-10$ в месяц. Думал, что мб будет возможность использовать эти деньги как-то.

Значит буду копить сумму для вывода и тестить другие партнерки..

Всего: 67