iOweYouNothing

iOweYouNothing
Рейтинг
198
Регистрация
08.01.2011

sema_87, по тестам гуглтранслейт самый адекватный, что бы не говорили.

попадался ещё хваленый всеми DeepL - на выходе шлак несусветный, за что только деньги просят?

Jet D., траф или профит?

Платоны те ещё затейники - не успеешь на сайте embed-плеер Youtube поставить, как прилетает звиздюлина с формулировкой "дорвей ... перенаправление посетителей на другой сайт" - ну да, есть в плеере ссылка на оригинал ютубовский, и шо??? с каких пор это перенаправление? штатный ютуб-плеер стал сам перенаправлять или ссылки маскировать?

Сначала бодался с ними, но потом просто забил на яндекс - с ними бесполезно разговаривать, сплошные шаблонные ответы.... за них же алгоритм решает, а люди туда просто попить кофе в курилке ходят.

bicdibus:
сильно фильтруется особенно енг

вот здесь +стопицот: в бурж копипаст протолкнуть практически нереально, что про РУ не скажешь.

bicdibus:
иногда такое говнище вылазит

это временное явление, благодаря трасту домена - но оно быстро проходит (у меня были такие случаи).

---------- Добавлено 17.04.2020 в 12:42 ----------

По тестам машинных переводчиков самая выгодная с точки зрения качества/смысла пара для перевода - EN->ES (на днях бенчмарк попадался, не могу найти источник по-быстрому).

---------- Добавлено 17.04.2020 в 12:48 ----------

PS: полазил по "общеизвестным источникам" и удивился тому, сколько там наших соотечественников проталкивают свой контент переводя тайтл/дескрипшн с родного языка на енглиш - сплошные грамматические ошибки, там явно не машинный перевод ))))

и ловить там нечего, т.к. в обратную сторону вообще бред получается.

К примеру, в описании имелось ввиду "... на кровати" (on the bed), а великие знатоки енглиша умудрились написать on the bad - если ту фразу перевести обратно на русский, то звиздец выходит.

Всё ж на стоковых превью и тумбах при хорошем качестве изображения webp существенно дисковое место и исходящий трафик экономит (я говорю о количестве 100к-1м изображений на диске).

И да, поддерживаемость браузерами - Safari также поддерживает, но с оговорками:

Safari is experimenting with supporting WebP images.

1 Partial support refers to not supporting lossless, alpha and animated WebP images.

2 Partial support refers to not supporting animated WebP images.



---------- Добавлено 16.04.2020 в 14:41 ----------

Кстати, о логике работы linux-систем: свободная оперативка там используется по-максимуму под кеши. Если я jpeg-ов заталкиваю в кеш 40к шт., то webp-ов 50к шт. - это ж профит, как ни как (скорость отдачи выше, меньше обращений к дисковой системе).

Бот анализирует DOM-модель старницы - т.е. уже скомпилированную с учетом js и css.

Оттуда ноги и растут, а не из голого HTML.

А когда начинает идти живой трафик, то подключается поведенческое (клоака в т.ч.) - что вы подсовываете пользователю, куда редиректите и пр.

Если с головой дружить, то и по паблик базам выходит более-менее нормально.... При условии, что не шлак продвигаете.

billypelegrini, тут, в соседней теме, у вас была проблема 79$ с карты за GSA заплатить ("с карты не торт" - по вашему.... я не буду уже показывать где и какую карту взять можно), а в этой теме уже по-полной разговор о высоких материях)))

Кто где базы берет к Хрумеру?

Покупные на krutim-all слабоватые.

Сам пытаюсь парсить хрефером - форумов очень много нахожу, но пробиваемость около 2-4%, что крайне печально.

A.Korchagin, практически такая же история с хрумом - на нем после создания профилей нужно постинг(темы/ответы в темах/прочий спам в "видимой" зоне) от зарегистрированного юзверя запусить(автоматом или руками), т.к. профиля или вообще не видны незареганным юзверям/ботам, либо в дисаллоу/ноиндекс (я не рассматриваю режим спама по формам/личкам, рефспам и пр.).

Специфика всех сайтов и мышления их админов такова (всё таки борьба со спамом).

---------- Добавлено 26.03.2020 в 22:08 ----------

A.Korchagin:
Галки создания типов ссылок стояли все, кроме forum posts.

а какие там вообще варианты есть?

---------- Добавлено 26.03.2020 в 22:09 ----------

A.Korchagin:
99% закрыты в robots.txt

Я и Г клали болт на это дело официально )))

Файл robots.txt не предназначен для блокировки показа веб-страниц в результатах поиска Google. Если на других сайтах есть ссылки на вашу страницу, содержащие ее описание, то она все равно может быть проиндексирована, даже если роботу Googlebot запрещено ее посещать.
Всего: 1354