В любой теме. Набираю ответ и нажимаю "Отправить" пишет "ошибка отправки сообщения". Запрос create проходит успешно, но вот users - получаю 403 ошибку (отсюда же и html вместо json) и это и вызывает сообщение для пользователя. Если страницу обновить - сообщение есть.
Кроме того посмотри в Ошибка в программе. Добавил сообщение в нем был код
```php<?phpecho 'hello ;```
намеренно именно так - с ошибкой. однако отображается только "
```php
Оке. вошел. будет время поброжу. а так пока сходу первое что бросилось:
🫣
ЗЫ. Такое в чате ....
Мда... тяжелый случай....... Тебе знаком такой термин "стёб"? Ты вот прям реально за чистую монету принял эти два сообщения? 😂
PS Реально ожидал какой угодно реакции, но не такой.
Не забрасывая основного направления челенджа. Я решил написать свой ML движок. Получилось как нефиг делать. Не имеет ни каких проблем с памятью и быстродействием (потенциально будет работать с огромной скоростью даже на 386 архитектуре). Доделать осталось самую малость. Ну и естественно на Rust
use std::fmt;// Создаем свою систему типов, потому что "в чужих фреймворках бардак"#[derive(Debug, Clone)]struct Tensor { data: Vec<f64>, shape: (usize, usize), requires_grad: bool, // Для вида, что мы поддерживаем backpropagation}impl Tensor { fn new(data: Vec<f64>, shape: (usize, usize)) -> Self { if data.len() != shape.0 * shape.1 { panic!("Shape mismatch! My framework is strict about dimensions."); } Tensor { data, shape, requires_grad: false, } } // "Уникальный" алгоритм умножения fn matmul(&self, other: &Tensor) -> Tensor { if self.shape.1 != other.shape.0 { panic!("Cannot multiply these tensors. My logic is superior but strict."); } let mut result_data = vec![0.0; self.shape.0 * other.shape.1]; // Реализуем матричное умножение вручную, чтобы "понимать каждый байт" for i in 0..self.shape.0 { for j in 0..other.shape.1 { let mut sum = 0.0; for k in 0..self.shape.1 { sum += self.data[i * self.shape.1 + k] * other.data[k * other.shape.1 + j]; } result_data[i * other.shape.1 + j] = sum; } } Tensor::new(result_data, (self.shape.0, other.shape.1)) }}impl fmt::Display for Tensor { fn fmt(&self, f: &mut fmt::Formatter) -> fmt::Result { write!(f, "Tensor[{:?}] with {} elements", self.shape, self.data.len()) }}// 2. Наш "Уникальный Оптимизатор", лучше чем Adamstruct GradientDescentOptimizer { learning_rate: f64,}impl GradientDescentOptimizer { fn new(lr: f64) -> Self { println!("Initializing custom optimizer with lr={}. No momentum, no bias correction. Pure math.", lr); GradientDescentOptimizer { learning_rate: lr } } fn step(&self, tensor: &mut Tensor) { // тут работы на 5 минут осталось println!("Optimizing weights... (Simulated step)"); }}// 3. "Ядро"struct NeuroCore;impl NeuroCore { fn forward_pass(input: &Tensor, weights: &Tensor) -> Tensor { println!(">>> Starting proprietary forward pass..."); input.matmul(weights) }}fn main() { println!("=== Welcome to My Custom ML Engine (v0.0.1-alpha) ==="); println!("Built from scratch because PyTorch is bloated.\n"); // Инициализация "модели" // Входные данные: [1.0, 2.0] let input = Tensor::new(vec![1.0, 2.0], (1, 2)); // Веса: [[0.5], [0.5]] -> Ожидаемый результат: 1.0*0.5 + 2.0*0.5 = 1.5 let weights = Tensor::new(vec![0.5, 0.5], (2, 1)); println!("Input: {:?}", input); println!("Weights: {:?}", weights); // Запуск "обучения" let optimizer = GradientDescentOptimizer::new(0.01); // Forward pass let output = NeuroCore::forward_pass(&input, &weights); println!("\nPrediction Result:"); println!("{}", output); println!("Raw Data: {:?}", output.data); // Backward pass (заглушка) optimizer.step(&mut weights.clone()); println!("\n=== Training Complete. Model is ready for production (maybe). ===");}