↩️ Назад

Категории

Нейросети для эникейщика

14.05.2026 | Статья из категории: Нейросети

📌 Минимальная задача: ИИ-наблюдатель за логами на Raspberry Pi

У тебя есть Raspberry Pi. На нём крутится сайт на PHP, болтается куча cron-заданий. Время от времени что-то ломается, а ты узнаёшь об этом через три дня.

Задача: Сделать нейросеть, которая сама следит за логами, находит ошибки и подсказывает, что сломалось в PHP-файле.

🎯 Что ты получишь на выходе


💰 А ЭТО ТОЧНО БЕСПЛАТНО? (Самый важный раздел)

Короткий ответ: Да. Ты можешь работать вообще без денег. Ни карту не привязывать, ни смс не отправлять.

Длинный ответ: Есть три способа. Два из них — полностью бесплатные навсегда. Третий — "условно бесплатный" (даёт кредитов на несколько месяцев).

🥇 Способ 1. Локальная нейросеть (100% бесплатно, без интернета)

Ты ставишь нейросеть прямо на Raspberry Pi (или на любой комп в твоей сети). Никаких API-ключей, никаких платежей, твои логи и код вообще никуда не уходят.

# Устанавливаешь Ollama (одна команда)
curl -fsSL https://ollama.com/install.sh | sh

# Скачиваешь лёгкую модель (работает даже на Raspberry Pi 4 с 4GB RAM)
ollama pull llama3.2:3b

# Запускаешь
ollama serve

Плюсы: полностью бесплатно, без интернета, конфиденциально.
Минусы: модель попроще, чем GPT-4, но для анализа ошибок в PHP — хватает за глаза.

🥈 Способ 2. Бесплатные API-провайдеры (без карты, без смс)

Регистрируешься — получаешь ключ сразу. Карту не просят. Токены не кончаются (или дают очень щедрый лимит).

ПровайдерЧто дают бесплатноКак получить
Groq30 запросов в минуту на Llama 3 (очень быстро)console.groq.com → регистрация → ключ мгновенно
Cerebras6 млн токенов/месяцcloud.cerebras.ai → регистрация
Mistral AI1 млн токенов/месяцconsole.mistral.ai → бесплатный tier
Google AI Studio60 запросов/мин на Gemini 1.5 FlashНужен Google-аккаунт, карту не просят
OpenRouterБесплатные модели (Llama, Mistral)openrouter.ai → модель с пометкой "free"

Плюсы: мощные модели (Llama 70B, Mixtral), не нагружают твой Raspberry Pi.
Минусы: нужен интернет.

🥉 Способ 3. OpenAI "на халяву" (временный, но самый простой)

При регистрации на OpenAI (даже бесплатной) тебе дают $5 кредитов на использование API. Этого хватит на тысячи вызовов GPT-3.5.

✅ Регистрация → API ключ → пользуешься, пока кредиты не кончатся.
❌ Карту просят, но можно использовать виртуальную или попросить у друга.


🛠️ Пошаговая инструкция (выбери свой вариант)

Вариант А. Для тех, кто хочет "поставил и забыл" — локальная Llama на Raspberry Pi

# 1. Установил Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 2. Скачал модель
ollama pull llama3.2:3b

# 3. Создал скрипт watcher.py

Код скрипта (сохрани как /home/pi/log_watcher.py):

#!/usr/bin/env python3
import time
import os
import requests
import json

LOG_FILE = "/var/log/iot_cron.log"
PHP_DIR = "/var/www/site/cron/"

def get_php_code(filename):
    path = os.path.join(PHP_DIR, filename)
    if os.path.exists(path):
        with open(path, 'r') as f:
            return f.read()[:2000]
    return "Файл не найден"

def ask_local_llama(error_msg, php_code):
    # Запрос к локальной Ollama
    response = requests.post(
        "http://localhost:11434/api/generate",
        json={
            "model": "llama3.2:3b",
            "prompt": f"Ошибка в логе: {error_msg}\n\nКод PHP:\n{php_code}\n\nОтветь кратко (3-4 строки): в чём ошибка и как исправить?",
            "stream": False
        }
    )
    return response.json()["response"]

def watch_logs():
    print("👀 Локальный наблюдатель запущен (бесплатно, без интернета)")
    with open(LOG_FILE, 'r') as f:
        f.seek(0, 2)
        while True:
            line = f.readline()
            if line and ("Fatal error" in line or "CRON FAILED" in line):
                print(f"🔴 Ошибка: {line.strip()}")
                php_code = get_php_code("send_report.php")
                advice = ask_local_llama(line, php_code)
                print(f"🤖 Вердикт нейросети:\n{advice}\n{'-'*50}")
            time.sleep(2)

if __name__ == "__main__":
    watch_logs()
# 4. Запустил
python3 /home/pi/log_watcher.py

Вариант Б. Для тех, кто хочет мощную модель бесплатно — Groq API

# 1. Зарегистрировался на console.groq.com (2 минуты, карту не просят)

# 2. Установил библиотеку
pip install openai

# 3. Тот же скрипт, но с Groq (подставь свой ключ)
from openai import OpenAI

client = OpenAI(
    base_url="https://api.groq.com/openai/v1",
    api_key="gsk_твой_ключ"  # бесплатно
)

def ask_groq(error_msg, php_code):
    response = client.chat.completions.create(
        model="llama-3.3-70b-versatile",  # мощная бесплатная модель
        messages=[{"role": "user", "content": f"Ошибка: {error_msg}\nКод:\n{php_code}\nЧто исправить?"}]
    )
    return response.choices[0].message.content

🧠 Что происходит под капотом

  1. Твой скрипт висит в фоне и читает лог.
  2. Появляется ошибка — скрипт хватает последние строки лога и кусок PHP-файла.
  3. Отправляет это в нейросеть (локальную или через API).
  4. Нейросеть возвращает диагноз: строка, переменная, исправление.
  5. Ты утром смотришь вывод и сразу знаешь, что чинить.

⚡ Что дальше (следующие выпуски рубрики)


Краткое резюме для эникейщика:
Изучать нейросети — не значит платить. Для твоих задач (логи, PHP, cron, IoT) есть полностью бесплатные инструменты: локальная Llama через Ollama или Groq API. Ты получаешь ассистента, который сам находит ошибки в твоём коде и серверах. За копейки (или вообще бесплатно).

📝 Заметку подготовил практикующий эникейщик, который устал лазать в логи руками. Теперь нейросети делают это за меня.




Категории:

Категории

Комментарии

Пока нет комментариев. Будьте первым!

Оставить комментарий

← Назад к списку статей

Посетителей сегодня: 0
о блоге | карта блога | 📡 Подписаться на RSS

© Digital Specialist | Не являемся сотрудниками Google, Яндекса и NASA