ИИ для PHP-разработчиков. Часть 2: практическое использование TransformersPHP
- TransformersPHP описывается как PHP-ориентированная библиотека для inference предобученных трансформеров (BERT, RoBERTa, DistilBERT и др.) без Python и без внешних API, через ONNX Runtime.
- Заявленные эффекты локального инференса: отсутствие сетевых вызовов к LLM API, контроль над данными (privacy), предсказуемое и стабильное время обработки, возможность оффлайн-работы после первого запуска.
- Требования окружения в примере: PHP 8.1 или выше, Composer, расширение PHP FFI; JIT-компиляция указана как опциональная, а для сложных задач отмечена потребность в повышенном лимите памяти.
- Окружение поднимается через Docker: сервис с пробросом порта 8088 и настройками memory_limit 512M и max_execution_time 300; в Dockerfile указан ONNX Runtime версии 1.17.1.
- Установка TransformersPHP в composer.json показана зависимостью codewithkyrian/transformers версии ~0.6.2; pipeline API демонстрируется на задаче анализа настроений с результатами POSITIVE 0.99978870153427 и NEGATIVE 0.99863630533218.
- Кейс семантического поиска использует эмбеддинги и cosine similarity, кэширует эмбеддинги событий и хранит скачанные модели локально; в примере top-3 результатов имеют score 0.4288 / 0.3356 / 0.2598.
Почему это важно: Материал приземляет тему AI для PHP-разработки и смещает фокус с «чат-взаимодействия» на прикладные бэкенд-задачи: классификацию, сравнение и поиск по смыслу. В этом подходе локальный инференс без внешних API делает модель частью привычного кода и деплоя, а не отдельным внешним сервисом. В тексте отдельно подчёркивается ценность предсказуемости и контроля данных в обмен на необходимость держать вычисления внутри приложения.
На что обратить внимание: В статье подчёркивается, что TransformersPHP не про обучение моделей с нуля, а про использование уже обученных моделей, и не позиционируется как замена большим LLM-сервисам. Отдельно описан «первый запуск» и загрузка моделей, а также то, что кэш эмбеддингов привязан к модели и требует согласованности при смене идентификатора модели. Также отмечаются инженерные trade-off’ы: вес моделей, требования к производительности и то, что часть задач может быть проще и надёжнее решать без AI (например, обычным SQL).
Читайте также
Четыре проекта на Kwork, которые автор отклонил, и почему
Awesome Claude Code: ИИ-помощник для PHP-архитектора
Бесплатные AI-модели от Alibaba: 1 млн токенов на каждую модель Qwen в Сингапуре
Промпты для ИИ: как писать запросы для нейросетей и получать лучший результат
ИИ-наставник для онбординга: как собрать ИИ-агента для адаптации новых сотрудников в компании
- TransformersPHP: локальный инференс трансформеров в PHP через ONNX Runtime: TransformersPHP позволяет использовать предобученные трансформер-модели прямо в PHP-приложении без Python-стека и без внешних API, выполняя инференс локально через ONNX Runtime. Это удобный вариант для задач NLP, где нужен встроенный в код сервис семантики (эмбеддинги, классификация, сравнение) в рамках привычного деплоя.
[Инструменты / ML и AI]
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Во второй части автор показывает, как использовать TransformersPHP для локального инференса трансформер-моделей прямо в PHP без Python и без внешних LLM API. Главный вывод: точка входа может выглядеть как подключение обычной библиотеки и закрывать прикладные задачи вроде эмбеддингов, классификации и семантического поиска.