Название | Частные производные любви |
---|---|
Автор произведения | Alik Kramer |
Жанр | |
Серия | |
Издательство | |
Год выпуска | 0 |
isbn | 9785006595958 |
Конец ознакомительного фрагмента.
Текст предоставлен ООО «Литрес».
Прочитайте эту книгу целиком, купив полную легальную версию на Литрес.
Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.
Примечания
1
В теории вероятностей идеальная монетка (или справедливая монетка) – это теоретическая монетка, которая обладает равной вероятностью выпадения орла и решки при каждом броске.
2
Эффект наблюдателя – предположение о том, что наблюдение за явлением изменяет его свойства.
3
Тимлид (от англ. team leader) – руководитель команды.
4
LLM – Large Language Model – нейросеть специальной структуры, лежащая, в том числе, в основе ChatGPT и аналогичных ей моделей.
5
NP = P – одна из семи задач математики и информатики, за решение которой в 2000 году обещано вознаграждение в 1 млн. долларов США. Она касается вопроса: можно ли для всех задач, для которых возможно быстро проверить правильность решения (задачи NP), также быстро найти это решение. Доказательство или опровержение этой теоремы имеет огромные последствия для алгоритмов криптографии и искусственного интеллекта. Например, криптосистемы с открытым ключом, технологии доказательства выполнения работы в блокчейне основываются на предположении о неравенстве NP и P классов (NP ≠ P). Если окажется, что некоторые задачи, для которых, как считалось, не существует эффективных алгоритмов, можно решать быстро, то криптографические системы станут уязвимыми.
6
Галлюцинирование – это процесс, при котором искусственный интеллект или языковая модель «выдумывает» информацию, представляя её как достоверный факт, хотя в реальности она не основана на обучающих данных или логике. Галлюцинации могут проявляться в виде ложных утверждений, ошибок в рассуждениях или создания несуществующих объектов.
7
Фраза из к/ф «Неуловимые мстители».
8
Тонкая настройка (fine-tuning) – процесс настройки уже обученной большой языковой модели (LLM) на конкретную задачу или набор данных. Этот этап позволяет модели адаптироваться под конкретную специально выбранную область, сохраняя общие знания, но улучшая точность и релевантность для конкретного применения.
8
Тонкая настройка (fine-tuning) – процесс настройки уже обученной большой языковой модели (LLM) на конкретную задачу или набор данных. Этот этап позволяет модели адаптироваться под конкретную специально выбранную область, сохраняя общие знания, но улучшая точность и релевантность для конкретного применения.