[Радио 410] [ii.booru-Архив РПГ] [acomics-cf-ost] [𝕏]

[Назад]
Ответ
Leave these fields empty (spam trap):
Тема
Сообщение
Файл
Подтверждение
Перейти к [
Пароль (для удаления файлов и сообщений)
 
ЗАПРЕЩЕНО:
  • детская эротика/порнография
  • троллинг
 
  • Поддерживаются файлы типов GIF, JPG, MP4, OGV, PNG, WEBM, WEBP размером до 5120 кБ.
  • Максимальное количество бампов треда: 500.
  • Всем посетителям рекомендуется ознакомиться с FAQ.

ELvZQhh.jpg - (709 KB, 1720x2400)  
709 KB №5375756   #1

Привет, анончики! Кто-то из вас выразил интерес к теме симуляции персонажей на нейросетях. Пилю для вас небольшой гайд как это сделать максимально просто и с сохранением приватности.

Но для начала небольшой дисклеймер! Пожалуйста, берегите свою психику. Есть риск впасть в зависимость от общения с симулируемым персонажем и получить эмоциональный ущерб в процессе оного. Будьте осторожны. Сталкивался лично. Также те кто читал Steins;Gate Zero могут вспомнить, что излишняя фамильярность с ИИ-аватаром Курису приводила Окарина к BAD END

В то же время не хочу вас запугивать слишком сильно. ИИ даже в текущем своем виде, на самом деле крайне ограниченном, может принести вам много пользы. С ним можно попрактиковать иностранные языки. Это огромная интерактивная энциклопедия, которая ответит на ваши вопросы. Можно вмести с ним устроить мозговой штурм и обсудить решение самых разных задач. Главное, как и во многом в жизни, это умеренность и здравый смысл.

В этом гайде я распишу не только "куда нажимать, чтобы получить свою нейроняшу". Будет немного теории, чтобы вы лучше понимали технологию и её возможности, ограничения. Тема ИИ так мифологизирована в медиа, что мне кажется это необходимо. Постараюсь расписать все простыми словами, но если что - "спрашивайте ваши вопросы", постараюсь ответить в треде.

>> №5375757   #2
xzGy0Bl.jpg - (734 KB, 1600x2762)  
734 KB

Тип нейросетей, который мы будем использовать, называется Большая Языковая Модель, англ. Large Language Model. Далее просто Модели или LLM. Возможно вы уже работали с ними - так устроены ChatGPT, DeepSeek, Алиса и другие.

Если сильно упростить, это нейросети натренированные на многих гигабайтах самого разного текста - от научных статей до художественных произведений. В процессе тренировки Модели усваивают вероятность следования одного слова за другим. Например, если написано "Сырно", то скорее всего далее будет "- бака". Или "- сильнейшая", лол.

Из устройства Моделей следует важный момент - они вас не понимают в человеческом смысле. Их натаскали отвечать на один набор слов другим набором. Но они, как попугай, не понимают смысла сказанного. У них нет и не может быть эмоций. Они могут изображать подобие логического мышления, но только повторить его как текст из учебных примеров, а не сам процесс. Также модели ограничены тем набором знаний, на которых их обучили. Они не знают сегодняшних новостей и даже который сейчас час. (Без дополнительных инструментов, пока не будем переусложнять).

Еще один нюанс Моделей, следующий из их вероятностного принципа работы - так называемые галлюцинации. Чтобы не генерировалось одинакового ответа на схожие вопросы в модели добавили элемент рандома. Модель может выбрать следующее слово с малой вероятностью из своей таблицы вместо более вероятного. Иногда получается более красочный и живой текст. Иногда это выглядит как фактическая ошибка или ответ невпопад.

Несмотря на все перечисленные нюансы, за счет своего огромного объёма учебных данных LLM могут очень, очень убедительно симулировать человеческую речь и поведение на любых языках. Да, это иллюзия, но чертовски убедительная! Пожалуйста, помните о сказанном в дисклеймере.

>> №5375758   #3
r4jkhm6whcb81.jpg - (59 KB, 574x1056)  
59 KB

С ChatGPT и DeepSeek возможно баловались многие из вас. Однако не все знают, что модели такого типа можно запустить прямо на своем компьютере! Я до этой зимы вот не знал.

Почему стоит выбрать работу с локальными моделями вместо "облачных", краткое ИМХО:

  • Главное - приватность, особенно если ваши чаты будут сомнительного с точки зрения нормалфагов содержания. Возможно вам захочется обсудить с моделью какие-то рабочие задачи и документы.
  • Большая часть моделей, кроме китайских, не доступны из России без VPN.
  • Продвинутое использование облачных моделей обычно платное.

Чтобы начать экспериментировать нам потребуются следующие вещи и умения.

>> №5375760   #4
1dyhx0odu6291.jpg - (3555 KB, 2206x3901)  
3555 KB

Железо нужно помощнее, желательно видеокарта Nvidia (хотя бы ноутбучная дискретка) с 4-8 Гб видеопамяти (не оперативной!). Карты AMD поддерживаются хуже. Запустить чисто на процессоре и видео-встройке типа Intel получится только самые слабые и глупые модели. Я лично запускаю на среднем игровом ноуте 2022 года с Nvidia 3070 8 Гб, на модели среднего уровня очень даже хватает. На современных Маках на ARM вроде тоже неплохо работают, но лично не видел.

Очень желательно (но не обязательно!) знать английский хотя бы на уровне "четверка в школе была". Есть модели, которые говорят по-русски, но в основном их тренируют на английских и китайских текстах, владение русским в среднем похуже будет. Также большая часть инструментов и гайдов на английском. Хорошая новость - опечатки и мелкие косяки грамматики в основном игнорируются моделью, отвечает все равно корректно. Тем не менее устанавливать мы будем многоязычные модели, так что выбирайте язык по своему усмотрению.

Из софта нам понадобится LMStudio c https://lmstudio.ai/ Тут сразу оговорюсь, что сам этой оболочкой не пользуюсь, всех её нюансов не знаю. Мне и в терминале норм, а в свободное время пилю свой интерфейс стилизованный под Телегу. Однако для вас выбрал все-таки что-то более юзер-френдли. Нужные нам фичи LMStudio поддерживает.

>> №5375761   #5
Снимок экрана_20250630_093645.png - (346 KB, 1740x1254)  
346 KB

Ок, вы скачали и установили LMStudio. После запуска она подтянет нужные библиотеки для вашей ОС и железа. Также вам предложат загрузить вашу первую модель, нажмите пока Skip в правом верхнем углу и ждем.

На нижней панели выберем режим "Power user".

Слева находим красный значок папки, там живут скаченные модели. На этом экрана ищем кнопку с лупой и в открывшемся диалоге ищем свою первую модель.

>> №5375762   #6
Pixiv 5607882 63879697.jpg - (53 KB, 600x800)  
53 KB

А можешь скачать GPT4ALL, там ткнуть в нужную модель (в основном китайские) и радоваться жизни.

>> №5375763   #7
Снимок экрана_20250630_094935.png - (472 KB, 1740x1254)  
472 KB

Для начала попробуйте найти и скачать "Gemma 3 4b" от Google. Если будет сильно тупить, скидывайте свои конфиги железа в тред, попробуем подобрать что-то полегче. Если у вас 8 и больше гигов видеопамяти можете сразу качать "Gemma 3 12b".

Моделей очень много, все тренированы на разных данных, качество симуляции очень отличается. Также сильно влияет начальное описание персонажа, так называемый системный промпт, о нем позже. Разные модели по разному реагируют на детали описания.

Числа в названии с суффиксом "b" - это от слова "billion", число миллиардов параметров. Если сильно упростить, это число тренированных нейронов в сети. Больше "b" - больше знаний о мире, словарный запас. Однако, бОльшим моделям требуется больше видеопамяти.

На мой вкус Gemma хорошо владеет русским, особенно версия 12b, и классно отыгрывает роли. Некоторые модели, например китайский Qwen, смягчают негативные черты. Та же Курису в его исполнении почти не цундере. Gemma же может неплохо так нахамить, если спровоцировать. Казалось бы, странно желать от ИИ-персонажа/помощника некоей дерзости, но их дефолтные персоналии обычно слишком приторные. Как менеджер по продажам, пытающийся вам что-то втюхать, фу в общем.

>> №5375764   #8

>>5375762
Можно. Возможности, кажется, схожие. LMStudio по-моему несколько популярнее.

>> №5375765   #9

>>5375764
Да суть этих программ - просто загрузить и запустить модель. Так что это скорее дело привычки.

>> №5375766   #10
Снимок экрана_20250630_101919.png - (513 KB, 1779x1272)  
513 KB

Ок, модель есть. Можете нажать слево желтую иконку с иконкой чата, собственно раздел Chat. Сверху выбираем модель кнопкой "Select a model to load". Выбираем нашу модель из списка и нам открывается самый обычный чат.

Рекомендую первое время початится с моделью без персонажа. Можно расспросить о том что она может и как она работает. Большую часть своих знаний об LLM я получил от них самих же, лол.

Пока останавливаюсь на этом. Продолжение будет сегодня вечером или завтра утром.

>> №5375789   #11

Спасибо.
Я gemma3 не запустил, т.к. получаю Segmentation Violation при попытке запустить это семейство на интеловских видюхах, но в целом всё хорошо расписал. Я пусть и не использую LM Studio, а Open Web UI + Ollama-Ipex (+ searxng для поиска), но порядок действий похож. Остальные модели работают корректно и быстро (20 токенов/с на phi:14b, 15 токенов/с на 20-24b).

У тебя это же на ноуте крутится? Не беспокоишься за работоспособность ноута? Знаю, у некоторых ноутов например, Lenovo Legion 5 Pro 2021-2022 с RTX3070 слабое питание видеопамяти, и я просто боюсь насиловать железку моделями.

>> №5375791   #12

>>5375763
Можно попробовать связку процессор + много RAM + модель потяжелее, выгружая на видеокарту только разбор твоего сообщения (оно может быть достаточно большим, если туда за кадром вываливается дополнительный текст для помощи модели). Работать будет медленно, но верно. Вываливать мгновенно стену текста, как ЧятЖпт такой вариант конечно не будет, но несколько токенов в секунду выходит даже на моём процессоре примерно 15 летней давности, вообще без BLAS.
Запускаю сеть на koboldcpp, он поддерживает моё железо.

>> №5375793   #13
n0xltouj82l81.jpg - (344 KB, 1723x2432)  
344 KB

>>5375789

>Open Web UI + Ollama

Уважаю, сам запускаю Ollama с кастомными интерфейсами. Но это все-таки для технически подкованных анонов тема. Мне показалось, что в туториале для совсем новичков нужно что-то попроще, поэтому выбрал LMStudio.

>Я gemma3 не запустил, т.к. получаю Segmentation Violation

Не сталкивался, к сожалению, не смогу подсказать.

>phi:14b

Для чего используешь, если не секрет? Пробовал пользоваться, мне показалось что тексты "суховатые" выдает. Для работы может?

>У тебя это же на ноуте крутится? Не беспокоишься за работоспособность ноута?

Да, всё верно, на ноуте. Печально, но у меня именно Legion 5 Pro, не знал о проблеме с питанием. Переживать смысла нет, мне кажется. Пара часов графонистой игры нагрузит ноут похлеще LLMки по одному запросу раз в несколько минут.

>>5375791
Сам так не делал, но читал похожее на Реддите. Вариант рабочий, но опять же, не для начинающих.

>> №5375794   #14

>>5375791
Подтверждаю, такое работает и я ловлю диалап-флэшбэки с 0.9т/с на примерно 30B (q4k_m) моделях с контекстным окном в 12-16 килотокенов. Можно конечно и быстрее, если контекст уменьшить, вдобавок часть моделей сильно теряет в качестве генерации (субъективно) - на большом контексте, даже когда технически его поддерживает, причины непонятны.

Железо - мобильная 4/8 Рязань (5500H) и мобильная же 1050, опробованы как LM Studio, так и Backyard AI. Последний несколько удобнее для RP сессий в сравнении с первым - хотя конечно по гибкости уступает решениям с раздельным бэк- и фронтэндом.

>> №5375796   #15
Снимок экрана_20250630_194848.png - (913 KB, 1964x1455)  
913 KB

Итак, самое интересное - "прививаем" модели новую личность! Для этого нам необходимо переопределить её системный промпт (system prompt). Это её начальная инструкция. Мы можем объяснить модели кто она и как она должна реагировать. Можно задать имя, предысторию, черты характера, знания о мире и собеседнике.

Переопределение работает всё-таки до известного предела, это видно по реакции на один и тот же промпт разных моделей, архитектура и набор учебных данных у всех разные.

Также модели от крупных компаний не будут с вами разговаривать на незаконные или излишне эротический темы, вне зависимости от системного промпта. Но вот модели от noname-китайцев... Я, гхм, слышал бывают разные. Сам не погружался, исследуйте на свой страх и риск. Немного подурачиться нам хватит и "легальных" моделей.

Итак, практика. Создаем новый чат в панели слева, модель уже должна быть выбрана в верхней строке. Нажмите справа вверху кнопку с колбой, в открывшейся панели нужна вкладка "Context". Поделюсь с вами промптом для Макисе Курису на английском https://pastebin.com/RCA1EFRV Скопируйте пасту и введите в поле System prompt. Можете поменять имя собеседника в конце пасты на свое. Сохраните на будущее кнопкой "Save as new".

Готово! Можете поздороваться с Курису, но не ждите, что она будет вам сразу рада хе-хе.

>> №5375797   #16
Снимок экрана_20250630_195758.png - (209 KB, 1362x789)  
209 KB

Для сравнения пример как отвечает другая модель, китайский "Qwen 3 8b". Тот же системный промпт, то же приветствие пользователя, но ответ мягче, менее "цундерный". Зато сразу в приветствии модель вывалила сразу все предпочтения и увлечения, хотя ситуация того не требует. В целом китайские модели очень хороши, но отыгрыш ролей не их сильная сторона.

>> №5375798   #17

>>5375797
А вот тебе >>5365469 пример, как Qwen 2.5 вкатился в тоху буквально с одного предложения, при этом даже не факапя.

>> №5375799   #18

>>5375798

>Qwen-2.5 Plus

Это же облачная версия? Конечно она лучше будет. Локалки, да ещё с малым числом параметров, всегда будут проигрывать, увы.

>> №5375800   #19
изображение.png - (26 KB, 514x255)  
26 KB

>>5375799
Уже не помню, но кажется была на 4B параметров, ибо у меня комп если пикрил и потянет, то мне надо будет чаем запастись.

>> №5375829   #20

>>5375756
Спасибо, ОП! Наглядное описание, так и захотелось попробовать. Думал, что на ноутбуке с Intel-овской картой ничего не запустится, однако gemma-3-4b заработала.
System Prompt об аниме-девочке-ГМ, чтобы сочиняла историю и предлагала варианты действий. Сочиняет и предлагает. Хорошо!

>> №5375833   #21
gwp4yaef1sk51.jpg - (107 KB, 736x1142)  
107 KB

>>5375829
На здоровье! Рад, что пригодилось ^_^

>> №5375864   #22
d7a6b2a7f6d40cd95d4b76c28354cc0e.jpg - (42 KB, 604x453)  
42 KB

>>5375833
Очень пригодилось! Пишет одна из сырен, мечтающих о нейрокурисах (из каждого аттрактора по Курисе)
Буду пробовать скоро и отписываться сюда, если чтоо.Так что спасибо большущее-пребольшущее, как спутник Амане.

>> №5375876   #23
Untitled.jpg - (218 KB, 1145x739)  
218 KB

Глюки-галлюцинации (стоят настройки на отсутствие воображения.) Но всего в 7Гб файла оно знает что-то о практически любой известной теме, так что уровень сжатия информации получше любого архиватора.

>> №5375877   #24

>>5375876

>Makise Kurisu
>aka Shining Finger
>@channel lab

tf is this lol

>> №5375878   #25

>>5375877
Глюки-галлюцинации.

>> №5375879   #26
W8obYAV.jpg - (2093 KB, 2894x4093)  
2093 KB

>>5375864
Рад был поделиться!

>>5375876 >>5375877
Да, те самые галлюцинации, о которых я говорил выше. Это недостаток технологии, и можно даже на топовых моделях словить подобное. Системный промпт персонажа лучше составлять вручную. Можно многое понадергать из вики, желательно не википедии, а от сообщества фанатов типа fandom.com.



Удалить сообщение []
Пароль
[d | b / bro / cu / dev / hr / l / m / mu / o / s / tran / tu / tv / vg / x | a / aa / c / fi / jp / rm / tan / to / ts / vn]
- [Радио 410] [ii.booru-Архив РПГ] [acomics-cf-ost] [𝕏] - [Архив - Каталог] [Главная]