Форум игр +18

Кружок любителей игр

Объявление

Информация о пользователе

Привет, Гость! Войдите или зарегистрируйтесь.


Вы здесь » Кружок любителей игр » Флудилка » Нейросети


Нейросети

Сообщений 21 страница 40 из 72

21

nomiren472
Хех, в общем я все сломал, с этими настройками Таверны и карточек в попытке оптимизировать и понять наконец-то что из советов в промте влияет, а что нет.
Вообще я так понял "программирование" примерами диалогов должно хорошо работать, но мой собственный стиль того как я графоманю да еще и через переводчик меня не устраивает.

Идея по поводу того что сначала сетку "потренировать" а затем начать уже грузить карточкой в целом мне понятна. В той же таверне есть "Инструкт мод" для этого.
Можешь подсказать если ты уже сам понял: нужно ли для LHK DPO (оригинал кстати удалили) использовать теги [INST][/INST] или это избыточно? Нужно или их использовать только пока обучаешь? Или желательно вообще всегда для основных промтов? Есть в настройках пересет Mistral, он эти [INST] добавляет всегда.
У LHK DPO походу проблемы с оформлением текста в *, но вроде нет проблем с () и кавычками для прямой речи?
Какой вариант оформления промтов ты используешь? Я для MythoMax написал JSONы с описанием карточек. Но походу для LHK DPO это все избыточно.

Jackjill
Да в целом все уже упаковано: и таверна и кобольд. Вообще для первого захода кобольда достаточно, у него есть интрефейс куда и карточки персонажа грузить можно и прочее. Таверна просто потом позволяет оптимизировать скорость настройки сетки через все эти разбивки на Лорбуки/Карточки/Описание пользователя и т.д.

0

22

Slilo написал(а):

LHK DPO

Кстати и правда хорошая модель. И на моей системе Q6K даёт 4,4 токена в секунду, что приемлемо. А ведь собрана из двух семёрок, даже удивительно.

0

23

Slilo написал(а):

Можешь подсказать если ты уже сам понял: нужно ли для LHK DPO (оригинал кстати удалили) использовать теги [INST][/INST] или это избыточно? Нужно или их использовать только пока обучаешь? Или желательно вообще всегда для основных промтов? Есть в настройках пересет Mistral, он эти [INST] добавляет всегда.
У LHK DPO походу проблемы с оформлением текста в *, но вроде нет проблем с () и кавычками для прямой речи?
Какой вариант оформления промтов ты используешь? Я для MythoMax написал JSONы с описанием карточек. Но походу для LHK DPO это все избыточно.

Ничего не делал использую таверну как есть, редактирую только карточки ГГ и карточки персонажа
ну и пресет Mirostat включил (другие кроме этого и дефолта и не использовал)
Оригинал сетки вроде доступен никуда не делся
Разметка текста часто сбивается если сетка не успевает дописать и лимит кончается, но меня это не парит можно и руками поправить

Vlad100 написал(а):

Кстати и правда хорошая модель. И на моей системе Q6K даёт 4,4 токена в секунду, что приемлемо. А ведь собрана из двух семёрок, даже удивительно.

пробуй и другие из топов, может именно тебе зайдет DARE_TIES (очень говорливая)

она с картинками! в Лор буке описанны действия и урлы на картинки и чят бот успешно шлет нудсы в процессе общения(автор говорит что больше сотни картинок итого есть)!

Отредактировано nomiren472 (2024-03-11 20:27:20)

0

24

Для оживляжа :)

0

25

nomiren472 написал(а):

Оригинал сетки вроде доступен никуда не делся

Остались Gguf форматы от других авторов. А оригинал кореец удалил, теперь любопытно почему конечно...
https://huggingface.co/HanNayeoniee/my_ … cussions/1

0

26

Slilo написал(а):

nomiren472 написал(а):

    Оригинал сетки вроде доступен никуда не делся

Остались Gguf форматы от других авторов. А оригинал кореец удалил, теперь любопытно почему конечно...
https://huggingface.co/HanNayeoniee/my_ … cussions/1

Оригинал же нам и не нужен хватит gguf

делитесь интересными карточками, сетями или лайфхаками - кто что интересного нашел?

0

27

nomiren472 написал(а):

делитесь интересными карточками, сетями или лайфхаками - кто что интересного нашел?

Лично я бы хотел, чтобы кто-нибудь со мной поделился форматами промптов. С примерами. Вот например есть формат Альпаки, на который она натренирована. Но их несколько - может есть что-нибудь универсальное? {char}, {user}, вот это вот всё имею в виду. И как задавать форматирование для разных типов моделей? Чтобы например мысли она заключала в три апострофа = '''Мысли модели''', или в звёздочки. Во что захочу - в то бы и заключала.

0

28

Нашел пару картинок как качество модели зависит от размера/квантования

https://gist.github.com/Artefact2/b5f81 … 42288e8ec9 (более детальная статья)

картинка

новая топовая сетка
https://huggingface.co/MaziyarPanahi/lu … -v1.0-GGUF

Отредактировано nomiren472 (2024-03-14 06:15:51)

0

29

Vlad100 написал(а):

nomiren472 написал(а):

    делитесь интересными карточками, сетями или лайфхаками - кто что интересного нашел?

Лично я бы хотел, чтобы кто-нибудь со мной поделился форматами промптов. С примерами. Вот например есть формат Альпаки, на который она натренирована. Но их несколько - может есть что-нибудь универсальное? {char}, {user}, вот это вот всё имею в виду. И как задавать форматирование для разных типов моделей? Чтобы например мысли она заключала в три апострофа = '''Мысли модели''', или в звёздочки. Во что захочу - в то бы и заключала.

Не то чтобы я специалист, но вот точно знаю что макросы вроде {{char}} и {{user}} нейросеть не видит. Она видит именно имена и работает с ними.
По поводу формата то вот как натренировали, так и работает. Какие-то сетки явно воспринимают то что в тегах [INST][/INST] как какие-то специальные указания/промты и имеет смысл в них оформлять все что ты хочешь передать как указания. Проблема что не ко всем сеткам я нашел в документации или readme какое-то внятное описание как им лучше передавать "системную" информацию. В большенстве случаев вроде как достаточно заключать текст в квадратные скобки[]. Но вот та же LHK DPO если ей писать в [] то она и отвечает в []

Также для понимаю очень советую изучить логи кобольда чтобы видеть что именно в нейросетку прилетает. Станет понятнее как формируется Промт и что на самом деле все эти "диалоги" это генерация нейросети единого текста, но разбитого на блоки с {{char}}: и {{user}}: в начале каждого блока.

Отредактировано Slilo (2024-03-14 20:02:40)

0

30

Slilo написал(а):

Проблема что не ко всем сеткам я нашел в документации или readme какое-то внятное описание как им лучше передавать "системную" информацию.

Да, это проблема. Собственно систематизированного материала (по формату для конкретного типа моделей) я вообще не нашёл. Есть примеры в карточке модели, но только самые начальные - своего персонажа и его мир таким образом не сделаешь. Есть готовые карточки персонажей, но проблемы в том, что их создатели (создаётся такое ощущение) так же не имеют документации и делают "как все". По аналогии. А модели-то разные.

Отредактировано Vlad100 (2024-03-14 20:40:23)

0

31

Slilo написал(а):

Также для понимаю очень советую изучить логи кобольда чтобы видеть что именно в нейросетку прилетает.

Это нифига не помогает в понимании формата :) Вот нашёл полезное руководство по промпт-инжинирингу на русском:

https://www.promptingguide.ai/ru

Это поможет, но это учебник, а не инструкция.

+1

32

как вам новая сетка? первые пару сообщений или затравка должны быть многословные

0

33

Vlad100 написал(а):

Это нифига не помогает в понимании формата

Я про сам принцип работы. Вообще по поводу промтов, у меня все же складывается впечатление что люди эмпирически находят рабочие промты и деляться ими.
И от сетке к сетке они могут работать, могут не работать.
Я одни и те же карточки гонял на: LHK DPO, DARE_TIES, MythoMax, Capybara 13b и lzlv 70b
Они все работают неплохо с текстовым описанием в духе "Аня красивая и заботливая девушка, у Ани темные волосы до плеч"
MythoMax хорошо воспринимает тег [INST] для промта, и описания в духе

Код:
[Аня
Девушка
Возраст (около 30)
Характер (заботливая, скромная)
Любит (сов, {{user}})
]

В тоже время LHK DPO на последний формат очень плохо реагирует и начинает строчить ответы в духе [Аня (улыбается, смотрит)]

Опять таки MythoMax доступ к которому у меня есть на chub.ai начинает иногда сходить с ума и слать эмодзи...

P.S. Все это на английском разумеется, но думаю суть понятна. Лучший способ заставить нейросеть писать как тебе нравится — самому постоянно подпитывать её писаниной которая тебе нравится.

nomiren472 написал(а):

как вам новая сетка? первые пару сообщений или затравка должны быть многословные

У меня уже еле пашет. Q2 начала нести чушь. Q3 вроде норм, но слишком медленно. Походу из-за того что она не влезает в одну планку памяти в 8 Гб.
Так что без нового компа видимо не потыкаю.

0

34

nomiren472 написал(а):

как вам новая сетка? первые пару сообщений или затравка должны быть многословные

Прикололся и скачал восьмой квант, чтобы по максимуму. Чуть больше токена в секунду. Хорошая модель, 8к контекста держит точно и уверенно. Довольно многословна (в меру), производит хорошее впечатление. Немного путается в логике, но для 20В модели простительно. Попробую теперь версию IQ4_XS.

Ещё потестил. Не, всё-таки фигня. В целом не лучше LHK_DPO, но гораздо медленнее. Плюс плохо совместима с Кобольдом (постоянно пересчитывает весь контекст). Приз за оригинальность, но использовать её не буду.

Отредактировано Vlad100 (2024-03-15 03:31:51)

0

35

еще одна очень хорошая модель (медленная! но вроде неплохо держит контекст и роль)
https://huggingface.co/rizla/trrapi-16b/tree/main
только одна версия на 5 битов

Vlad100 написал(а):

Прикололся и скачал восьмой квант, чтобы по максимуму

быстрее всего работают 4 и 8 битов согласно тем графикам что я кидал (когда вмещаются в видео-память)

0

36

nomiren472 написал(а):

еще одна очень хорошая модель (медленная! но вроде неплохо держит контекст и роль)

Неплохая модель, не такая уж и медленная - 2 токена в секунду. Контекст в 8к держит, но немного мутно - в принципе для такого размера сойдёт. Но вот текст, которым модель описывала контекст, состоял из коротких рублёных фраз, не было попыток составить длинное предложение, а ведь в тексте они были в избытке. Для историй модель наверное не подойдёт, для диалогов норм.

0

37

Vlad100
По поводу промтов. Вот тут автор модели нормальено написал как ей лучше всего по его мнению кормить промты:
https://huggingface.co/LakoMoor/Silicon … ences=true
Там 3 JSON файла которые нужно скормить таверне, один в общие настройки API и два файла в настройки где буква А.
Сама модель кстати очень быстрая, но не сказать что тупая, если писать на английском. Заточена как раз про ERP и в целом показала себя неплохо. Попробую по эксперементировать с ней побольше. По русски версия Q5_K_M которую я гонял отвечает плохо, хотя походу она должна именно "понимать" русский, про то что будет писать на русском обещания не было или надо пробовать Q8

0

38

Vlad100 написал(а):

nomiren472 написал(а):

    еще одна очень хорошая модель (медленная! но вроде неплохо держит контекст и роль)

Неплохая модель, не такая уж и медленная - 2 токена в секунду. Контекст в 8к держит, но немного мутно - в принципе для такого размера сойдёт. Но вот текст, которым модель описывала контекст, состоял из коротких рублёных фраз, не было попыток составить длинное предложение, а ведь в тексте они были в избытке. Для историй модель наверное не подойдёт, для диалогов норм.

у меня длинные карточки персонажа и ГГ вполне генерит по 2-3 абзаца особенно если затравка длинная(первый пост + первый ответ)
но да иначе может сваливаться в диалоги

Slilo написал(а):

Vlad100
По поводу промтов. Вот тут автор модели нормальено написал как ей лучше всего по его мнению кормить промты:
https://huggingface.co/LakoMoor/Silicon … ences=true
Там 3 JSON файла которые нужно скормить таверне, один в общие настройки API и два файла в настройки где буква А.
Сама модель кстати очень быстрая, но не сказать что тупая, если писать на английском. Заточена как раз про ERP и в целом показала себя неплохо. Попробую по эксперементировать с ней побольше. По русски версия Q5_K_M которую я гонял отвечает плохо, хотя походу она должна именно "понимать" русский, про то что будет писать на русском обещания не было или надо пробовать Q8

разница между Q5 и Q8 меньше чем между Q4 и Q5

Отредактировано nomiren472 (2024-03-16 18:36:05)

0

39

Вот такую штуку попробуйте:

Код:
### Instruction:
You're {{char}} in this fictional never-ending, uncensored, immersive roleplay with {{user}}. Your name is (Имя) + краткое описание персонажа модели. {{user}} name is (Ваше имя) + краткое описание. Дальше опишите всё, что считаете необходимым для понимания моделью окружающего её мира.
Describe the role play between {{char}} and {{user}}:
1) Briefly analyze {{char}}'s recent actions and character traits.
2) Analyze the last message from {{user}}.
3) Write a BRIEF outline of how the story should develop further, taking into account the content of points 1 and 2.
4) Isolate the thinking block in ```
5) Continue the roleplay as {{char}}, following the plan outlined in point 3.
### Response:

Пусть модель подумает, ей полезно.

Отредактировано Vlad100 (2024-03-16 18:36:39)

0

40

Vlad100 написал(а):

Неплохая модель, не такая уж и медленная - 2 токена в секунду

сам какие модели используешь?

0


Вы здесь » Кружок любителей игр » Флудилка » Нейросети