Форум игр +18

Кружок любителей игр

Объявление

Информация о пользователе

Привет, Гость! Войдите или зарегистрируйтесь.


Вы здесь » Кружок любителей игр » Флудилка » Нейросети


Нейросети

Сообщений 61 страница 79 из 79

61

поставил себе винду 10 поигрался с ней в общем пришел к выводу что lowvram параметр использовать совсем нельзя
надо без него и надо смотреть подбирать число слоев на видяхе и вне ее
когда удачное число слоев что на нагрузке цпу и гпу получается такая расческа из нагрузки и хорошо молотит
при этом если дать буквально на 1-2 слоя больше сильно проваливается скорость внизразница может быть увроня 8-9 токенов против 2-3 токена в секунду!
проверяйте и подбирайте под себя число слоев

две новые умные модели из топов
https://huggingface.co/models?search=Starling-LM-7B-beta gguf - эта в топе
https://huggingface.co/mradermacher/Mis … ences=true - это совсем свежий микс на базе предыдущей пока не в топе

0

62

Вот подвезли первую игру с нейронкой внутри (по сути тот же чат, но для тех кто не осилил сам поднять кобольда):
https://f95zone.to/threads/gaisha-alpha … ha.202203/

0

63

nomiren472 написал(а):

поставил себе винду 10 поигрался с ней в общем пришел к выводу что lowvram параметр использовать совсем нельзя

Это совершенно не так. В общем случае режим "normal" (по умолчанию, если lowvram не ставишь) нужно использовать только в том случае, если модель полностью влазит в видеопамять. Там есть нюансы, типа если совсем немного не хватает, то можно - но в целом lowvram это совершенно другой режим, заточенный под совместную работу процессора и ГПУ. Процессор только нужен нормальный. Вот 12400 - это нормальный :)

0

64

Я кстати интересную карточку нашёл:
https://chub.ai/characters/SpringyTwist/text-adventure

Попробуйте её с какой-нибудь хорошей RP-шной моделью.

Кстати Silly Tavern с того времени, когда я её раньше использовал, очень сильно продвинулась вперёд. Там даже есть теперь переводчик в обе стороны - то есть ты пишешь модели на русском, она получает запрос на английском, отвечает тебе на английском - а ты получаешь ответ на русском :) Не без косяков, но играть можно. Разобраться бы ещё в огромном количестве функций этой таверны...

0

65

Vlad100 написал(а):

nomiren472 написал(а):

    поставил себе винду 10 поигрался с ней в общем пришел к выводу что lowvram параметр использовать совсем нельзя

Это совершенно не так. В общем случае режим "normal" (по умолчанию, если lowvram не ставишь) нужно использовать только в том случае, если модель полностью влазит в видеопамять. Там есть нюансы, типа если совсем немного не хватает, то можно - но в целом lowvram это совершенно другой режим, заточенный под совместную работу процессора и ГПУ. Процессор только нужен нормальный. Вот 12400 - это нормальный :)

у меня с ним скорость всегда низкая! разница 2-3х
а без него на пару слоев меньше влезет но зато гораздо быстрее
надо смотреть и подбирать под себя(под железо и ось)
на одном и том же железе на 11 и на 10 винде разное число слоев влазит и скорость разная

0

66

Две топ модели на сегодня 35Б параметров
Command-R (не + а обычная версия) и Qwen

Если кто знает топ модели на 20Б+ параметров пишите - кроме luxia ни одной не знаю

0

67

Ребята, подскажите, есть ли нейросетка превращающая рисунок в фото (фотореалистичный рисунок)? Мультяшную сцену в реальную.

0

68

nomiren472 написал(а):

Две топ модели на сегодня 35Б параметров
Command-R (не + а обычная версия) и Qwen

Если кто знает топ модели на 20Б+ параметров пишите - кроме luxia ни одной не знаю

Попробуйте Lewd-Sydney-20B. Меня она приятно удивила после InfinityRP-v1-7B. Насчет "топ" не уверен конечно.

0

69

Вышел WizardLM-2. Пощупать 7B можно здесь:
https://huggingface.co/bartowski/WizardLM-2-7B-GGUF

Модель нового поколения, пока без тюнинга и с цензурой, но любопытно.

0

70

DX2
да в целом любая современная по обработке изображений. Дальше "всего лишь" нужно разобраться как подключить к ней LoRa и другие плагины чтобы загрузить базу, а затем выдать правильный ПРОМТ. Какая именно лучше всего подойдет я не знаю. У меня слишом слабое железо чтобы играться с такими штуками, а онлайн графика чет дорого стоит :-)

0

71

Третья Ллама вышла. Может в русский. Пока 8B доступна в Угабуге, но скоро добавят и в лламаспп и соответственно в Кобольд. А там и версия 70В подоспеет - очень ждём :) В смысле её уже выложили, но там работы больше.

0

72

Vlad100 написал(а):

Третья Ллама вышла. Может в русский. Пока 8B доступна в Угабуге, но скоро добавят и в лламаспп и соответственно в Кобольд. А там и версия 70В подоспеет - очень ждём :) В смысле её уже выложили, но там работы больше.

Poppy_Porpoise-v0.2-L3-8B-GGUF-IQ-Imatrix
Рабочий вариант.

Aura_Uncensored_l3_8B-GGUF-IQ-Imatrix

Отредактировано jm (2024-04-21 08:14:40)

0

73

Vlad100 написал(а):

Это совершенно не так. В общем случае режим "normal" (по умолчанию, если lowvram не ставишь) нужно использовать только в том случае, если модель полностью влазит в видеопамять. Там есть нюансы, типа если совсем немного не хватает, то можно - но в целом lowvram это совершенно другой режим, заточенный под совместную работу процессора и ГПУ. Процессор только нужен нормальный. Вот 12400 - это нормальный

Привет дай пожалуйста ссылки на норм русскую модель. А то данные тобой ранее битые уже

0

74

Илона написал(а):

Привет дай пожалуйста ссылки на норм русскую модель. А то данные тобой ранее битые уже

Говорят, что aya-23 8B ничего:
https://huggingface.co/bartowski/aya-23-8B-GGUF

И Llama3 8B вроде может, искать на huggingface.co по запросу "Llama3 8B gguf", там уже довольно много модификаций, которые может уже и плохо умеют в русский, но чистая модель должна уметь. Лично я давно забил и пользуюсь встроенным в Silly Tavern переводчиком, хоть он и далёк от совершенства. Но дело в том, что текст, генерируемый моделями тоже далёк от совершенства, поэтому модель 1) Неплохо его воспринимает и 2) Ответ в переводе достаточно адекватен.

0

75

Vlad100 написал(а):

Говорят, что aya-23 8B ничего:
https://huggingface.co/bartowski/aya-23-8B-GGUF

И Llama3 8B вроде может, искать на huggingface.co по запросу "Llama3 8B gguf", там уже довольно много модификаций, которые может уже и плохо умеют в русский, но чистая модель должна уметь. Лично я давно забил и пользуюсь встроенным в Silly Tavern переводчиком, хоть он и далёк от совершенства. Но дело в том, что текст, генерируемый моделями тоже далёк от совершенства, поэтому модель 1) Неплохо его воспринимает и 2) Ответ в переводе достаточно адекватен.

А уставливать так же, как ты в первом своем посте с бат-файлом советовал? Прописывать в бат-файл что?

0

76

Илона написал(а):

А уставливать так же, как ты в первом своем посте с бат-файлом советовал? Прописывать в бат-файл что?

От видеокарты зависит. Например для видеокарты с 8Гб видеопамяти примерно так:
koboldcpp.exe --usecublas lowvram --contextsize 8192 --blasbatchsize 512 --gpulayers 19 --flashattention --threads 8 --highpriority --model Имя_модели_нейросети.gguf

Дальше нажимаешь Ctlr+Shift+Esc, открываешь Диспетчер задач и во вкладке "Производительность-Графический процессор" смотришь потребление видеопамяти. Она должна быть загружена не более чем на 90%, если больше - закрываешь Кобольд и правишь батник, а именно уменьшаешь количество слоёв, выгружаемых на видеокарту (параметр gpulayers). Ну и наоборот, если видеопамять недогружена.

Отредактировано Vlad100 (2024-06-15 17:27:53)

0

77

этот клиент позволяет сэкономить память на кеше https://github.com/Nexesenex/kobold.cpp/releases
пример
--flashattention --quantkv 18

особенно актуально для aya/command-r

берите свежие модели мистрал / гемма 9-12B

0

78

Вышла Mistral Large 2 123B. Это событие, которого уже давно ждали. Miqu 70b (первая Mistral Large) была хороша, вот только исправить/добавить в неё ничего было нельзя. А новая версия, как говорят, не уступает большой Лламе 3.1 405В, которая при таких размерах особо никому не нужна. Теперь ждём файнтюнов, децензоров и всего такого.

0

79

nomiren472 написал(а):

--quantkv 18

Из хелпа: --quantkv [quantization level 0/1/2], где 0 - 16-битный кэш, оригинальный, 1 - 8-битный кэш и 2 - 4-битный кэш. Выигрыш к сожалению только в занимаемой кэшем памяти, скорость обработки остаётся прежней. Ну и с качеством могут быть проблемы. Плюс при использовании quantkv перестаёт работать context shift.

Отредактировано Vlad100 (2024-07-24 22:05:07)

0


Вы здесь » Кружок любителей игр » Флудилка » Нейросети