никто не находил ещё какие-ниюудь "халявные" бесцензурные wan2.1 генераторы? кроме тензора и флоры? И там на флоре снова вео2 снизили цену, хз правда кому оно надо.
Абоба закинь еще писика а то трясусь что не хватит Ну и было бы приятно пощупать два точка пять если возможно правда в таверну еще не добавили так что не в приоритете
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №117 /llama/
Аноним25/03/25 Втр 19:26:01№1111645Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна и обоссываем калотарок.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
А нейросетка в памяти может держать, что не написано в чатике и в системном промте? Например определенную цифру, которую ты написал в промпте, но не хочешь чтобы чар говорил о ней до определенного триггера - если не спросят или если сама не захочет после?
На любой модели кроме AnythingXL_v50 в самом конце выдаёт какую-то поломанную херню с глитчами. Вот пример. Настраивал по этому гайду https://rentry.co/2ch_nai_guide . Сделал тестовую картинку из этого-же гайда. Штука появилась как только попробовал сделать картинку самостоятельно. Знаю что ClearVae сделан под аниме, но noob же генерит в том числе и аниме, значит конфликта быть не должно. А он есть.
>>1117757 Чел? Чтобы сделать вывод про оффлайн, не нужно организовывать конфу. Тем более, что все и так друг друга знают и узнают на других ресурсах по едва уловимым намёкам толщиной в сотни генераций.
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1109738 >"Абсолютно Непристойное Деяние" ака омни, в той же репе Это просто охуенно! Вот такую шлюху я и искал. Топ. Спасибо за рекомендацию, анончик.
AI Chatbot General № 640 /aicg/
Аноним24/03/25 Пнд 22:25:18№1110226Ответ
бля я конечно понимаю что вопрос очень тупой, но если важно описание юзера, то типо это описание нужно ставить на глубину а не просто оставлять в промпт менеджере? типо чтоб не забывали кто я такой и что шутки со мной плохи
ИТТ обсуждаем опыт нейродроча в своих настоящих задачах. Это не тред "а вот через три года" - он тол
Аноним24/12/22 Суб 16:39:19№3223Ответ
ИТТ обсуждаем опыт нейродроча в своих настоящих задачах. Это не тред "а вот через три года" - он только для обмена реальными историями успеха, пусть даже очень локального.
Мой опыт следующий (golang). Отобрал десяток наиболее изолированных тикетов, закрыть которые можно, не зная о проекте ничего. Это весьма скромный процент от общего кол-ва задач, но я решил ограничится идеальными ситуациями. Например, "Проверить системные требования перед установкой". Самостоятельно разбил эти тикеты на подзадачи. Например, "Проверить системные требования перед установкой" = "Проверить объем ОЗУ" + "Проверить место на диске" + ... Ввел все эти подзадачи на английском (другие языки не пробовал по очевидной причине их хуевости) и тщательно следил за выводом.
Ответ убил🤭 Хотя одну из подзадач (найти кол-во ядер) нейронка решила верно, это была самая простая из них, буквально пример из мануала в одну строчку. На остальных получалось хуже. Сильно хуже. Выдавая поначалу что-то нерабочее в принципе, после длительного чтения нотаций "There is an error: ..." получался код, который можно собрать, но лучше было бы нельзя. Он мог делать абсолютно что угодно, выводя какие-то типа осмысленные результаты.
Мой итог следующий. На данном этапе нейрогенератор не способен заменить даже вкатуна со Скиллбокса, не говоря уж о джунах и, тем более, миддлах. Даже в идеальных случаях ГПТ не помог в написании кода. Тот мизерный процент решенных подзадач не стоил труда, затраченного даже конкретно на них. Но реальная польза уже есть! Чатик позволяет узнать о каких-то релевантных либах и методах, предупреждает о вероятных оказиях (например, что, узнавая кол-во ядер, надо помнить, что они бывают физическими и логическими).
И все же, хотелось бы узнать, есть ли аноны, добившиеся от сетки большего?
>>1106140 >Ни текстовые, ни картинки, ни кодовые, ни музыкальные, ни аналитические модели не проходят даже базовых тз Это другой край пиздобольства. Много где нетребовательные арты больше делаются не художниками которые и так в массе имели копейки. Также, часто нужно править арты нейросети или многое вообще ей не объяснить, но всё равно арт существенно подешевел.
С текстами та же херня - например, переводы нейросети гавно, но рандомный переводчик с биржи по моему опыту ещё тупее и хуже выдаёт. Я уж не говорю цены на пруфридинг нэйтивом, нормальным, не индусом и не с зассаными от тонн текстов глазами. Характер ошибок разный - конечно, и нейросетевые сложнее выцеплять.
Ещё пример - всякую индюшатину вроде квестов уже реально может собирать один толковый человек + библиотеки + ИИ. Да, качество кал, но многие бизнесы заёбывают кожанных мешков так что ИИ реально дешевле и лучше чем всем-давно-похуй-продакшен.
Но если ты правильно и корректно ставишь задачу и поправляешь AI падавана, то на выходе можно получить всё тоже самое, но быстрее.
Короче говоря, это кодинг, программирование только на языке высокого уровня.
``` 1. Ситуация в проекте. Если тоже прочитали это предложение голосом Коли Товеровского, ставьте класс. Пользователи регистрируются с именами, которые мы не очень хотели бы видеть у себя в продукте. Например, Чикатило, Гитлер или Филипп Киркоров. Собираем Базу Данных Стрёмных Имён (БДСИ). Она часто обновляется, поэтому хочется завернуть её в микро-сервис и дать другим сервисам АПИ, с помощью которого можно проверить имя на стрёмность. Приходит сеньор-техлид-алкоголик и запрещает выносить её в микро-сервис. Говорит, гонять хттп-запросы на каждый чих — ламерство. Говорит, будем держать локальные копии БДСИ и работать с ними. Джун, прошедший 20 курсов по вёрстке и сдавший добровольный квалификационный экзамен на веб-разработчика, пишет SQL-запрос, выгружает список стрёмных имён в JSON, git add, git commit и git push. В итоге, у нас в коде сервисов 10 копий текста из БДСИ. Что сделать. Во-первых, список и БДСИ — это данные, им не место в коде и репозитории. Во-вторых, если без локальной копии данных не обойтись, то нужно обязательно убедиться, что данные регулярно и автоматически обновляются из БДСИ. Даже если кажется, что список никогда не будет меняться, зашить его в код — плохая идея. Он 100% поменяется, вам 100% придётся писать модуль, который регулярно синхронизирует локальную версию с БДСИ. Поэтому такие задачи стоит всегда начинать с модуля, отвечающего за синхронизацию данных, а не с локальной копии, собранной вручную. Можно ли решить проблему с помощью AI и в условиях обычных серверов 8gb RAM 4-8 cores CPU? Например, написать функцию на Ruby, которая получает на вход имя, а возвращает ответ вида "bad: true, reason: 'пропаганда фашизма'". Под капотом функция Ruby обращается к своей нейронке, которая только это и умеет определять, но делает это хорошо.
2. Напиши ответ так, как будто я в чате или на форуме
3. Как сделать такую модель FastText или TF-IDF + Logistic Regression по теме моего вопроса?
4. Напиши код обучения модели на Ruby одним файлом с комментами.
5. После запуска скрипта обучающего модель, где будет хранится результат, чтобы я мог им воспользоваться другим скриптом, который получает запросы и обращается к обученной модели. Напиши такой скрипт в одном файле, чтобы после его запуска был на 0.0.0.0:3666 поднят простейший sinatra сервер с API, который бы принимал строки, обращался бы к сервису, который бы обращался бы к модели, чтобы вернуть ответ в упомянутом формате. Вместо sinatra можно взять любой другой быстрый маленький сервер.
6. Поправь только эту ошибку. А именно, при исполнении docker-compose run --rm name-classifier --train я получаю ошибку Error response from daemon: failed to create task for container: failed to create shim task: OCI runtime create failed: runc create failed: unable to start container process: error during container init: exec: "--train": executable file not found in $PATH: unknown
7. Добавь новый сервис, train, при запуске которого происходит тренировка модели. Команда должна быть docker-compose run --rm train. В результате я получаю model.yml. Команда для запуска сервера должна быть docker-compose up -d --build server. Переименуй сервис name-classifier в server для этого. Убери из Dockerfile упоминание Gemfile.lock. Используй версию ruby:latest. Вышли все исправленные упомянутые файлы.
8. Запустил сервер, получил ошибку name_classifier.rb:45:in '<main>': private method 'load' called for class Rumale::Pipeline::Pipeline (NoMethodError)
11. Поправил запуск сервера. Теперь ошибка выглядит так после запуска Successfully built b458569f7d33 Successfully tagged bad_names_server:latest Starting bad_names_server_1 ... done Attaching to bad_names_server_1 server_1 | Switch to inspect mode. server_1 | bad_names_server_1 exited with code 0
12. Вышли весь код актуальный
13. Пришли код двух файлов - один из них train_model.rb, который содержит только код обучения модели. В исходном файле name_classifier.rb этот код удали.
14. При запуске кода обучения модели я получаю ошибку train_model.rb:13:in '<main>': uninitialized constant Rumale::Preprocessing::TfIdfTransformer (NameError)
>>3223 (OP) claude сделал прогу на питоне которая переводи видео - с озвучкой - с сабами - с подгонкой таймингов
единственный минус - слишком дохуя запросов = смэрть. кодить не умею но от количества кода ахуел. ну и от того что оно работает. будущее наступило, чувак.
(хотя если честным быть то хули там, по сути он просто умеет - собирать нужные библитеки и лепить их на ходу за пару минут)
>>1105360 (OP) Кибернетика наука о контроле систем, как абстрактный метод не сможет сжиться с техническими решениями идеи и какое вообще отношение они имеют к вопросу? Конкретнее?
Игрушки с ИИ
Аноним18/03/25 Втр 12:42:18№1102933Ответ
Сегодня зашел в гугл плеи и нарвался на новенький для себя жанр игр. Ролевые текстовые игры с ИИ. Одна по днд, другая графомания где твой герой часть рассказа на выбор.
Короче мне нужно MOAR. Есть у кого похожие игрушки или приложения на примете?
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна и обоссываем калотарок.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1106843 Определенно. Всякие серверные, майнерские и другие экзотические варианты - это уже для тертых калачиков, а судя по вопросу ты не из них. Да как и я в принципе))) Так что либо наращиваем компетенции, либо пользуемся бу нвидией.
Аноны, тут программистов нет что ли, тред по сабжу не нашел, пришлось самому запилить. Расскажите какие сейчас есть актуальные модели и инструменты чтобы писали за меня код. Только давайте без очевидной чат-жопы и прочих чатботов которые способны лишь на простенькие скрипты. Нет, нейросеть должна сама уметь работать с IDE, загружать в контекст все необходимые классы проекта и при необходимости искать документацию в интернете.
Если конкретно, то мне надо писать игру под Unity на C# в Visual Studio. Какие есть интересные варианты сейчас кроме Copilot?
>>1106267 (OP) Я пробовал Copilot, Continue (плагин для VS Code) и недавно Cursor поставил.
https://www.builder.io/blog/cursor-vs-github-copilot Если сравнивать конкретно курсор и копилот, то курсор сейчас выигрывает. Там хоть те же самые модели под капотом (gpt/claude), но у него более плотный уровень интеграции со средой разработки.
Копилот мне как-то не зашёл раньше - в нём надо было контекст каждый раз вручную задавать, что было крайне неудобно; а вот курсор сейчас может сам по всему проекту искать файлы и пачками их создавать/модифицировать в рамках одного запроса. Копилот тоже постепенно обрастает фичами, но пока находится в позиции догоняющих, хотя я сейчас не особо за ним слежу.
Continue может быть интересен только тем, что его можно к локальным LLM подключить, что может быть полезно, если у тебя хороший сетап по GPU. Но лично у меня не вышло из него что-то толковое получить, поскольку там совсем слабый уровень интеграции с IDE - от подписки в $20 на курсор толку будет на порядок больше, чем от конфига под запуск 100B-123B моделей локально. Как минимум, хотя бы из-за отсутствия толкового инструментария под локальные модели, поскольку все актуальные тулзы только в SaaS.