ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1109738 >"Абсолютно Непристойное Деяние" ака омни, в той же репе Это просто охуенно! Вот такую шлюху я и искал. Топ. Спасибо за рекомендацию, анончик.
AI Chatbot General № 640 /aicg/
Аноним24/03/25 Пнд 22:25:18№1110226Ответ
бля я конечно понимаю что вопрос очень тупой, но если важно описание юзера, то типо это описание нужно ставить на глубину а не просто оставлять в промпт менеджере? типо чтоб не забывали кто я такой и что шутки со мной плохи
Claude тред №2 /claude/
Аноним30/07/23 Вск 17:28:42№435536Ответ
В этом треде обсуждаем семейство нейросетей Claude. Это нейросети производства Anthropic, которые обещают быть более полезными, честными и безвредными, нежели чем существующие помощники AI.
Поиграться с моделью можно здесь, бесплатно и с регистрацией (можно регистрироваться по почте) https://claude.ai/
>>1104772 Сделали бы лимиты, как попены на о1. Ведь он у них есть уже. Или через апи хотя бы.
>>1103975 Ну переведи текст этот с помощью 3.7, 3.5, опуса, ещё и через гемини прогони.
Сразу увидишь, как клод жидко срать стал. Раньше ему одной итерации хватало, чтобы качество показать. Сейчас уже боль.
The Doctor took his seat alone at a cross table forming the top of one of the two rows of tables, set with white cups and saucers, and plates well heaped with the square pieces of bread and butter, while Mrs. Grimstone with Dulcie and Tom, sat at the foot of the same row, behind two ugly urns of dull block-tin. But when Mr. Bultitude, more hungry than he had felt for years, found his place at one of the tables, he was disgusted to find upon his plate—not, as he had confidently expected, a couple of plump poached eggs, with their appetising contrast of ruddy gold and silvery white, not a crisp and crackling sausage or a mottled omelette, not even the homely but luscious rasher, but a brace of chill forbidding sardines, lying grim and headless in bilious green oil! It was a fish he positively loathed, nor could it be reasonably expected that the confidence necessary for a declaration was to be forgotten by so sepulchral a form of nutriment. He roused himself, however, to swallow them, together with some of the thin and tin-flavoured coffee. But the meal as a whole was so different from the plentiful well-cooked breakfasts he had sat down before for years as a matter of course, that it made him feel extremely unwell. No talking was allowed during the meal. The Doctor now and then looked up from his dish of kidneys on toast (at which envious glances were occasionally cast) to address a casual remark to his wife across the long row of plates and cups, but, as a rule, the dull champing sound of boys solemnly and steadily munching was all that broke the silence.
ИТТ обсуждаем опыт нейродроча в своих настоящих задачах. Это не тред "а вот через три года" - он только для обмена реальными историями успеха, пусть даже очень локального.
Мой опыт следующий (golang). Отобрал десяток наиболее изолированных тикетов, закрыть которые можно, не зная о проекте ничего. Это весьма скромный процент от общего кол-ва задач, но я решил ограничится идеальными ситуациями. Например, "Проверить системные требования перед установкой". Самостоятельно разбил эти тикеты на подзадачи. Например, "Проверить системные требования перед установкой" = "Проверить объем ОЗУ" + "Проверить место на диске" + ... Ввел все эти подзадачи на английском (другие языки не пробовал по очевидной причине их хуевости) и тщательно следил за выводом.
Ответ убил🤭 Хотя одну из подзадач (найти кол-во ядер) нейронка решила верно, это была самая простая из них, буквально пример из мануала в одну строчку. На остальных получалось хуже. Сильно хуже. Выдавая поначалу что-то нерабочее в принципе, после длительного чтения нотаций "There is an error: ..." получался код, который можно собрать, но лучше было бы нельзя. Он мог делать абсолютно что угодно, выводя какие-то типа осмысленные результаты.
Мой итог следующий. На данном этапе нейрогенератор не способен заменить даже вкатуна со Скиллбокса, не говоря уж о джунах и, тем более, миддлах. Даже в идеальных случаях ГПТ не помог в написании кода. Тот мизерный процент решенных подзадач не стоил труда, затраченного даже конкретно на них. Но реальная польза уже есть! Чатик позволяет узнать о каких-то релевантных либах и методах, предупреждает о вероятных оказиях (например, что, узнавая кол-во ядер, надо помнить, что они бывают физическими и логическими).
И все же, хотелось бы узнать, есть ли аноны, добившиеся от сетки большего?
>>1106140 >Ни текстовые, ни картинки, ни кодовые, ни музыкальные, ни аналитические модели не проходят даже базовых тз Это другой край пиздобольства. Много где нетребовательные арты больше делаются не художниками которые и так в массе имели копейки. Также, часто нужно править арты нейросети или многое вообще ей не объяснить, но всё равно арт существенно подешевел.
С текстами та же херня - например, переводы нейросети гавно, но рандомный переводчик с биржи по моему опыту ещё тупее и хуже выдаёт. Я уж не говорю цены на пруфридинг нэйтивом, нормальным, не индусом и не с зассаными от тонн текстов глазами. Характер ошибок разный - конечно, и нейросетевые сложнее выцеплять.
Ещё пример - всякую индюшатину вроде квестов уже реально может собирать один толковый человек + библиотеки + ИИ. Да, качество кал, но многие бизнесы заёбывают кожанных мешков так что ИИ реально дешевле и лучше чем всем-давно-похуй-продакшен.
Но если ты правильно и корректно ставишь задачу и поправляешь AI падавана, то на выходе можно получить всё тоже самое, но быстрее.
Короче говоря, это кодинг, программирование только на языке высокого уровня.
``` 1. Ситуация в проекте. Если тоже прочитали это предложение голосом Коли Товеровского, ставьте класс. Пользователи регистрируются с именами, которые мы не очень хотели бы видеть у себя в продукте. Например, Чикатило, Гитлер или Филипп Киркоров. Собираем Базу Данных Стрёмных Имён (БДСИ). Она часто обновляется, поэтому хочется завернуть её в микро-сервис и дать другим сервисам АПИ, с помощью которого можно проверить имя на стрёмность. Приходит сеньор-техлид-алкоголик и запрещает выносить её в микро-сервис. Говорит, гонять хттп-запросы на каждый чих — ламерство. Говорит, будем держать локальные копии БДСИ и работать с ними. Джун, прошедший 20 курсов по вёрстке и сдавший добровольный квалификационный экзамен на веб-разработчика, пишет SQL-запрос, выгружает список стрёмных имён в JSON, git add, git commit и git push. В итоге, у нас в коде сервисов 10 копий текста из БДСИ. Что сделать. Во-первых, список и БДСИ — это данные, им не место в коде и репозитории. Во-вторых, если без локальной копии данных не обойтись, то нужно обязательно убедиться, что данные регулярно и автоматически обновляются из БДСИ. Даже если кажется, что список никогда не будет меняться, зашить его в код — плохая идея. Он 100% поменяется, вам 100% придётся писать модуль, который регулярно синхронизирует локальную версию с БДСИ. Поэтому такие задачи стоит всегда начинать с модуля, отвечающего за синхронизацию данных, а не с локальной копии, собранной вручную. Можно ли решить проблему с помощью AI и в условиях обычных серверов 8gb RAM 4-8 cores CPU? Например, написать функцию на Ruby, которая получает на вход имя, а возвращает ответ вида "bad: true, reason: 'пропаганда фашизма'". Под капотом функция Ruby обращается к своей нейронке, которая только это и умеет определять, но делает это хорошо.
2. Напиши ответ так, как будто я в чате или на форуме
3. Как сделать такую модель FastText или TF-IDF + Logistic Regression по теме моего вопроса?
4. Напиши код обучения модели на Ruby одним файлом с комментами.
5. После запуска скрипта обучающего модель, где будет хранится результат, чтобы я мог им воспользоваться другим скриптом, который получает запросы и обращается к обученной модели. Напиши такой скрипт в одном файле, чтобы после его запуска был на 0.0.0.0:3666 поднят простейший sinatra сервер с API, который бы принимал строки, обращался бы к сервису, который бы обращался бы к модели, чтобы вернуть ответ в упомянутом формате. Вместо sinatra можно взять любой другой быстрый маленький сервер.
6. Поправь только эту ошибку. А именно, при исполнении docker-compose run --rm name-classifier --train я получаю ошибку Error response from daemon: failed to create task for container: failed to create shim task: OCI runtime create failed: runc create failed: unable to start container process: error during container init: exec: "--train": executable file not found in $PATH: unknown
7. Добавь новый сервис, train, при запуске которого происходит тренировка модели. Команда должна быть docker-compose run --rm train. В результате я получаю model.yml. Команда для запуска сервера должна быть docker-compose up -d --build server. Переименуй сервис name-classifier в server для этого. Убери из Dockerfile упоминание Gemfile.lock. Используй версию ruby:latest. Вышли все исправленные упомянутые файлы.
8. Запустил сервер, получил ошибку name_classifier.rb:45:in '<main>': private method 'load' called for class Rumale::Pipeline::Pipeline (NoMethodError)
11. Поправил запуск сервера. Теперь ошибка выглядит так после запуска Successfully built b458569f7d33 Successfully tagged bad_names_server:latest Starting bad_names_server_1 ... done Attaching to bad_names_server_1 server_1 | Switch to inspect mode. server_1 | bad_names_server_1 exited with code 0
12. Вышли весь код актуальный
13. Пришли код двух файлов - один из них train_model.rb, который содержит только код обучения модели. В исходном файле name_classifier.rb этот код удали.
14. При запуске кода обучения модели я получаю ошибку train_model.rb:13:in '<main>': uninitialized constant Rumale::Preprocessing::TfIdfTransformer (NameError)
>>3223 (OP) claude сделал прогу на питоне которая переводи видео - с озвучкой - с сабами - с подгонкой таймингов
единственный минус - слишком дохуя запросов = смэрть. кодить не умею но от количества кода ахуел. ну и от того что оно работает. будущее наступило, чувак.
(хотя если честным быть то хули там, по сути он просто умеет - собирать нужные библитеки и лепить их на ходу за пару минут)
>>1105360 (OP) Кибернетика наука о контроле систем, как абстрактный метод не сможет сжиться с техническими решениями идеи и какое вообще отношение они имеют к вопросу? Конкретнее?
Игрушки с ИИ
Аноним18/03/25 Втр 12:42:18№1102933Ответ
Сегодня зашел в гугл плеи и нарвался на новенький для себя жанр игр. Ролевые текстовые игры с ИИ. Одна по днд, другая графомания где твой герой часть рассказа на выбор.
Короче мне нужно MOAR. Есть у кого похожие игрушки или приложения на примете?
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна и обоссываем калотарок.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1106843 Определенно. Всякие серверные, майнерские и другие экзотические варианты - это уже для тертых калачиков, а судя по вопросу ты не из них. Да как и я в принципе))) Так что либо наращиваем компетенции, либо пользуемся бу нвидией.
Аноны, тут программистов нет что ли, тред по сабжу не нашел, пришлось самому запилить. Расскажите какие сейчас есть актуальные модели и инструменты чтобы писали за меня код. Только давайте без очевидной чат-жопы и прочих чатботов которые способны лишь на простенькие скрипты. Нет, нейросеть должна сама уметь работать с IDE, загружать в контекст все необходимые классы проекта и при необходимости искать документацию в интернете.
Если конкретно, то мне надо писать игру под Unity на C# в Visual Studio. Какие есть интересные варианты сейчас кроме Copilot?
>>1106267 (OP) Я пробовал Copilot, Continue (плагин для VS Code) и недавно Cursor поставил.
https://www.builder.io/blog/cursor-vs-github-copilot Если сравнивать конкретно курсор и копилот, то курсор сейчас выигрывает. Там хоть те же самые модели под капотом (gpt/claude), но у него более плотный уровень интеграции со средой разработки.
Копилот мне как-то не зашёл раньше - в нём надо было контекст каждый раз вручную задавать, что было крайне неудобно; а вот курсор сейчас может сам по всему проекту искать файлы и пачками их создавать/модифицировать в рамках одного запроса. Копилот тоже постепенно обрастает фичами, но пока находится в позиции догоняющих, хотя я сейчас не особо за ним слежу.
Continue может быть интересен только тем, что его можно к локальным LLM подключить, что может быть полезно, если у тебя хороший сетап по GPU. Но лично у меня не вышло из него что-то толковое получить, поскольку там совсем слабый уровень интеграции с IDE - от подписки в $20 на курсор толку будет на порядок больше, чем от конфига под запуск 100B-123B моделей локально. Как минимум, хотя бы из-за отсутствия толкового инструментария под локальные модели, поскольку все актуальные тулзы только в SaaS.
Меряемся числом подписчиков, выясняем оптимальную стратегию по выкладыванию артов в паблик, зарабатываем на платных галереях и комишенах, пытаемся вывести деньги из-за бугра если вы являетесь жителем этой страны, бугуртим от бана нейронок на артплощадках.
Обсуждаем всё, что относится к публикации своих артов и способам их монетизации.
>>1108362 >1. Патреон не монетизирует R18 ДАЛАДНА!? Чел, ты из какой альтернативной реальности вылез? >2. Субскрайбстар - удачи тебе с регистрацией)))) Ну, тут соглашусь. Пол-года ждал, не дождался. Но те, кто пробились, вполне его используют. >3. Другие... Это те, которые работают и проверены временем. И гарантированно не отвалятся из-за непонятной причины. Если же ты хочешь продавать еблю собак и детей - ну, удачи. Главное, риски оцени, все-таки не в японии живешь.
>>1108544 Бля тебя таким образом на любой платформе пидорнуть могут. Просто соблюдай правила, учитывай риски, старайся не постить гуро лоли, и тебя никто не тронет.
>>1108733 >Просто соблюдай правила Ты про те, в которых указано что 18+ контент не поддерживается? > старайся не постить гуро лоли, и тебя никто не тронет Не постил. @ Тронули.