Всем привет, хотели бы вы что бы на вашем компьютере хранились все знания мира и что бы вы в любой момент момент могли получить эти знания даже без интернета? Многие знают что в интернете можно получить доступ к различным ИИ чат ботам которые могут дать ответ почти на любой вопрос или могут сделать перевод с любого языка на любой как человек, или могут помочь с программированием чего либо. Возможностей у ИИ чат ботов много и они могут значительно облегчить нашу жизнь и работу. Недавно очень много шума сделал ИИ чат бот DeepSeek, он стал более простой альтернативой лучших ИИ чат ботов в мире! Все это благодаря тому что он взял выжимку всех знаний мира у других чат ботов, поэтому он требует значительно меньше вычислительных ресурсов для нормальной работы. А в связи стем что он стал меньше и требует меньше вычислительных ресурсов, теперь его можно установить на обычный домашний компьютер, вам не понадобится подключение к интернету, вам ненужно будет нигде проходить регистраций, вы сможете задавать любые вопросы без ограничений, вам ненужно будет платить и все это будет происходить на вашем локальном ПК. Сейчас я расскажу как установить все знания мира на ваш ПК.
Для этого нам понадобится программа интерпретатор которую вы можете загрузить здесь нажав кнопку скачать и не слабый компьютер. В открывшимся окне нажимаем Download LM Studio for Windows — нам нужна нужна именно она. Если у вас Линукс или Мас вы тоже можете сделать загрузку. У вас будет загружена программа LM Studio. Которая позволяет устанавливать на ваш ПК различные ИИ чат боты, корыте будут работать локально прямо с вашего ПК. Есть и другие подобные программы, например, Ollama но мне она показалась менее удобной, хоть она и поддерживает установку большего количества ИИ чат ботов. Вы можете использовать, то что вам больше нравится.
Рекомендуемые системные требования для разных LLM разные, в любом случае чем ваш компьютер мощнее тем лучше. Минимально вам нужно будет иметь на компьютере 8Гб оперативки и видеокарту на 8Гб. Процессор должен быть свежий не более 7 летней давности. Чем слабее комп тем медленнее вы будите получать ответ. Если мало оперативки, то поддерживать контекст долго не получится. Файлы с большим количеством данных могут быть вообще не обработаны.
Выполните установку программы LM Studio перейдите в раздел поиска, внизу нажмите App Settings и во второй строке выберите нужный вам язык. Потом нажмите кнопку Model Search. Вы увидите в списке различные модели ИИ чат ботов по их популярности. Но ставить первую модель мы не будем, так как для нее требуется очень мощный ПК с топовой видеокартой и огромным количеством ОЗУ. Нас интересует модель DeepSeek многие говорят что сейчас это лучшая модель ИИ бота в мире, хоть я так не считаю. Но учитывая что мы можем установить ее локально на наш ПК и пользоваться почти бесплатно, она становится лучшей. Вам не нужно платить за нее, но вы должны купить приличный ПК и платить по счетам за электричество. Установить полную модель DeepSeek мы не можем да и нам этого ненужно, поэтому мы будем ставить выжимку из выжимки и поверьте она работает прекрасно на уровне чат GPT o4! У нас есть выбор между двумя ИИ чат ботами на движках Llama и Qwen. Они схожи по количеству параметров, это около 8 миллиардов, это много. Они обе поддерживают контекст в 128 тыс токенов, чем больше тем лучше, но и ПК нужен по мощнее. По популярности они почти равны. По моему субъективному мнению Llama более прозападная, а Qwen более окитайшенная. Какую выбирать вам вы можете решить сами они, обе хороши, можете попробовать обе как и я.
В итоге я выбрал DeepSeek R1 Distill (Llama 8B). Перед загрузкой я рекомендую изменить папку хранения модели. Жмем на иконку папки, нажимаем три точки, выбираем любое удобное место под ИИ модель. Названия папки/папок должны быть на латинице, желательно без пробелов.
Загружаем модель, включаем ее, переходим в раздел чата или раздел программирования и используем все знания мира на своем ПК!
Больше историй
Настройка 3X-UI
Как сделать 301-редирект в файле .htaccess? Примеры и правила настройки
Bleeding-edge обход блокировок с полной маскировкой: настраиваем сервер и клиент XRay с XTLS-Reality быстро и просто