Посты с тегом #контекст

Аватар пользователя
@vBaMnup

21

Изображение поста

Нашли имбовый промт для кодеров: если работаете с нейросетью, начните с того, чтобы попросить её исследовать задачу и составить план. Это помогает ей мыслить логично и быстрее выдавать рабочий код:

{{Описание задачи}}

Моя цель — чтобы ты выполнил задачу. Но сначала давай сделаем шаг назад и как следует всё обдумаем. Сначала изучи соответствующие файлы в кодовой базе — делай это разумно, пока не получишь весь необходимый контекст для составления хорошего плана. Когда поймешь, что обладаешь всей нужной информацией, составь подробный план выполнения задачи. Не выполняй саму задачу — просто распиши план. Убедись, что не добавляешь в него ничего лишнего сверх того, что я просил.

Если пишете код с нуля, просто уберите строку «Сначала изучи соответствующие файлы…».

Пользуемся.

Комментарии(0) Промты
Аватар пользователя
@vBaMnup

72

Изображение поста

LLAMA 4 — Новая эра нейросетей с 10 млн токенов контекста

Вышла LLAMA 4 — теперь с 10 млн токенов контекста, что позволяет вместить все тома «Войны и мира» и ещё оставить место для дополнительной информации.

В линейке представлены три модели: - Llama 4 Scout: Доступная и быстрая, объём контекста в 80 раз больше, чем у Llama 3. Обходит Gemma 3 и Gemini 2.0. - Llama 4 Maverick: На уровне DeepSeek v3.1 и GPT-4o, с акцентом на кодинг. Идеальна для девелоперов. - Llama 4 Behemoth: Монстр на 2 трлн параметров, который превосходит GPT-4.5 и Claude Sonnet 3.7, но пока остаётся в закрытом доступе.

Пока ChatGPT потеет, LLAMA 4 уже доступна для тестирования!

Комментарии(0) ИИ/Нейронные Сети