red

Какой же отстой что Facebook пессимизирует ссылки

 У многих людей жизнь и интересы представлены в интернете. Сделал музыку, выложил на платформу прослушивания. Сделал картину выложил на сайте-галерее. Написал статью выложил на профильном сайте или сайте издания. Идёшь на мероприятие про которое узнал из мессенджера.

Но нет, не стоит просто так об этом ссылки постить в сообщение на фэйсбуке, их так увидит условные 30 человек при тестировании роботом записи и всё, а в ленту рекомендаций не попадёт. В Meta объясняют это действие как желание сохранить пользователей в экосистеме получается вытеснение — проще искать среду общения в другом месте, без робота-модератора.

Более того, если автор, который хочет рассказывать про деятельность осуществляемую вне FB, будет регулярно публиковать ссылки, рассчитывая что хоть эти 30 человек увидят — то будет сам пессимизирован и даже такого охвата н не получит. Тогда как сама платформа не предназначена для этого. Т.е. ученый и журналист не может поделиться ссылкой на статью, художник —ссылкой на галерею работ, музыкант — на альбом в сервисе. Авторам нет выгодно делиться.

По сути интерес Meta это только формат живущий в пролистывании за секунду, это рилз в широком смысле, не только видео, но и текст и картинки об которые не надо задерживаться и тем боле куда-то там переходить. Между такими сообщениями удобно вставлять и хорошо проникают в голову оплаченные публикации.

Уже много лет я не пишу специально и почти не читаю ничего в ФБ. (если вы что-то тут публикуете я скорее всего об этом не знаю). Часто я в твиттере, там алгоритм мудрее там можно делать несколько разных лент друзей и никто не ускользает. И в TG — там нет алгоритмической ленты но есть сортировка каналов. И дополнительно у меня просто 100 закладок блогов/чатов разных URL в браузерах и мессенджерах, которые я легко охватываю.

Сам ежедневно пишу и делюcь ссылками в твитор, раз в 4 дня пишу пост на свой сайт-блог, у которого есть зеркало в Телеграм. Примерно раз в полгода делаю ролик на ютуб и случается один тикток / рилз / шортс в пару месяцев. Чаще про рисование и технологии. Портреты-завтраки-природу практически не пощу (только чтобы взбодрить алгоритмы). И отдельно веду несколько соцсетей и площадок с портфолио сделанных логотипов / сайтов.

К сожалению одной народной платформы с алгоритмом релевантного дискавери, но без пессимизации, по прежнему не сформировалось. Напишите урлы вашего обитания, чтобы я знал кого где вас читать.



@VovkaSolovevRu
Источник: https://vovkasolovev.ru/?p=1205098
red

Как я делаю картинки с помощью нейросети

Друг-математик попросил меня сегодня сделать ему дидактический материал, чтобы объяснять на пальцах восьмеричную систему исчисления. Вот что получилось.

octal system 0 8

Сырьё за 15 минут получил у Дейла ChatGPT: удачный визуал, но с обрезанным 0, без четырёхпалой 2 и без 4.

Еле уговорил создать что-то похожее на 2 так, чтобы большой палец касался одного мизинца — не может Дейл сделать из 4 пальцев знак V, только из пяти пальцев. Легко сгенерил отдельно 4.

И 40 мин фотошопил c clone fill и puppet wrap.

Шрифт Ubuntu для цифр — давно считаю его подходящим для детей, у шрифта очень круглый и чёткий характер.

hands2



@VovkaSolovevRu
Источник: https://vovkasolovev.ru/?p=1204278
red

Новый логотип Audacity, мой вариант

Есть очень удачная народная программа для редактирования звука Audacity. Она долго была не очень нарядной и вот наконец за её визуальное обновление взялись. Разработичк редизайна Tantacrul выпустил инетесное видео https://youtu.be/QYM3TWf_G38?si=a8ux_tGvCJxDkzOR в  котором рассказал про новые решения, а так же показал новый логотип программы, который комментаторы оценили скорее как неудачный. Мне тоже так показалось и я захотел показать свое видение переработки логотипа. Изменение логотипа популярной программы — интересная задача.

Определил следующие условия и требования к логотипу:

Новый логотип должен быть схож с исходным логотипом: сохранить наушники и форму волны, простой шрифт и яркие синий, желтый и красный цвета. Судя по отзывам, аудитория программы считает их обязательными.

Так же новый логотип Audacity должен иметь возможность принять стиль соответствующий логотипам других программ компании Muse Group, у которых используется простая геометрия: круги и треугольники. Как и у других программ, логотип должен иметь форму буквы начала названия, то есть «a» или «A». Логотип должен хорошо смотреться в одном цвете, в контрастной цветовой комбинации бренда.

Вот результат на одной картинке. На форуме Audacity я сделал более подробную запись, с другими изображениями: 
https://forum.audacityteam.org/t/i-made-a-new-geometric-version-of-the-audacity-logo/149488?u=vovkasolovev

podhod.com audacity drib



@VovkaSolovevRu
Источник: https://vovkasolovev.ru/?p=1202819
red

Чем пахнут бренды?

У каждого бренда
запах особый:
теперь «Кока-колой»
пахнет от «Добрый»

Мимо «Стар кофе»
проходишь пешком —
пахнет «Страбаксом»
и молоком.

Покупки в «Лемане»
для мастерской
пахнут «Мерленом»
и свежей доской.

Во «Вкусно и точка»
Зайдёшь иногда —
Запах «Макдоналдс»
Имеет еда.

От йогуртов
«Логика молока»
пахнет «Даноном»,
и не слегка.

«Нескивком» пахнет
«Чудастик» и «Хрутка»
(Это названия брендов,
не шутка).

С запахом «Pepsi»
«Эверес Кола»
С запахом «Валио»
масло «Виола»

Серой поставкой
пахнет моряк…
Лишь нефть и деньги
не пахнут никак.



@VovkaSolovevRu
Источник: https://vovkasolovev.ru/?p=1202415
red

Affinity Designer, Photo и Publisher для iPad бесплатно

Affinity раздает свои приложения для iPad бесплатно сейчас. https://9to5mac.com/2025/10/02/affinity-apps-for-ipad-now-free-ahead-of-october-30-event-but-there-may-be-a-catch/ Affinity Designer самая продвинутая векторная рисовалка на планшет, рекомендую, в другие не погружался. Раздача как то связана с тем что у них эвент по поводу объединения с Canva. Т.е. возможно этим приложениям прекращают поддержку.

@VovkaSolovevRu
Источник: https://vovkasolovev.ru/?p=1201550
red

Локальные LLM, Что происходит, когда вы запускаете LLM?

¶ Копипаста. Не я автор этого текста.

Источник: https://x.com/softwarevlogger/status/1974774200612093992

Что происходит, когда вы запускаете LLM?

Работа модели по другому называется inference (вывод) или использование весов модели. Вывод — по сути предсказание следующего токена на основе вашего ввода и всех токенов сгенерированных на предыдущих шагах. Все это образует последовательность.

Токены — это не слова. Токены это кусочки обозначающие текст, который видит модель. В модели они представлены целыми числами или ID токенов. Токенизация — разбиение текста на токены. Распространенные алгоритмы: BPE (byte pair encoding), SentencePiece. Конкретные токены отличаются в разных моделях. Вот иллюстративный пример: “hello” — может быть 1-3 токена, “internationalization” 5-8 токенов.

Контекстное окно — максимальное количество токенов, которые может увидеть модель за раз. Чем больше context тем больше VRAM для KV кеша потребуется и тем медленнее будет декодировка.

В процессе вывода модель предсказывает следующий токен перемножая свои веса. Веса модели — это миллиарды выученных параметров. Параметры модели — миллиарды чисел или весов, которые модель усваивает в процессе обучения. Эти веса кодируют все что модель знает: шаблоны, язык, факты, “мышление”. Когда вы используете модель, она использует эти параметры, чтобы предугадать следующий наиболее вероятный токен. Один токен за раз. Шаг за шагом.

Т.е. модель не дает ответ, а выдает наиболее вероятные кусочки текста составляя их в цепочки пока не решит, что выдача завершена сгенерировав спец стоп токен `<|endoftext|>`

Получается цикл: модель получает ввод, выбирает следующий токен, добавляет его к выдаче и передает всю новую выдачу обратно себе на вход.

Но модель это чуть больше чем просто файл с весами:

  • Архитектура нейросети: трансформер (слои, головы внимания heads, RoPE, MQA/GQA об этом ниже)
  • Веса: миллиарды изученных чисел. Параметров, не токенов, но вычисленных из токенов
  • Токенизатор: для кодирования текста в токены. BPE/SentencePiece
  • Конфиг: метаданные, спец токены, лицензия и тд
  • Иногда шаблоны чатов необходимые для chat/instruct моделей. Иначе эти модели выдают мусор

Модели отличаются по количеству параметров:

  • 7B означает 7 миллиардов чисел
  • Чем модель больше тем она мощнее, но тем больше VRAM и вычислений требуется для ее работы
  • Модели вычисляют вероятность следующего токена (гоняя softmax по своему словарю vocab) тут у модели будет несколько токенов на выбор
  • Далее она выбирает один или с наиболее высокой вероятностью (greedy) или начинает креативить в зависимости от temperature, top-p и других настроек.
  • Потом она добавляет этот один токен к тому что у нее уже есть и повторяет заново как я и описал выше.
  • Все токены из текущей сессии находятся в KV кеше

Как модель выбирает токен (sampling):

  • greedy — выбирает самый вероятный как робот
  • temperature: немного расслабляет вероятности и позволяет модели креативить
  • top-k: выбирает из top k
  • top-p: выбирает из самой маленькой группы с вероятностями ≥p
  • Чтобы получить детерминированную выдачу — устанавливаем seed и отключаем sampling

Больше там никакой магии нет.

Большинство современных моделей основаны на архитектуре Transformer. Они специально задизайнены для последовательных данных таких как наш язык. Трансформеры могут смотреть назад на предыдущие токены чтобы решить какие из них наиболее важны для следующего предсказания. Трансформер прогоняют вывод через множество слоев уточняя вывод, используют специальные механизмы “внимания” чтобы сфокусировать предсказание на важных частях ввода и контекста. Каждый новый токен проходит через весь этот пирог.

Каждый слой состоит из:

  • Self-attention или внимание: определяет какие из токенов важны для текущего предсказания
  • MLPs (multi layer perceptrons): чтобы добавить нелинейность и перчинку
  • Стабилизация residual + norms чтобы это не развалилось и работало с глубокими сетями
  • Позиционное кодирование (RoPE) чтобы модель знала где токен находится в последовательности и не путала кота и котастрофу :-)

Накладывая десятки и сотни таких слоев трансформер пытается “понять” ваш запрос, контекст и историю разговора. Чем больше слоев в голов внимания у модели тем умнее модель.

Чтобы работать с моделью ее надо вгрузить в VRAM. Количество должно позволить вгрузить 1. Веса 2. KV кеш. Примерные формулы: FP16 — 2 байта на параметр (7B — 14Gb), 4 бита — уже 3.5Gb. Учитывайте еще 10-30% на оверхед. KV кеш стоит около 0.5 мег на токен и зависит от модели. Т.е. 4к токенов — это еще 2 гига памяти. Некоторые рантаймы позволяют квантизировать и кеш в том числе позволяя экономить большое количество памяти.

Получается, что недостаточно просто впихнуть модель в память, надо чтобы она еще где-то работала.

И чтобы она работала быстро пригодится Memory bandwidth + GPU FLOPs. Именно поэтому некоторые старые видюхи у которых шина пошире будут работать быстрее чем новые модели с более узкой шиной. Так NVIDIA RTX 2080 Ti (2018, 352-битная шина) имеет ~616 ГБ/с bandwidth и часто обходит RTX 4060/4070 (2023, 128/192-битные шины, ~288–504 ГБ/с) в LLM-задачах, несмотря на меньшее количество CUDA-ядер.

Вычисления можно переложить на CPU, но это существенно ощутимо болезненно медленнее.

Квантизация модели дает колоссальную экономию памяти зачастую при незначительной потере качества. 4-бит (NF4/GPTQ/AWQ) квантизация может быть оптимальной для потребительских GPU. Но нужно учитывать, что сложные мат задачи деградируют первыми: математика, логика и кодинг.

Рантаймы, где гонять

  • pytorch + safetensors: гибко, стандартизовано, GPU/TPU/CPU
  • GGUF (llama.cpp): CPU/GPU/portable лучший выбор для квантизации и для устройств “на крае”
  • ONNX, TensorRT-LLM, MLC: для спец оборудования
  • Избегайте bin по причинам безопасности

Компромиссы повсюду. Балансируйте компромиссы под свою задачу и бюджет.

Как раздавать

  • vLLM для параллельных запросов
  • llama.cpp server с OpenAI совместимым API
  • EXLlama v2/v2 Tabby API с OpenAI совместимым API
  • Просто как локальный скрипт через CLI

Локальная модель не значит Offline, а значит что работает на твоем железе. Твое железо может быть под столом, а может быть и в облаке.

Коротко о Fine Tuning

  • Большинство задач можно решить через правильный промт + RAG
  • Для файнтюнина необходимо раздобыть данные
  • Делаем adapter layers на LoRA/ QLoRA на своем домашнем железе если сильно хочется

Наиболее частые проблемы

  • OOM кончилась память. Квантизуем модель или сокращаем контекст
  • Плохая выдача. Проверь chat template, temperature
  • Медленно работает? Неправильные драйверы, нет FlashAttention, проверь свое железо CUDA/ROCm/Metal, влазит ли оно в память
  • Небезопасно? Не используй bin модели от рандомов из интернета

Зачем все это?

Запуская модель на своем железе вы получаете все управление в свои руки: механизм выбора токена sampling, chat templates, декодирование, системные промпты, квантизацию, контекст. Больше не платите за каждый токен. Только за железо и электричество. Приватность. Отсутствие Network latency.



@VovkaSolovevRu
Источник: https://vovkasolovev.ru/?p=1201435
red

Требине, Босния и Герцеговина

Небольшая экскурсия по городу Требенье. 19 апреля 2025 г, выходные Пасхи.
Показываю ключевые туристические места возле центре города, которые можно обойти за несколько часов, на визаран, не поднимаясь к церквям Херцеговачка Грачаница и Церковь св. Архангелов.

https://youtu.be/M7UFjRmve3E?si=6N7M3gYaAmjjNyCO?sub_confirmation=1

Маршрут: https://www.google.com/maps/d/viewer?mid=1nOLeeeqHfb-qyiZA6VgIcgEnMKSb4yY&usp=sharing

Посещаю:

  • Автостанция и кафе Kort (с официантом роботом-котом)
  • Парк Йована Дучича, памятник антифашистам 1941-1945, Фонтан
  • Требиньский рынок
  • Площадь Свободы и Площадь под платанами
  • Улица Йована Дучича и фонтанчик-чесма Гойко Шишковича
  • Каменный мост через реку Требишница
  • Музей Герцеговины и Станция голубиной почты
  • Памятник Луке Вукаловичу
  • Спортивный комплекс и бассейн Mega Gym
  • Долап (водяное колесо)
  • Мост Арсланагича
  • Кладбище
  • Начальная школа «Вук Караджич»
  • Мост Иво Андрича
  • Торговый центр Tropic и кафе Market 99
  • Городской пляж бассейн Брегови
  • Храм науки и искусства


@VovkaSolovevRu
Источник: https://vovkasolovev.ru/?p=1193785
red

Хорошая бесплатная нейросеть для генерации изображений

Записал видео-ответ на регулярный вопрос: «Какая есть хорошая бесплатная нейросеть для генерации картинок?»
Ответ: Recraft и за 15 минут показываю его базовые возможности: https://youtu.be/mg6lHDbLkus?si=y5EFeXYQxIfA3n_Q

Кратко:
— Очень удобный наглядный интерфейс: раскладывание изображений на рабочем столе
— Огромный выбор стилей для генерации изображения
— Вариации и изменение пропорций формата
— Удаление фона вокруг объектов до прозрачности
— Стирание лишних элементов, замена областей
— Генерация сетов изображений, все в одном стиле
— Качественное увеличение изображений
— Экспорт в PNG, JPG, TIFF, SVG, PDF
— Подходит для бесплатного ежедневного использования.

Всех, кто не знает что выбрать, приглашаю в RECRAFT https://vovkasolovev.ru/go/recraft



@VovkaSolovevRu
Источник: https://vovkasolovev.ru/?p=1193455
red

Как я рисовал карикатуры на Валентина Павлова и следил за ГКЧП

В 1991 году мне было 10 лет. Когда произошло ГКЧП я жил в Подмосковье, смотрел все новости на шестикнопочном телевизоре. Меня поражала карикатурность этой группы, все были какие то нелепые. Мне было понятно, что они действуют не по правилам, по ним самим это было видно. Беспокойный вайб пресс-конференции ГКЧП, на которой все не в своей тарелке, вполне считывалась десятилетним мной. 

[caption id="attachment_1190989" align="alignnone" width="1920"]Пресс-конференция ГКЧП, все кроме В. Павлова, 1991-08-19 Пресс-конференция ГКЧП, все кроме В. Павлова, 1991-08-19[/caption]

Я и  до этого следил за новостями и выборочно знал их. Самым карикатурным я воспринимал Валентина Павлова. Он выглядел как груша в очках с прической ёжик.

[caption id="attachment_1190990" align="alignnone" width="600"]2025 08 20 valentin pavlov Валентин Павлов[/caption]

Рисовал его много. Поскольку был под впечатлением от множества сборников карикатур которые меня окружали — картинок мне всегда было мало, книжки с картинками я пылесосил, один из источников были множественные сборники политической карикатуры. Не смогу найти картинку именно с моими почеркушками с Павловым. Вот примерно так карикатуру изображал, воссоздал сейчас по памяти те мои умения.
2025 08 20 vlso valentin pavlov

Если бы в те дни я знал про Фреда Флинстоуна, я бы безусловно рисовал его в таком же духе.

Выглядело это так: среди голов миккимаусов и дональдаков, на которых я бесконечно тренировал руку, вдруг мультяшная версия привлекшего мое внимание человека. Вот пример скана одного из сотни моих почеркушечных детских альбомов с каким-то другим портретом.

1990 vlso album valentin

С началом ГКЧП Павлов пропал с экранов (оказалось он забухал).  Я переживал куда это мой любимый злодей делся. Когда ГКЧП закончилось после новостей показали мультфильм студии Pilot в котором на всех этих персонажей были профессиональные карикатуры. После просмотра я почувствовал что не один в этом мире, который через такую призму смотрит на персонажей и новости. Вот этот мультик https://youtu.be/Fou8YJI5bQA?si=Otw8hGY7cW3A91EQ

После чего я пришел в художку. Про это яркое событие я рассказал учительнице. Показал как рисовать Павлова. Она ничего не поняла, она была не в курсе состава ГКЧП, не вникала в новости, не воспринимала карикатуры как рисование. Так я обнаружил что есть люди которые совсем не интересуются происходящим.



@VovkaSolovevRu
Источник: https://vovkasolovev.ru/?p=1190977