У DemensDeum уже несколько месяцев как есть представительство в Telegram, подписывайтесь!
Канал на русском
https://t.me/demensdeum_channel
Канал на английском
https://t.me/demensdeum_channel_en
Soft & Games
У DemensDeum уже несколько месяцев как есть представительство в Telegram, подписывайтесь!
Канал на русском
https://t.me/demensdeum_channel
Канал на английском
https://t.me/demensdeum_channel_en
За пару дней с помощью Antigravity перенес бэк Масоны-ДР (Masonry-AR) с PHP + MySQL на Node.js + MongoDB + Redis -> Docker. Возможности ИИ действительно поражают, помню как в 2022 году через ChatGPT писал простейшие шейдеры на shadertoy.com и казалось что эта игрушка больше ничего не сможет выше.
https://www.shadertoy.com/view/cs2SWm
Спустя четыре года я смотрю как оно в ~10 промптов играючи перекинула мой проект с одной бэк платформы на другую, добавив контейнеризацию.
https://mediumdemens.vps.webdock.cloud/masonry-ar/
Круто, действительно круто.
Идеальное сочетание ретро-технологий и древнего фольклора. В облаченном в костюм и с трезубцем в руках, этот 8-битный злодей готов к блокчейну.
https://opensea.io/item/ethereum/0x008d50b3b9af49154d6387ac748855a3c62bf40d/7
Noski — это облегчённая асинхронная реализация SOCKS5-прокси-сервера, написанная на Rust. Она построена с использованием среды выполнения Tokio для высокопроизводительного неблокирующего ввода-вывода. Также существуют механизмы обхода DPI и шифрование с помощью клиента Noski под названием Pyatki.
https://github.com/demensdeum/Noski
Ретро-технологии встречаются с дистопичным стритвиром. Этот уникальный пиксель-арт (1/1) изображает культового персонажа с телевизором вместо головы (TV-Head), транслирующего Око Провидения.
https://opensea.io/item/ethereum/0x008d50b3b9af49154d6387ac748855a3c62bf40d/6
Стартую Demensdeum Coding Challenge #2:
1. Нужно навайбкодить веб-приложение для вывода списка вечеринок/мероприятий в зоне нахождения пользователя.
2. Источником данных может служить скраппинг веба с фронта, либо локальная/удаленная база данных.
3. Показывать мероприятия/вечеринки на карте только на сегодня.
4. Можно менять радиус поиска.
5. Сдавать в виде последовательности текстовых промптов, которые можно воспроизвести в бесплатных кодогенераторах, например Google AI Studio.
6. Должно работать в вебе для iOS, Android, PC
7. Лучший дизайн победит
8. Вывод подробной информации о мероприятии по тапу на мероприятие на карте.
9. Зум карты пальцами, мышью.
10. Победителя выбирает жюри (напишите мне для участия в жюри)
11. Приз 200 USDT
12. Срок сдачи 1 июля.
Победитель прошлого DemensDeum Coding Challenge #1
https://demensdeum.com/blog/ru/2025/06/03/demensdeum-code-challenge-1-winner/
В игру Masonry-AR добавлена возможность покупать монеты за криптовалюту! За 1$ можно получить 5000 MOS. Также в игру добавлены референсные ссылки, за каждую покупку друга, рефер получает 50000 MOS. Подробности в Масонской Вики. Также добавлен режим автоходьбы когда нет доступа к модулю GPS, масон начинает идти от одной из столиц мира автоматически, только вперед.

Ссылка на игру:
https://demensdeum.com/demos/masonry-ar/client/
“Donkey Adept” — это потрясающее, электризующее произведение пиксельного сюрреализма. В центре — фигура в чёрной кожаной куртке, голова которой представляет собой пылающий, охваченный статикой телевизор с огненными ослиными ушами. Субъект держит мощный фонарь, выступая одиноким стражем, который ищет истину среди всеобщего шума. Это яростное размышление в ретро-стиле о медиа, безумии и неустанном поиске света.
https://opensea.io/item/ethereum/0x008d50b3b9af49154d6387ac748855a3c62bf40d/5
[Дополняется]
Энтропия в программировании это мощная, но часто незаметная сила, которая определяет вариативность и непредсказуемость поведения программного обеспечения. От простых багов до сложных дедлоков, энтропия является причиной того, что наши программы не всегда ведут себя так, как мы ожидаем.
Энтропия в программном обеспечении — это мера неожиданных исходов работы алгоритмов. Пользователь воспринимает 1эти исходы как ошибки или баги, но с точки зрения машины алгоритм выполняет ровно те инструкции, которые в него заложил программист. Неожиданное поведение возникает из-за огромного количества возможных комбинаций входных данных, состояний системы и взаимодействий.
Причины энтропии:
* Изменение состояния (Mutable State): Когда объект может изменять свои внутренние данные, результат его работы становится зависимым от всей истории его использования.
* Сложность алгоритмов: По мере роста программы, количество возможных путей выполнения кода растёт экспоненциально, что делает предсказание всех исходов практически невозможным.
* Внешние факторы: Операционная система, другие программы, сетевые задержки — всё это может повлиять на выполнение вашего кода, создавая дополнительные источники вариативности.
Причины энтропии:
* Изменение состояния (Mutable State): Когда объект может изменять свои внутренние данные, результат его работы становится зависимым от всей истории его использования.
* Сложность алгоритмов: По мере роста программы, количество возможных путей выполнения кода растёт экспоненциально, что делает предсказание всех исходов практически невозможным.
* Внешние факторы: Операционная система, другие программы, сетевые задержки — всё это может повлиять на выполнение вашего кода, создавая дополнительные источники вариативности.
В своей работе “Global Variables Considered Harmful” (1973) W.A. Wulf и M. Shaw показали, что глобальные переменные — это один из главных источников непредсказуемого поведения. Они создают неявные зависимости и побочные эффекты, которые сложно отследить и контролировать, что является классическим проявлением энтропии.
Идею роста сложности программных систем прекрасно сформулировал Мэнни Леман в своих Законах эволюции программного обеспечения. Два из них напрямую отражают концепцию энтропии:
Используемая компьютерная программа будет модифицирована. Это утверждение говорит о том, что программное обеспечение не статично. Оно живёт, развивается и меняется, чтобы соответствовать новым требованиям и окружению. Каждый новый “виток” жизни программы — это потенциальный источник энтропии.
Когда компьютерная программа модифицируется, её сложность увеличивается, при условии что никто этому не препятствует. Этот закон — прямое следствие энтропии. Без целенаправленных усилий по управлению сложностью, каждая новая модификация вносит в систему дополнительную вариативность и непредсказуемость. Появляются новые зависимости, состояния и побочные эффекты, которые увеличивают вероятность возникновения багов и неочевидного поведения.
В сфере искусственного интеллекта и больших языковых моделей (LLM) энтропия проявляется особенно остро, поскольку здесь мы имеем дело с недетерминированными алгоритмами. В отличие от традиционных программ, где один и тот же вход всегда даёт один и тот же выход, LLM могут выдавать разные ответы на один и тот же запрос.
Это создает огромную проблему: корректность работы алгоритма может быть подтверждена только на определённом, ограниченном наборе входных данных с помощью автотестов. Но при работе с неизвестными входными данными (запросами от пользователей) поведение модели становится непредсказуемым.
Ненормативная лексика и расистские высказывания: Известные случаи, когда чат-боты, такие как Tay от Microsoft или Grok от xAI, после обучения на данных из интернета начинали генерировать оскорбительные или расистские высказывания. Это стало следствием энтропии: неизвестные входные данные в сочетании с огромным объёмом обучающей выборки привели к непредсказуемому и некорректному поведению.
Незаконные обращения: Подобные проблемы возникают, когда нейросеть начинает выдавать контент, нарушающий авторские права или этические нормы.
ИИ-боты в играх: Внедрение ИИ-персонажей в игры с возможностью обучения, например, в Fortnite, привело к тому что ИИ бота пришлось отключать на время и добавлять ватчдоги для слежения за корректностью активности, недопущения противоправных действий со стороны LLM бота.
Плохо написанный код и обходные решения
Технический долг представляет собой сознательный или бессознательный компромисс, при котором приоритет отдается быстрой доставке в ущерб долгосрочной поддерживаемости и качеству. Быстрые исправления и недокументированные обходные решения, часто реализуемые в сжатые сроки, накапливаются, образуя “минное поле”. Это делает кодовую базу чрезвычайно чувствительной даже к незначительным изменениям, поскольку становится трудно отличить преднамеренные обходные решения от фактической ошибочной логики, что приводит к неожиданным регрессиям и увеличению количества ошибок.
Это демонстрирует прямой, кумулятивный эффект технического долга на распространение ошибок и целостность алгоритмов, где каждое принятое в настоящее время сокращение пути приводит к более сложным и частым ошибкам в будущем.
Когда программные системы не тестируются тщательно, они значительно более подвержены ошибкам и неожиданному поведению. Эта неадекватность позволяет ошибкам накапливаться с течением времени, создавая систему, которую трудно поддерживать и которая очень восприимчива к дальнейшим ошибкам. Пренебрежение тестированием с самого начала не только увеличивает технический долг, но и напрямую способствует увеличению количества ошибок. “Теория разбитых окон” в программной энтропии предполагает, что незначительные, игнорируемые ошибки или проблемы проектирования могут накапливаться со временем и приводить к более серьезным проблемам и снижению качества программного обеспечения.
Это устанавливает прямую причинно-следственную связь: отсутствие тестирования приводит к накоплению ошибок, что приводит к увеличению энтропии, что приводит к более сложным и частым ошибкам, напрямую влияя на корректность и надежность алгоритмов.
Надлежащая документация часто игнорируется при разработке программного обеспечения, что приводит к фрагментации или потере знаний о том, как работает система и как ее поддерживать. Это вынуждает разработчиков “обратно проектировать” систему для внесения изменений , значительно увеличивая вероятность недопонимания и некорректных модификаций, что напрямую приводит к ошибкам. Это также серьезно затрудняет адаптацию новых разработчиков, поскольку критическая информация недоступна или вводит в заблуждение.
Программная энтропия возникает из-за “нехватки знаний” и “расхождения между общими предположениями и фактическим поведением существующей системы”. Это более глубокое организационное наблюдение: энтропия проявляется не только на уровне кода, но и на уровне знаний. Эти неформализованные, неявные знания хрупки и легко теряются (например, при уходе членов команды ), что напрямую приводит к ошибкам при попытке модификаций, особенно новыми членами команды, тем самым ставя под угрозу целостность алгоритмической логики, поскольку ее основные допущения перестают быть ясными.
Человеческий фактор является значительным, часто недооцениваемым, движущим фактором программной энтропии. Различные навыки, стили кодирования и ожидания качества среди разработчиков приводят к несоответствиям и отклонениям в исходном коде. Отсутствие стандартизированных процессов для линтинга, обзоров кода, тестирования и документации усугубляет эту проблему. Кроме того, неясное или нестабильное владение кодом, когда несколько команд владеют частью кода или никто не владеет, приводит к пренебрежению и увеличению распада, что приводит к дублированию компонентов, выполняющих одну и ту же функцию по-разному, распространяя ошибки.
Это показывает, что энтропия является не только технической проблемой, но и социотехнической, глубоко укоренившейся в организационной динамике и поведении человека. “Коллективная несогласованность”, возникающая из-за непоследовательных практик и фрагментированного владения, напрямую приводит к несоответствиям и дефектам, делая систему непредсказуемой и трудной в управлении, что сильно влияет на целостность алгоритмов.
Современные программные системы часто сложны и сильно взаимосвязаны. В таких системах высокая степень сложности и тесно связанные компоненты увеличивают вероятность каскадных сбоев, когда отказ одного компонента вызывает цепную реакцию сбоев в других. Это явление усугубляет влияние ошибок и неправильного поведения алгоритмов, превращая локализованные проблемы в системные риски. Результаты работы алгоритмов в таких системах становятся очень уязвимыми для сбоев, возникающих далеко от их прямого пути выполнения, что приводит к широко распространенным некорректным результатам.
Архитектурная сложность, прямое проявление энтропии, может превратить изолированные алгоритмические ошибки в широкомасштабные системные сбои, делая общую систему ненадежной, а ее выходные данные — ненадежными. Это подчеркивает необходимость архитектурной устойчивости для сдерживания распространения энтропийных эффектов.
Один из последних примеров – известная остановка работы аэропортов в Америке и Европе из-за появления Синего Экрана Смерти после обновления антивирусного программного обеспечения в 2024 году, ошибочный исход алгоритма антивируса и операционной системы привел к остановке авиасообщения в мире.
Давайте рассмотрим простой пример с текстовым полем, которое ограничено 32 байтами.
Если поле принимает только ASCII-символы, каждый символ занимает 1 байт. Таким образом, в поле помещается ровно 32 символа. Любой другой символ просто не будет принят.
@startuml
title Пример с ASCII (низкая энтропия)
actor Пользователь
participant “Текстовое поле” as TextField
Пользователь -> TextField: Вводит 32 символа ASCII
TextField -> TextField: Проверяет длину (32 байта)
note right
Все хорошо.
end note
TextField -> Пользователь: Принимает ввод
@enduml
Теперь наша программа их 80-х попадает в 2025 год. Когда поле принимает UTF-8, каждый символ может занимать от 1 до 4 байт. Если пользователь вводит строку, превышающую 32 байта, система может обрезать её некорректно. Например, эмодзи занимает 4 байта. Если обрезка происходит внутри символа, то мы получаем “поломанный” символ.
@startuml
title Пример с UTF-8 (высокая энтропия)
actor Пользователь
participant “Текстовое поле” as TextField
Пользователь -> TextField: Вводит “Привет” (37 байт)
TextField -> TextField: Обрезает строку до 32 байт
note right
Неожиданно! Символ
обрезан по байтам.
end note
TextField -> Пользователь: Отображает “Привет”
note left
Некорректный символ.
end note
@enduml
Здесь энтропия проявляется в том, что одна и та же операция обрезки для разных входных данных приводит к непредсказуемым и некорректным результатам.
Даже в казалось бы стабильных технологиях, как CSS, энтропия может возникнуть из-за разной интерпретации стандартов.
Представьте, что разработчик применил user-select: none; ко всем элементам, чтобы отключить выделение текста.
Браузер 10 делает исключение для полей ввода. Таким образом, несмотря на флаг, пользователь может вводить данные.
@startuml
title Браузер 10
actor Пользователь
participant “Браузер 10” as Browser10
Пользователь -> Browser10: Ввод в input
Browser10 -> Browser10: Проверяет CSS
note right
-user-select: none;
Проигнорировано для input
end note
Browser10 -> Пользователь: Разрешает ввод
@enduml
Разработчики нового браузера решили строго следовать спецификации, применив правило ко всем элементам без исключений.
@startuml
title Браузер 11
actor Пользователь
participant “Браузер 11” as Browser11
Пользователь -> Browser11: Ввод в input
Browser11 -> Browser11: Проверяет CSS
note right
-user-select: none;
Применено ко всем элементам, включая input
end note
Browser11 -> Пользователь: Отказывает во вводе
note left
Пользователь не может ничего
напечатать.
end note
@enduml
Это классический пример энтропии — одно и то же правило приводит к разным результатам в зависимости от “системы” (версии браузера).
Неоднозначное техническое задание (ТЗ) — ещё один мощный источник энтропии. Когда два разработчика, Боб и Алиса, по-разному понимают одно и то же требование, это приводит к несовместимым реализациям.
ТЗ: “Реализовать генератор чисел Фибоначчи. Для оптимизации, список сгенерированных чисел должен кешироваться внутри генератора.”
Ментальная модель Боба (ООП с изменяемым состоянием)
Боб сосредоточился на фразе “список… должен кешироваться”. Он реализовал класс, который хранит одно и то же состояние (self.sequence) и наращивает его при каждом вызове.
def __init__(self):
self.sequence = [0, 1]
def generate(self, n):
if n <= len(self.sequence):
return self.sequence
while len(self.sequence) < n:
next_num = self.sequence[-1] + self.sequence[-2]
self.sequence.append(next_num)
return self.sequence
Алиса сосредоточилась на фразе "возвращает последовательность". Она написала чистую функцию, которая возвращает новый список каждый раз, используя кеш лишь как внутреннюю оптимизацию.
sequence = [0, 1]
if n <= 2:
return sequence[:n]
while len(sequence) < n:
next_num = sequence[-1] + sequence[-2]
sequence.append(next_num)
return sequence
Когда Алиса начинает использовать генератор Боба, она ожидает, что generate(5) всегда вернёт 5 чисел. Но если перед этим Боб вызывал generate(8) на том же объекте, Алиса получит уже 8 чисел.
Итог: Энтропия здесь — это следствие несовпадения ментальных моделей. Изменяемое состояние в реализации Боба делает систему непредсказуемой для Алисы, которая ожидает поведения чистой функции.
В многопоточном программировании энтропия проявляется особенно сильно. Несколько потоков выполняются одновременно, и порядок их выполнения непредсказуем. Это может привести к состоянию гонки (race condition), когда результат зависит от того, какой поток первым получит доступ к общему ресурсу. Крайний случай — дедлок, когда два или более потока ждут друг друга, и программа зависает.
Пример решения дедлока:
Проблема дедлока возникает, когда два или более потока блокируют друг друга, ожидая освобождения ресурса. Решение — установить единый, фиксированный порядок захвата ресурсов, например, блокировать их по возрастанию ID. Это исключает циклическое ожидание, предотвращая дедлок.
@startuml
title Решение: Единый порядок блокировки
participant "Поток 1" as Thread1
participant "Поток 2" as Thread2
participant "Счёт A" as AccountA
participant "Счёт B" as AccountB
Thread1 -> AccountA: Блокирует счёт A
note over Thread1
Следует правилу:
блокируем по ID
end note
Thread2 -> AccountA: Ждёт, пока счёт A освободится
note over Thread2
Следует правилу:
ждет блокировки A
end note
Thread1 -> AccountB: Блокирует счёт B
Thread1 -> AccountA: Освобождает счёт A
Thread1 -> AccountB: Освобождает счёт B
note over Thread1
Транзакция завершена
end note
Thread2 -> AccountA: Блокирует счёт A
Thread2 -> AccountB: Блокирует счёт B
note over Thread2
Транзакция завершается
end note
@enduml
Этот подход — упорядоченная блокировка (lock ordering) — является фундаментальной стратегией предотвращения дедлоков в параллельном программировании.
Отлично, давайте разберем, как изменяемое состояние в ООП-подходе увеличивает энтропию, на примере отрисовки на canvas, и сравним это с чистой функцией.
Когда объект имеет изменяемое состояние, его поведение становится непредсказуемым. Результат вызова одного и того же метода зависит не только от его аргументов, но и от всей истории взаимодействия с этим объектом. Это вносит энтропию в систему.
Рассмотрим два подхода к отрисовке прямоугольника на canvas: один в ООП-стиле с изменяемым состоянием, другой — в функциональном, с чистой функцией.
1. ООП-подход: Класс с изменяемым состоянием
Здесь мы создаем класс Cursor, который хранит свое внутреннее состояние, в данном случае — цвет. Метод draw будет рисовать прямоугольник, используя это состояние.
constructor(initialColor) {
// Внутреннее состояние объекта, которое может меняться
this.color = initialColor;
}
// Метод для изменения состояния
setColor(newColor) {
this.color = newColor;
}
// Метод с побочным эффектом: он использует внутреннее состояние
draw(ctx, rect) {
ctx.fillStyle = this.color;
ctx.fillRect(rect.x, rect.y, rect.width, rect.height);
}
}
// Использование
const myCursor = new Cursor('red');
const rectA = { x: 10, y: 10, width: 50, height: 50 };
const rectB = { x: 70, y: 70, width: 50, height: 50 };
myCursor.draw(ctx, rectA); // Используется начальный цвет: red
myCursor.setColor('blue'); // Изменяем состояние курсора
myCursor.draw(ctx, rectB); // Используется новое состояние: blue
UML-диаграмма ООП-подхода:
Эта диаграмма наглядно показывает, что вызов метода draw дает разные результаты, хотя его аргументы могут не меняться. Это происходит из-за отдельного вызова setColor, который изменил внутреннее состояние объекта. Это классическое проявление энтропии в изменяемом состоянии.
title ООП-подход
actor "Программист" as Programmer
participant "Класс Cursor" as Cursor
participant "Canvas" as Canvas
Programmer -> Cursor: Создает new Cursor('red')
note left
- Инициализирует состояние
с цветом 'red'.
end note
Programmer -> Cursor: draw(ctx, rectA)
note right
- Метод draw использует
внутреннее состояние
объекта (цвет).
end note
Cursor -> Canvas: Рисует 'red' прямоугольник
Programmer -> Cursor: setColor('blue')
note left
- Изменяет внутреннее состояние!
- Это побочный эффект.
end note
Programmer -> Cursor: draw(ctx, rectB)
note right
- Тот же метод draw,
но с другим результатом
из-за измененного состояния.
end note
Cursor -> Canvas: Рисует 'blue' прямоугольник
@enduml
2. Функциональный подход: Чистая функция
Здесь мы используем чистую функцию. Её задача — просто нарисовать прямоугольник, используя все необходимые данные, которые ей передаются. Она не имеет своего состояния, и её вызов не будет влиять ни на что за её пределами.
// Функция принимает все необходимые данные как аргументы
ctx.fillStyle = color;
ctx.fillRect(rect.x, rect.y, rect.width, rect.height);
}
// Использование
const rectA = { x: 10, y: 10, width: 50, height: 50 };
const rectB = { x: 70, y: 70, width: 50, height: 50 };
drawRectangle(ctx, rectA, 'red'); // Рисуем первый прямоугольник
drawRectangle(ctx, rectB, 'blue'); // Рисуем второй прямоугольник
UML-диаграмма функционального подхода:
Эта диаграмма показывает, что функция drawRectangle всегда получает цвет извне. Её поведение полностью зависит от входных параметров, что делает её чистой и с низким уровнем энтропии.
@startuml
title Функциональный подход
actor "Программист" as Programmer
participant "Функция\n drawRectangle" as DrawFunc
participant "Canvas" as Canvas
Programmer -> DrawFunc: drawRectangle(ctx, rectA, 'red')
note right
- Вызов с аргументами:
- ctx
- rectA (координаты)
- 'red' (цвет)
- Функция не имеет состояния.
end note
DrawFunc -> Canvas: Заливает цветом 'red'
Programmer -> DrawFunc: drawRectangle(ctx, rectB, 'blue')
note right
- Вызов с новыми аргументами:
- ctx
- rectB (координаты)
- 'blue' (цвет)
end note
DrawFunc -> Canvas: Заливает цветом 'blue'
@enduml
В примере с чистой функцией поведение полностью предсказуемо, так как функция не имеет состояния. Вся информация для работы передается через аргументы, что делает ее изолированной и безопасной. В ООП-подходе с изменяемым состоянием на поведение метода draw может влиять вся история взаимодействия с объектом, что вносит энтропию и делает код менее надежным.
Разбиение сложных систем на более мелкие, независимые, самодостаточные модули упрощает проектирование, разработку, тестирование и обслуживание. Каждый модуль обрабатывает определенную функциональность и взаимодействует через четко определенные интерфейсы, уменьшая взаимозависимости и способствуя разделению ответственности. Этот подход улучшает читаемость, упрощает обслуживание, облегчает параллельную разработку и упрощает тестирование и отладку путем изоляции проблем. Критически важно, что это уменьшает "радиус поражения" ошибок, сдерживая дефекты в отдельных модулях и предотвращая каскадные сбои. Архитектура микросервисов является мощной реализацией модульности.
Модульность — это не просто способ организации кода, но и фундаментальный подход к сдерживанию дефектов и повышению устойчивости. Ограничивая влияние ошибки одним модулем, модульность повышает общую устойчивость системы к энтропийному распаду, гарантируя, что одна точка отказа не скомпрометирует корректность всего приложения. Это позволяет командам сосредоточиться на меньших, более управляемых частях системы, что приводит к более тщательному тестированию и более быстрому обнаружению и исправлению ошибок.
KISS (Keep It Simple, Stupid):
Эта философия дизайна выступает за простоту и ясность, активно избегая ненужной сложности. Простой код по своей сути легче читать, понимать и модифицировать, что напрямую приводит к снижению склонности к ошибкам и улучшению поддерживаемости. Сложность явно определяется как питательная среда для ошибок.
KISS — это не просто эстетическое предпочтение, а намеренный выбор дизайна, который уменьшает поверхность атаки для ошибок и делает код более устойчивым к будущим изменениям, тем самым сохраняя корректность и предсказуемость алгоритмов. Это проактивная мера против энтропии на детальном уровне кода.
DRY (Don't Repeat Yourself):
Принцип DRY направлен на уменьшение повторения информации и дублирования кода, заменяя его абстракциями или используя нормализацию данных. Его основное положение заключается в том, что "каждый фрагмент знаний должен иметь единое, недвусмысленное, авторитетное представление в системе". Этот подход устраняет избыточность, что, в свою очередь, уменьшает несоответствия и предотвращает распространение ошибок или их непоследовательное исправление в нескольких экземплярах дублированной логики. Он также упрощает поддержку и отладку кодовой базы.
Дублирование кода приводит к непоследовательным изменениям, что, в свою очередь, приводит к ошибкам. DRY предотвращает это, обеспечивая единый источник истины для логики и данных, что напрямую способствует корректности алгоритмов, гарантируя, что общая логика ведет себя единообразно и предсказуемо по всей системе, предотвращая тонкие, трудноотслеживаемые ошибки.
Этот мнемонический акроним представляет пять фундаментальных принципов проектирования (единая ответственность, открытость/закрытость, подстановка Лискова, разделение интерфейсов, инверсия зависимостей), имеющих решающее значение для создания объектно-ориентированных проектов, которые являются понятными, гибкими и поддерживаемыми. Придерживаясь SOLID, программные сущности становятся легче поддерживаемыми и адаптируемыми, что приводит к меньшему количеству ошибок и более быстрым циклам разработки. Они достигают этого путем упрощения обслуживания (SRP), обеспечения масштабируемого добавления функций без модификации (OCP), обеспечения поведенческой согласованности (LSP), минимизации связности (ISP) и повышения гибкости за счет абстракции (DIP).
Принципы SOLID обеспечивают целостный подход к структурной целостности, который делает систему по своей сути более устойчивой к каскадным эффектам изменений. Способствуя модульности, разделению и четким обязанностям, они предотвращают каскадные ошибки и сохраняют корректность алгоритмов даже по мере непрерывной эволюции системы, действуя как фундаментальные меры по борьбе с энтропией.
Domain-Driven Design (DDD) — это не просто философия, а полноценная методология, предлагающая конкретные паттерны для разбиения приложения на домены, что позволяет эффективно управлять сложностью и бороться с энтропией. DDD помогает превратить хаотичную систему в набор предсказуемых, изолированных компонентов.
Книга "Design Patterns: Elements of Reusable Object-Oriented Software" (1994), написанная "Бандой Четырёх" (GoF), предложила набор проверенных решений для типичных проблем. Эти паттерны являются отличными инструментами для борьбы с энтропией, так как они создают структурированные, предсказуемые и управляемые системы.
Один из ключевых эффектов паттернов — создание единого понятийного аппарата. Когда разработчик в одной команде говорит о "Фабрике" или "Одиночке", его коллеги сразу понимают, о какой структуре кода идёт речь. Это значительно снижает энтропию в коммуникации, потому что:
Уменьшается двусмысленность: Паттерны имеют четкие названия и описания, что исключает разное толкование, как в примере с Бобом и Алисой.
Ускоряется онбординг: Новые члены команды быстрее вливаются в проект, так как им не нужно угадывать логику, стоящую за сложными структурами.
Облегчается рефакторинг: Если нужно изменить часть системы, построенную по паттерну, разработчик уже знает, как она устроена и какие части можно безопасно модифицировать.
Примеры паттернов GoF и их влияние на энтропию:
Паттерн "Стратегия" (Strategy): Позволяет инкапсулировать различные алгоритмы в отдельные классы и делать их взаимозаменяемыми. Это снижает энтропию, так как позволяет менять поведение системы, не изменяя её основной код.
Паттерн "Команда" (Command): Инкапсулирует вызов метода в объект. Это позволяет отложить выполнение, ставить команды в очередь или отменять их. Паттерн снижает энтропию, так как отделяет отправителя команды от её получателя, делая их независимыми.
Паттерн "Наблюдатель" (Observer): Определяет зависимость "один-ко-многим", при которой изменение состояния одного объекта автоматически оповещает всех зависимых от него. Это помогает управлять побочными эффектами, делая их явными и предсказуемыми, а не хаотичными и скрытыми.
Паттерн "Фабричный метод" (Factory Method): Определяет интерфейс для создания объектов, но позволяет подклассам решать, какой класс инстанцировать. Это снижает энтропию, так как позволяет гибко создавать объекты без необходимости знать конкретные классы, уменьшая связанность.
Эти паттерны помогают программистам создавать более предсказуемые, тестируемые и управляемые системы, тем самым уменьшая энтропию, которая неизбежно возникает в сложных проектах.
Ограниченные контексты (Bounded Contexts): Этот паттерн является фундаментом DDD. Он предлагает делить большую систему на небольшие, автономные части. Каждый контекст имеет свою собственную модель, словарь терминов (Ubiquitous Language) и логику. Это создает строгие границы, которые предотвращают распространение изменений и побочных эффектов. Изменение в одном ограниченном контексте, например, в "Контексте заказов", не повлияет на "Контекст доставки".
Агрегаты (Aggregates): Агрегат — это кластер связанных объектов (например, "Заказ", "Строки заказа"), который рассматривается как единое целое. У агрегата есть один корневой объект (Aggregate Root), который является единственной точкой входа для всех изменений. Это обеспечивает консистентность и гарантирует, что состояние агрегата всегда остаётся целостным. Изменяя агрегат только через его корневой объект, мы контролируем, как и когда происходит изменение состояния, что значительно снижает энтропию.
Службы предметной области (Domain Services): Для операций, которые не относятся к какому-либо конкретному объекту предметной области (например, перевод денег между счетами), DDD предлагает использовать доменные службы. Они координируют действия между несколькими агрегатами или объектами, но не хранят состояние сами. Это делает логику более прозрачной и предсказуемой.
События предметной области (Domain Events): Вместо прямого вызова методов из разных контекстов, DDD предлагает использовать события. Когда что-то важное происходит в одном контексте, он "публикует" событие. Другие контексты могут подписываться на это событие и реагировать на него. Это создает слабую связанность (loose coupling) между компонентами, что делает систему более масштабируемой и устойчивой к изменениям.
DDD помогает управлять энтропией, создавая четкие границы, строгие правила и изолированные компоненты. Это превращает сложную, запутанную систему в набор независимых, управляемых частей, каждая из которых имеет свой собственный "закон" и предсказуемое поведение.
Поддержание подробной и актуальной документации об изменениях кода, проектных решениях, архитектурных диаграммах и руководствах пользователя имеет первостепенное значение. Эта "живая документация" помогает разработчикам понять тонкости системы, отслеживать изменения и правильно вносить будущие модификации или исправлять ошибки. Она значительно сокращает время, потраченное на "повторное открытие" или обратное проектирование системы , которые являются распространенными источниками ошибок.
Программная энтропия возникает из-за "нехватки знаний" и "расхождения между общими предположениями и фактическим поведением существующей системы". Документация выступает не просто как справочник, а как
критический механизм сохранения знаний, который напрямую борется с "энтропией знаний". Делая неявные знания явными и доступными, она уменьшает недопонимания и вероятность внесения ошибок из-за некорректных допущений о поведении алгоритмов или взаимодействиях системы, тем самым защищая функциональную корректность.
Автоматизированное тестирование: Модульное, интеграционное, системное и регрессионное тестирование
Автоматизированное тестирование является незаменимым инструментом для смягчения программной энтропии и предотвращения ошибок. Оно позволяет раннее обнаружение проблем, гарантируя, что изменения кода не нарушают существующую функциональность , и обеспечивает быструю, последовательную обратную связь. Ключевые типы включают модульные тесты (для изолированных компонентов), интеграционные тесты (для взаимодействий между модулями), системные тесты (для полной интегрированной системы) и регрессионные тесты (для обеспечения того, чтобы новые изменения не приводили к повторному появлению старых ошибок). Автоматизированное тестирование значительно снижает человеческий фактор и повышает надежность.
Автоматизированное тестирование является основной защитой от накопления скрытых дефектов. Оно активно "сдвигает" обнаружение ошибок "влево" в цикле разработки , что означает, что проблемы обнаруживаются тогда, когда их исправление является наиболее дешевым и простым, предотвращая их вклад в эффект снежного кома энтропии. Это напрямую влияет на корректность алгоритмов, постоянно проверяя ожидаемое поведение на нескольких уровнях детализации.
Разработка через тестирование (TDD) — это процесс разработки программного обеспечения, который включает написание тестов для кода до написания самого кода. Этот итеративный цикл "красный-зеленый-рефакторинг" способствует быстрой обратной связи, позволяя раннее обнаружение ошибок и значительно снижая риск возникновения сложных проблем на более поздних этапах разработки. Было показано, что TDD приводит к меньшему количеству ошибок и оптимальному качеству кода , хорошо согласуясь с философией DRY (Don't Repeat Yourself). Эмпирические исследования IBM и Microsoft показывают, что TDD может сократить плотность ошибок до выпуска на впечатляющие 40-90%. Тестовые примеры также служат живой документацией.
TDD действует как проактивный контроль качества, встроенный непосредственно в процесс разработки. Заставляя разработчиков определять ожидаемое поведение до реализации, он минимизирует внесение логических ошибок и гарантирует, что код создается целенаправленно для соответствия требованиям, напрямую улучшая корректность и предсказуемость алгоритмов с самого начала.
Непрерывная интеграция и доставка (CI/CD): Ранняя обратная связь и стабильные релизы
Практики CI/CD являются основополагающими для современной разработки программного обеспечения, помогая выявлять ошибки на ранних стадиях, ускорять разработку и обеспечивать бесперебойный процесс развертывания. Частая интеграция небольших пакетов кода в центральный репозиторий позволяет раннее обнаружение ошибок и непрерывное улучшение качества кода посредством автоматизированных сборок и тестов. Этот процесс обеспечивает быструю обратную связь, позволяя разработчикам оперативно и эффективно устранять проблемы, а также значительно повышает стабильность кода, предотвращая накопление непроверенного или нестабильного кода.
Конвейеры CI/CD функционируют как непрерывный механизм снижения энтропии. Автоматизируя интеграцию и тестирование, они предотвращают накопление проблем интеграции, обеспечивают постоянно развертываемое состояние и предоставляют немедленную видимость регрессий. Этот систематический и автоматизированный подход напрямую противодействует беспорядку, вносимому непрерывными изменениями, поддерживая стабильность алгоритмов и предотвращая распространение ошибок по всей системе.
Рефакторинг — это процесс реструктуризации существующего кода для улучшения его внутренней структуры без изменения его внешнего поведения. Это прямое средство борьбы с программным гниением и снижения сложности. Хотя рефакторинг обычно считается способом уменьшения количества ошибок, важно признать, что некоторые рефакторинги могут непреднамеренно вносить новые ошибки , что требует строгого тестирования. Однако исследования в целом подтверждают, что рефакторированный код менее подвержен ошибкам, чем нерефакторированный. Инкрементальный рефакторинг, при котором управление долгом интегрируется в текущий процесс разработки, а не откладывается, имеет решающее значение для предотвращения экспоненциального накопления технического долга.
Рефакторинг — это намеренное действие по снижению энтропии , проактивная реструктуризация кода, чтобы сделать его более устойчивым к изменениям, тем самым уменьшая вероятность будущих ошибок и улучшая ясность алгоритмов. Он превращает реактивное тушение пожаров в проактивное управление структурным здоровьем.
Ведение актуального бэклога технического долга является критически важной практикой для систематического управления и устранения технического долга. Этот бэклог служит всеобъемлющим реестром выявленных элементов технического долга и областей, требующих улучшения, гарантируя, что эти проблемы не будут упущены из виду. Он позволяет руководителям проектов приоритизировать элементы долга на основе их серьезности воздействия и потенциальных рисков. Интеграция бэклога в сроки проекта гарантирует, что рефакторинг, исправление ошибок и очистка кода являются регулярными частями ежедневного управления проектом, снижая долгосрочные затраты на погашение.
Бэклог технического долга превращает абстрактную, растущую проблему в управляемый, действенный набор задач. Этот систематический подход позволяет организациям принимать обоснованные компромиссы между разработкой новых функций и инвестициями в качество, предотвращая незаметное накопление долга, которое может привести к критическим ошибкам или деградации производительности алгоритмов. Он обеспечивает видимость и контроль над ключевой энтропийной силой.
Статический анализ
Эта техника включает в себя анализ исходного кода без его выполнения для выявления таких проблем, как ошибки, запахи кода, уязвимости безопасности и нарушения стандартов кодирования. Он служит "первой линией защиты" , выявляя проблемы на ранних этапах жизненного цикла разработки, улучшая общее качество кода и сокращая технический долг путем выявления проблемных шаблонов до того, как они проявятся как ошибки во время выполнения.
Статический анализ действует как автоматизированная "полиция качества кода". Выявляя потенциальные проблемы (включая те, которые влияют на алгоритмическую логику) до выполнения, он предотвращает их проявление в виде ошибок или архитектурных недостатков. Это масштабируемый способ обеспечения стандартов кодирования и выявления распространенных ошибок, которые способствуют программной энтропии.
Динамический анализ
Этот метод оценивает поведение программного обеспечения во время выполнения, предоставляя ценные сведения о проблемах, которые проявляются только во время выполнения. Он превосходно обнаруживает ошибки во время выполнения, такие как утечки памяти, состояния гонки и исключения нулевого указателя, а также узкие места в производительности и уязвимости безопасности.
Динамический анализ критически важен для выявления поведенческих недостатков во время выполнения, которые невозможно обнаружить статическим анализом. Объединение статического и динамического анализа обеспечивает комплексное представление о структуре и поведении кода, позволяя командам выявлять дефекты до того, как они перерастут в серьезные проблемы.
Мониторинг производства и управление инцидентами
APM (Application Performance Monitoring):
APM-инструменты предназначены для мониторинга и оптимизации производительности приложений. Они помогают выявлять и диагностировать сложные проблемы производительности, а также обнаруживать первопричины ошибок, тем самым сокращая потери доходов от простоев и деградации. APM-системы отслеживают различные метрики, такие как время отклика, использование ресурсов и частота ошибок, предоставляя информацию в реальном времени, которая позволяет проактивно решать проблемы до того, как они затронут пользователей.
APM-инструменты критически важны для проактивного решения проблем и поддержания уровней обслуживания. Они обеспечивают глубокую видимость в производственной среде, позволяя командам быстро выявлять и устранять проблемы, которые могут повлиять на корректность алгоритмов или вызвать ошибки, тем самым минимизируя время простоя и улучшая пользовательский опыт.
Наблюдаемость (логи, метрики, трассировки):
Наблюдаемость относится к способности анализировать и измерять внутренние состояния систем на основе их выходных данных и взаимодействий между активами. Три основных столпа наблюдаемости — метрики (количественные данные о производительности и использовании ресурсов), логи (подробные хронологические записи событий) и трассировки (отслеживание потока запросов через компоненты системы). Вместе они помогают выявлять и решать проблемы, предоставляя всестороннее понимание поведения системы. Наблюдаемость выходит за рамки традиционного мониторинга, помогая понять "неизвестные неизвестные" и улучшая время безотказной работы приложений.
Наблюдаемость позволяет командам гибко исследовать происходящее и быстро определять первопричину проблем, которые они, возможно, не могли предвидеть. Это обеспечивает более глубокое, гибкое и проактивное понимание поведения системы, позволяя командам быстро выявлять и устранять непредвиденные проблемы и поддерживать высокую доступность приложений.
Анализ первопричин (RCA)
Анализ первопричин (RCA) — это структурированный, основанный на данных процесс, который выявляет фундаментальные причины проблем в системах или процессах, позволяя организациям внедрять эффективные, долгосрочные решения, а не просто устранять симптомы. Он включает в себя определение проблемы, сбор и анализ соответствующих данных (например, метрик, логов, временных шкал), определение причинных и сопутствующих факторов с использованием таких инструментов, как "5 почему" и диаграммы Исикавы, а также разработку и реализацию корректирующих действий. RCA имеет решающее значение для предотвращения повторного возникновения проблем и обучения на инцидентах.
RCA имеет решающее значение для долгосрочного предотвращения проблем и обучения на инцидентах. Систематически выявляя и устраняя основные причины, а не только симптомы, организации могут предотвратить повторное возникновение ошибок и сбоев алгоритмов, тем самым снижая общую энтропию системы и повышая ее надежность.
Управление ошибками в Agile:
В среде Agile управление ошибками является критически важным, и рекомендуется выделять время в спринтах для их исправления. Ошибки следует регистрировать в едином бэклоге продукта и связывать с соответствующей историей для облегчения анализа первопричин и улучшения кода в последующих спринтах. Команды должны стремиться исправлять ошибки как можно скорее, желательно в текущем спринте, чтобы предотвратить их накопление. Сбор статистики ошибок (количество решенных, количество зарегистрированных, часы, затраченные на исправление) помогает получить представление о качестве кода и улучшить процессы.
Это подчеркивает важность немедленных исправлений, анализа первопричин и непрерывного улучшения. Гибкие методологии обеспечивают фреймворк для проактивного управления ошибками, предотвращая их вклад в энтропию системы и поддерживая корректность алгоритмов посредством постоянной проверки и адаптации.
Практики DevOps способствуют снижению дефектов программного обеспечения и улучшению качества посредством нескольких ключевых подходов. Они включают в себя развитие культуры сотрудничества и безошибочного общения, принятие непрерывной интеграции и доставки (CI/CD), настройку автоматизированного тестирования, сосредоточение внимания на наблюдаемости и метриках, избегание ручной работы с помощью автоматизации, включение безопасности на ранних этапах жизненного цикла разработки и обучение на инцидентах. Эти практики уменьшают количество ошибок, улучшают качество и способствуют постоянному совершенствованию.
DevOps способствует непрерывному совершенствованию и снижению энтропии за счет автоматизации, быстрой обратной связи и культуры общей ответственности. Интегрируя процессы разработки и эксплуатации, DevOps создает среду, в которой проблемы выявляются и устраняются быстро, предотвращая их накопление и деградацию систем, что напрямую поддерживает целостность алгоритмов.
Программная энтропия — это неизбежная сила, которая постоянно стремится к деградации программных систем, особенно в контексте корректности алгоритмов и возникновения ошибок. Это не просто физическое старение, а динамическое взаимодействие между кодом, его средой и человеческими факторами, которые постоянно вносят беспорядок. Основные движущие силы этого распада включают растущую сложность, накопление технического долга, неадекватную документацию, постоянно меняющиеся внешние среды и непоследовательные методы разработки. Эти факторы напрямую приводят к некорректным результатам работы алгоритмов, потере предсказуемости и увеличению количества ошибок, которые могут каскадно распространяться по взаимосвязанным системам.
Борьба с программной энтропией требует многогранного, непрерывного и проактивного подхода. Недостаточно просто исправлять ошибки по мере их возникновения; необходимо систематически устранять основные причины, которые их порождают. Принятие принципов модульного проектирования, чистого кода (KISS, DRY, SOLID) и комплексной документации является фундаментальным для создания устойчивых систем, которые по своей сути менее подвержены энтропии. Строгое автоматизированное тестирование, разработка через тестирование (TDD) и непрерывная интеграция/доставка (CI/CD) действуют как критически важные механизмы раннего обнаружения и предотвращения дефектов, постоянно проверяя и стабилизируя кодовую базу.
Кроме того, систематическое управление техническим долгом посредством инкрементального рефакторинга и ведения бэклогов технического долга, а также использование инструментов статического и динамического анализа кода, позволяет организациям активно выявлять и устранять проблемные области до того, как они приведут к критическим сбоям. Наконец, надежный мониторинг производства с помощью APM-инструментов и платформ наблюдаемости, в сочетании с дисциплинированным анализом первопричин и гибкими командными практиками, обеспечивает быстрое реагирование на возникающие проблемы и создает цикл непрерывного улучшения.
В конечном счете, обеспечение целостности алгоритмов и минимизация ошибок в условиях программной энтропии — это не единовременное усилие, а постоянное обязательство по поддержанию порядка в динамичной и постоянно меняющейся среде. Применяя эти стратегии, организации могут значительно повысить надежность, предсказуемость и долговечность своих программных систем, гарантируя, что алгоритмы будут функционировать так, как задумано, даже по мере их эволюции.
На текущий момент все популярные провайдеры сервисов LLM используют fine-tune с помощью файлов в формате jsonl, в которых описаны входы и выходы модели, с небольшими вариациями, например для Gemini, OpenAI, формат немного отличается.
После загрузки специально сформированного jsonl файла, начинается процесс специализации LLM модели на указанном датасете, для всех текущих известных провайдеров LLM сервисов эта услуга платная.
Для fine-tune на локальной машине с использованием ollama, я рекомендую опираться на подробное видео от YouTube канала Tech With Tim – EASIEST Way to Fine-Tune a LLM and Use It With Ollama:
https://www.youtube.com/watch?v=pTaSDVz0gok
Пример Jupyter ноутбука с подготовкой jsonl датасета из экспорта всех сообщений Telegram и запуска процесса локального fine-tune, доступен здесь:
https://github.com/demensdeum/llm-train-example
React Native зарекомендовал себя как мощный инструмент для кроссплатформенной разработки мобильных и веб-приложений. Он позволяет создавать нативные приложения для Android и iOS, а также веб-приложения, используя единую кодовую базу на JavaScript/TypeScript.
В основе архитектуры React Native лежат нативные биндинги из JavaScript/TypeScript. Это означает, что основная бизнес-логика и вёрстка приложения пишутся на JavaScript или TypeScript. Когда требуется доступ к специфическому нативному функционалу (например, камере устройства или GPS), используются эти нативные биндинги, которые позволяют вызывать код, написанный на Swift/Objective-C для iOS или Java/Kotlin для Android.
Важно отметить, что результирующие платформы могут различаться по функционалу. Например, определённый функционал может быть доступен только для Android и iOS, но не для Web, или наоборот, в зависимости от нативных возможностей платформы.
Конфигурация нативных биндингов осуществляется через ключ plugins. Для стабильной и безопасной разработки критически важно использовать последние версии компонентов React Native и всегда обращаться к актуальной документации. Это помогает избежать проблем совместимости и использовать все преимущества последних обновлений.
React Native может генерировать в отдельные папки результирующие проекты для конкретных платформ (например, папки android и ios). Это позволяет разработчикам, при необходимости, патчить файлы результирующих проектов вручную для тонкой оптимизации или специфических настроек, что особенно полезно для сложных приложений, требующих индивидуального подхода к производительности.
Для типовых и простых приложений часто достаточно использовать Expo бандл со встроенными нативными биндингами. Однако, если приложение обладает сложным функционалом или требует глубокой кастомизации, рекомендуется использовать кастомные сборки React Native.
Одним из ключевых преимуществ React Native является поддержка hot reload для TypeScript/JavaScript кода во время разработки. Это значительно ускоряет процесс разработки, так как изменения кода моментально отображаются в приложении, позволяя разработчику видеть результат в реальном времени.
Также React Native поддерживает “тихие” обновления (silent update) в обход процессов ревью Google Play и Apple App Store, но это применимо только к TypeScript/JavaScript коду. Это позволяет оперативно выпускать исправления ошибок или небольшие обновления функционала без необходимости проходить полный цикл публикации через магазины приложений.
Важно понимать, что TS/JS код биндится на конкретную версию нативных зависимостей с помощью фингерпринтинга, что обеспечивает согласованность между JavaScript/TypeScript частью и нативной частью приложения.
Хотя кодогенерация с помощью LLM (Large Language Models) возможна, её пригодность не всегда высока из-за потенциально устаревших датасетов, на которых обучались модели. Это означает, что сгенерированный код может не соответствовать последним версиям React Native или лучшим практикам.
React Native продолжает развиваться, предлагая разработчикам гибкий и эффективный способ создания кроссплатформенных приложений. Он объединяет скорость разработки с возможностью доступа к нативным функциям, делая его привлекательным выбором для многих проектов.
Туториалы для RaidenVideoRipper про то как извлекать звук из видео с помощью RaidenVideoRipper, делать gif из фрагментов видео:
https://www.youtube.com/watch?v=T_6Bm-1RWN8
https://www.youtube.com/watch?v=7x8LFlVjzKs
В мире разработки интерфейсов существует расхожее понятие – “pixel perfect вёрстка”. Оно подразумевает максимально точное воспроизведение дизайн-макета до мельчайшего пикселя. Долгое время это было золотым стандартом, особенно в эру классического веб-дизайна. Однако с приходом декларативной вёрстки и стремительным ростом разнообразия устройств, принцип “pixel perfect” становится всё более эфемерным. Попробуем разобраться, почему.
Традиционно многие интерфейсы, особенно десктопные, создавались с помощью императивных подходов или WYSIWYG (What You See Is What You Get) редакторов. В таких инструментах дизайнер или разработчик напрямую манипулирует элементами, располагая их на холсте с точностью до пикселя. Это похоже на работу с графическим редактором – вы видите, как ваш элемент выглядит, и можете точно его позиционировать. В этом случае достижение “pixel perfect” было вполне реальной целью.
Однако современная разработка всё чаще опирается на декларативную вёрстку. Это означает, что вы не говорите компьютеру “помести эту кнопку сюда”, а описываете, что вы хотите получить. Например, вместо того чтобы указывать конкретные координаты элемента, вы описываете его свойства: “эта кнопка должна быть красной, иметь отступы 16px со всех сторон и находиться в центре контейнера”. Фреймворки вроде React, Vue, SwiftUI или Jetpack Compose как раз и используют этот принцип.
Представьте себе, что вы создаёте приложение, которое должно одинаково хорошо выглядеть на iPhone 15 Pro Max, Samsung Galaxy Fold, iPad Pro и телевизоре с разрешением 4K. Каждое из этих устройств имеет разное разрешение экрана, плотность пикселей, соотношение сторон и физические размеры.
Когда вы используете декларативный подход, система сама решает, как отобразить ваш описанный интерфейс на конкретном устройстве, учитывая все его параметры. Вы задаёте правила и зависимости, а не жёсткие координаты.
* Адаптивность и Отзывчивость: Основная цель декларативной вёрстки — создать адаптивные и отзывчивые интерфейсы. Это значит, что ваш интерфейс должен автоматически подстраиваться под размер и ориентацию экрана, не ломаясь и сохраняя читаемость. Если бы мы стремились к “pixel perfect” на каждом устройстве, нам пришлось бы создавать бесчисленное количество вариантов одного и того же интерфейса, что полностью нивелирует преимущества декларативного подхода.
* Плотность Пикселей (DPI/PPI): Устройства имеют разную плотность пикселей. Один и тот же элемент, имеющий размер 100 “виртуальных” пикселей, на устройстве с высокой плотностью будет выглядеть гораздо меньше, чем на устройстве с низкой плотностью, если не учитывать масштабирование. Декларативные фреймворки абстрагируются от физических пикселей, работая с логическими единицами.
* Динамический Контент: Контент в современных приложениях часто бывает динамическим – его объём и структура могут меняться. Если бы мы жёстко привязывались к пикселям, любое изменение текста или изображения привело бы к “разваливанию” макета.
* Различные Платформы: Помимо разнообразия устройств, существуют и разные операционные системы (iOS, Android, Web, Desktop). Каждая платформа имеет свои гайдлайны по дизайну, стандартные элементы управления и шрифты. Попытка сделать абсолютно идентичный, “pixel perfect” интерфейс на всех платформах привела бы к неестественному виду и плохому пользовательскому опыту.
Важно понимать, что подход к вёрстке интерфейсов не является бинарным выбором между “императивным” и “декларативным”. Исторически для каждой платформы существовали свои инструменты и подходы к созданию интерфейсов.
* Нативные Интерфейсные Файлы: Для iOS это были XIB/Storyboards, для Android – XML-файлы разметки. Эти файлы представляют собой pixel-perfect WYSIWYG верстку, которая затем отображается в рантайме также как и в редакторе. Этот подход никуда не исчез, он продолжает развиваться, интегрируясь с современными декларативными фреймворками. Например, SwiftUI в Apple и Jetpack Compose в Android ступили на путь чисто декларативного кода, но при этом сохранили возможность использовать классическую верстку.
* Гибридные Решения: Часто в реальных проектах используется комбинация подходов. Например, базовая структура приложения может быть реализована декларативно, а для специфических, требующих точного позиционирования элементов, могут применяться более низкоуровневые, императивные методы или же подключаться нативные компоненты, разработанные с учётом специфики платформы.
Мир цифровых интерфейсов претерпел колоссальные изменения за последние десятилетия. От стационарных компьютеров с фиксированными разрешениями мы пришли к эпохе экспоненциального роста разнообразия пользовательских устройств. Сегодня наши приложения должны одинаково хорошо работать на:
* Смартфонах всех форм-факторов и размеров экрана.
* Планшетах с их уникальными режимами ориентации и разделенного экрана.
* Ноутбуках и десктопах с различными разрешениями мониторов.
* Телевизорах и медиацентрах, управляемых дистанционно. Примечательно, что даже для телевизоров, пульты которых могут быть простыми, как Apple TV Remote с минимумом кнопок, или наоборот, перегруженными множеством функций, современные требования к интерфейсам таковы, что код не должен требовать специфической адаптации под эти особенности ввода. Интерфейс должен работать “как бы сам собой”, без дополнительного описания того, “как” именно взаимодействовать с конкретным пультом.
* Умных часах и носимых устройствах с минималистичными экранами.
* Шлемах виртуальной реальности (VR), требующих совершенно нового подхода к пространственному интерфейсу.
* Устройствах дополненной реальности (AR), накладывающих информацию на реальный мир.
* Автомобильных информационно-развлекательных системах.
* И даже бытовой технике: от холодильников с сенсорными экранами и стиральных машин с интерактивными дисплеями до умных духовок и систем “умного дома”.
Каждое из этих устройств имеет свои уникальные особенности: физические размеры, соотношение сторон, плотность пикселей, методы ввода (сенсорный экран, мышь, контроллеры, жесты, голосовые команды) и, что немаловажно, тонкости пользовательского окружения. Например, VR-шлем требует глубокого погружения, а смартфон — быстрой и интуитивной работы на ходу, тогда как интерфейс холодильника должен быть максимально простым и крупным для быстрой навигации.
В эпоху доминирования десктопов и первых мобильных устройств, обычным делом было создание и поддержка отдельных интерфейсных файлов или даже полностью отдельного интерфейсного кода для каждой платформы.
* Разработка под iOS часто требовала использования Storyboards или XIB-файлов в Xcode, написания кода на Objective-C или Swift.
* Для Android создавались XML-файлы разметки и код на Java или Kotlin.
* Веб-интерфейсы верстались на HTML/CSS/JavaScript.
* Для C++ приложений на различных десктопных платформах использовались свои специфические фреймворки и инструментарии:
* В Windows это были MFC (Microsoft Foundation Classes), Win32 API с ручной отрисовкой элементов или с использованием ресурсных файлов для диалоговых окон и элементов управления.
* В macOS применялись Cocoa (Objective-C/Swift) или старые Carbon API для прямого управления графическим интерфейсом.
* В Linux/Unix-подобных системах часто использовались библиотеки вроде GTK+ или Qt, которые предоставляли свой набор виджетов и механизмы для создания интерфейсов, нередко через XML-подобные файлы разметки (например, .ui файлы в Qt Designer) или прямое программное создание элементов.
Этот подход обеспечивал максимальный контроль над каждой платформой, позволяя учитывать все её специфические особенности и нативные элементы. Однако у него был огромный недостаток: дублирование усилий и колоссальные затраты на поддержку. Малейшее изменение в дизайне или функциональности требовало внесения правок в несколько, по сути, независимых кодовых баз. Это превращалось в настоящий кошмар для команд разработчиков, замедляя выход новых функций и увеличивая вероятность ошибок.
Именно в ответ на это стремительное усложнение и появилась декларативная вёрстка как доминирующая парадигма. Фреймворки вроде React, Vue, SwiftUI, Jetpack Compose и других представляют собой не просто новый способ написания кода, а фундаментальный сдвиг в мышлении.
Основная идея декларативного подхода: вместо того чтобы говорить системе “как” отрисовывать каждый элемент (императивно), мы описываем “что” мы хотим увидеть (декларативно). Мы задаём свойства и состояние интерфейса, а фреймворк сам решает, как наилучшим образом отобразить его на конкретном устройстве.
Это стало возможно благодаря следующим ключевым преимуществам:
1. Абстракция от Деталей Платформы: Декларативные UI фреймворки специально разработаны, чтобы забыть о низкоуровневых деталях отрисовки и специфике каждой платформы. Разработчик описывает компоненты и их взаимосвязи на более высоком уровне абстракции, используя единый, переносимый код.
2. Автоматическая Адаптация и Отзывчивость: Фреймворки берут на себя ответственность за автоматическое масштабирование, изменение макета и адаптацию элементов под различные размеры экранов, плотности пикселей и методы ввода. Это достигается за счёт использования гибких систем компоновки, таких как Flexbox или Grid, и концепций, подобных “логическим пикселям” или “dp” (density-independent pixels).
3. Согласованность Пользовательского Опыта: Несмотря на внешние различия, декларативный подход позволяет поддерживать единую логику поведения и взаимодействия по всему семейству устройств. Это упрощает процесс тестирования и обеспечивает более предсказуемый пользовательский опыт.
4. Ускорение Разработки и Снижение Затрат: С одним и тем же кодом, способным работать на множестве платформ, значительно снижаются время и стоимость разработки и поддержки. Команды могут сосредоточиться на функциональности и дизайне, а не на многократном переписывании одного и того же интерфейса.
5. Готовность к Будущему: Способность абстрагироваться от специфики текущих устройств делает декларативный код более устойчивым к появлению новых типов устройств и форм-факторов. Фреймворки могут быть обновлены для поддержки новых технологий, а ваш уже написанный код получит эту поддержку относительно бесшовно.
Декларативная вёрстка — это не просто модное веяние, а необходимый эволюционный шаг, вызванный бурным развитием пользовательских устройств, включая и сферу интернета вещей (IoT) и умной бытовой техники. Она позволяет разработчикам и дизайнерам создавать сложные, адаптивные и единообразные интерфейсы, не утопая в бесконечных специфических реализациях для каждой платформы. Переход от императивного контроля над каждым пикселем к декларативному описанию желаемого состояния — это признание того, что в мире будущего интерфейсы должны быть гибкими, переносимыми и интуитивно понятными вне зависимости от того, на каком экране они отображаются.
Программистам, дизайнерам и пользователям необходимо научиться жить в этом новом мире. Лишние детали “pixel perfect” дизайна, привязанные к конкретному устройству или разрешению, приводят к ненужным временным затратам на разработку и поддержку. Более того, такие жёсткие макеты могут просто не отработать на устройствах с нестандартными интерфейсами, таких как телевизоры с ограниченным вводом, VR- и AR-шлемы, а также другие устройства будущего, о которых мы сегодня ещё даже не догадываемся. Гибкость и адаптивность – вот ключи к созданию успешных интерфейсов в современном мире.
Подведение итогов DemensDeum Challenge 1.
Наш победитель – вариант от snkbp95 написанный вручную на ассемблере – размер исполняемого файла 50кб вместе с картинкой.
Поздравляем победителя!
https://github.com/snkbp95/DemensDeum-Coding-Challenge-1/
Хочу поделиться своим новым проектом — NFT-коллекцией “Demens TV Heads”.

Это серия цифровых арт-работ, в них отражены люди разных характеров и профессий, в стиле логотипа DemensDeum.
Первая работа – Fierce “Грозный” это стилизованный автопортрет.
Планирую выпустить всего 12 NFT, по одной каждый месяц.
Каждая работа существует не только в Ethereum-блокчейне, но и доступна на сайте DemensDeum и в GitHub-репозитории, вместе с метаданными.
Если интересно — посмотреть или просто оценить визуально, буду рад:
https://opensea.io/collection/demens-tv-heads
https://github.com/demensdeum/demens-tv-heads-collection
https://demensdeum.com/collections/demens-tv-heads/fierce.png
https://demensdeum.com/collections/demens-tv-heads/fierce-metadata.txt

Кто он — этот загадочный, эфемерный, почти мифический Суперпрограммист? Человек, чей код компилируется с первого раза, запускается с полпинка и сразу уходит в прод. Легенда, передаваемая в байтах от сеньора к джуну. Тот, кто пишет баги специально, чтобы другим было не скучно. Давайте честно, с теплом и иронией разберёмся, какими сверхспособностями он должен обладать, чтобы носить этот цифровой плащ.
1. Пишет на C/C++ без единой уязвимости
buffer overflow? never heard of it.
У Суперпрограммиста в C++ нет неинициализированных переменных — они сами инициализируются от уважения. Он пишет new char[256], и компилятор молча добавляет проверку границ. Где другие ставят брейкпоинт — он ставит взгляд. И баг исчезает.
2. Пишет фичи без багов и тестирования
Он не нуждается в тестах. Его код сам себя тестирует по ночам, когда он спит (хотя… спит ли он?). Любая строка — это финальная стабильная версия, сразу с поддержкой 12 языков и Accessibility уровня NASA. А если баг всё же попался — значит, Вселенная тестирует его.
3. Работает быстрее, чем AI
Пока ChatGPT печатает “Какой хороший вопрос!”, Суперпрограммист уже зарелизил новую OS, портировал её на тостер и задокументировал всё в Markdown с диаграммами. Он не спрашивает StackOverflow — он его поддерживает своими вопросами из будущего. GPT учится на его коммитах.
4. Понимает чужой код лучше, чем автор
“Я, конечно, это писал… Но я не понимаю, как это работает.” — обычный автор.
“О, это из-за рекурсивного вызова в строке 894, который завязан на побочный эффект в Regex-фильтре. Умно.” — Суперпрограммист, не моргнув.
Он читает Perl с первой попытки, понимает аббревиатуры в названиях переменных, а баги улавливает по вибрации курсора.
5. Пишет на ассемблере кроссплатформенный код
Зачем писать на Rust, если можно на чистом x86, ARM и RISC-V сразу, с флагом “работает везде”? У него своя таблица опкодов. Даже CPU задумываются перед тем, как испортить его инструкции. Он не оптимизирует — он трансцендентирует.
6. Отвечает на вопросы о сроках вплоть до секунды
“Когда будет готово?”
“Через 2 часа, 17 минут и 8 секунд. И да, это с учётом багов, перекура и одного философского вопроса в чатике.”
Если кто-то просит сделать быстрее — он просто перестраивает пространство-время через make -j∞.
7. Реверсит и чинит проприетарные фреймворки
Проприетарный SDK отвалился, API без документации, всё шифруется Base92 и кашляет SEGFAULT’ами? Для Суперпрограммиста это обычный вторник. Он откроет бинарник, вдохнёт HEX, и спустя час уже будет патч с фиксом, улучшениями производительности и добавленным dark mode.
8. Сам себе дизайнер и UX-специалист
UI у него выходит такой, что люди плачут от красоты, а кнопки угадываются интуицией. Даже кошки справляются — проверено. Он не рисует интерфейс — он открывает его внутреннюю суть, как скульптор в мраморе. Каждое нажатие вызывает восторг.
9. Проводит маркетинговые исследования между коммитами
Между git push и coffee break он успевает собрать аналитику рынка, построить воронку продаж и переосмыслить стратегию монетизации. По выходным тестирует гипотезы. У него A/B тесты запускаются автоматически, когда он открывает ноутбук.
10. Повторяет Microsoft в одиночку
Что для корпораций 10 лет и тысяча инженеров, для него — вечер пятницы и хорошая пицца. Windows 11? Сделал Windows 12. Office? Уже есть. Excel? Работает на голосовом управлении и помогает планировать отпуск. Всё работает лучше и весит меньше.
11. Разворачивает и поддерживает инфраструктуру на 1 миллион пользователей
Его домашний NAS — это Kubernetes-кластер. Мониторинг? Grafana с мемами. Он разворачивает API быстрее, чем некоторые успевают открыть Postman. У него всё задокументировано, автоматизировано и надёжно как советский чайник.
12. Техподдержка не требуется
Пользователи его ПО не жалуются. Они просто используют его с благоговением. FAQ? Не нужен. Туториалы? Интуиция подскажет. Он — единственный разработчик, у кого кнопка “Help” ведёт на страницу благодарности.
13. Не спит, не ест, не отвлекается
Он питается кофеином и чистым желанием писать код. Вместо сна — рефакторинг. Вместо еды — debian packages. Его жизненный цикл — это непрерывный цикл разработки. CI/CD — это не pipeline, это стиль жизни.
14. Общается с заказчиками без боли
“Нам надо сделать Uber, но только лучше, за два дня.” — “Смотрите: вот roadmap, вот риски, вот MVP. И давайте вы сначала определитесь с целями.”
Он умеет говорить “нет” так, что заказчик отвечает: “Спасибо, теперь я понял, чего я хочу.”
15. Моментально программирует ядерные реакторы
Сколько тепла выделяется при расщеплении ядра урана? Суперпрограммист знает. И умеет это закодить в Rust, C, Swift, даже в Excel. Его реактор не только безопасен — он ещё и обновляется по OTA.
16. Обладает знаниями во всех возможных областях
Философия, физика, налоговая отчётность Монголии — всё у него в голове. Он участвует в викторинах, где сам себе ведущий. Если чего-то не знает — просто временно выключил память, чтобы освободить место под новые знания. Сейчас вернёт.
17. Знает все алгоритмы и паттерны проектирования
Не надо объяснять ему, как работает A*, Dijkstra или Singleton. Он сам их придумал. С ним паттерны ведут себя правильно. Даже антипаттерны исправляются сами — от стыда.
18. Работал в Apple, Google и ушёл от скуки
Он был везде: Apple, Google, NASA, IKEA (тестировал интерфейс шкафов). Потом понял, что уже слишком хорош, и ушёл разрабатывать бесплатные open-source проекты ради удовольствия. Деньги ему не нужны, потому что:
19. У него пресид биткоина и он — Сатоши Накамото
Да, это он. Просто не говорит. Все кошельки с миллионами BTC на самом деле у него на флешке, замурованной в бетон. А пока он пишет backend для фермерского кооператива в глубинке, потому что “интересно же было попробовать Kotlin Multiplatform”.
Заключение: немного серьёзности
На самом деле, программисты — обычные люди.
Мы ошибаемся. Мы устаём. Иногда мы настолько уверены в себе, что не видим очевидного — и именно тогда совершаются самые дорогие ошибки в истории IT.
Поэтому стоит помнить:
* Знать всё невозможно — но важно знать, где искать.
* Работа в команде — это не слабость, а путь к лучшему решению.
* Инструменты, которые нас оберегают — не “костыли”, а броня.
* Спрашивать — нормально. Сомневаться — правильно. Ошибаться — неизбежно. Учиться — необходимо.
* Ирония — наш щит. Код — наше оружие. Ответственность — наш компас.
А легенды про Суперпрограммиста — это напоминание, что все мы иногда стремимся к невозможному. И именно в этом — настоящая магия программирования.
(и как не оказаться гуру, чьи советы перестают работать после обновления)
“Apps may only use public APIs and must run on the currently shipping OS.” Apple App Review Guidelines
Если вы когда-либо начинали работу с новым фреймворком и ловили себя на мысли: “Сейчас всё сам пойму, документация — это для зануд” — вы точно не одиноки. У многих разработчиков срабатывает естественный инстинкт: сначала попробовать, и только потом — читать. Это нормально.
Но именно на этом этапе можно легко свернуть с правильного пути и оказаться в ситуации, где код работает… но только сегодня, и только “у меня”.
Фреймворки, особенно закрытые и проприетарные, сложны и многослойны. В них много скрытой логики, оптимизаций и особенностей реализации, которые:
* не задокументированы;
* не гарантированы;
* могут измениться в любой момент;
* являются коммерческой тайной и могут быть защищены патентами
* содержат баги, недоработки, которые известны только разработчикам фреймворка.
Когда вы действуете “по наитию”, можно легко построить архитектуру на случайных наблюдениях, вместо опоры на чётко описанные правила. Это приводит к тому, что код становится уязвимым к обновлениям и edge-кейсам.
Разработчики фреймворков создают мануалы не просто так — это договор между вами и ними. Пока вы действуете в рамках документации, они обещают:
* стабильность;
* поддержку;
* предсказуемое поведение.
Если вы выходите за эти рамки — всё, что произойдёт дальше, становится исключительно вашей ответственностью.
Эксперименты? Конечно. Но в рамках правил.
Любопытство — суперсила разработчика. Исследовать, пробовать нестандартное, тестировать границы — всё это необходимо. Но здесь есть важное “но”:
Экспериментировать нужно в рамках документации и best practices.
Документация — это не тюрьма, а карта. Она показывает, какие возможности действительно запланированы и поддерживаются. Именно такие эксперименты — не только полезны, но и безопасны.
Иногда вы можете столкнуться с настоящими “экспертами”:
* они проводят курсы,
* выступают на конференциях,
* пишут книги и блоги,
* делятся “своим подходом” к фреймворку.
Но даже если они звучат убедительно, важно помнить:
если их подходы противоречат документации — они неустойчивы.
Такие “эмпирические паттерны” могут:
* работать только на конкретной версии фреймворка;
* быть уязвимыми к обновлениям;
* ломаться в непредсказуемых ситуациях.
Гуру — это круто, когда они уважают мануалы. В противном случае — их советы нужно фильтровать через официальную документацию.
Три идеи из принципов SOLID особенно актуальны здесь:
* Open/Closed Principle: расширяй поведение через публичные API, не лезь во внутренности.
* Liskov Substitution Principle: не полагайся на реализацию, полагайся на контракт. Нарушишь — всё сломается при замене реализации.
* Dependency Inversion: Модули высокого уровня не должны зависеть от модулей низкого уровня. Оба типа должны зависеть от абстракций. Абстракции не должны зависеть от деталей. Детали должны зависеть от абстракций.
Что это значит на практике? Если вы используете фреймворк и напрямую завязываетесь на его внутренние детали — вы нарушаете этот принцип.
Вместо этого нужно строить зависимость от публичных интерфейсов, протоколов и контрактов, которые фреймворк официально поддерживает. Это даёт:
* лучшую изоляцию вашего кода от изменений во фреймворке;
* возможность легко тестировать и подменять зависимости;
* предсказуемое поведение и стабильность архитектуры.
Когда ваш код зависит от деталей, а не от абстракций — вы буквально встраиваете себя в конкретную реализацию, которая может исчезнуть или измениться в любой момент.
Иногда бывает, что вы всё сделали правильно, но работает некорректно. Это бывает — фреймворки не идеальны. В таком случае:
* Соберите минимальный воспроизводимый пример.
* Убедитесь, что вы используете только задокументированные API.
* Отправьте баг-репорт — вас точно поймут и, скорее всего, помогут.
Если же пример построен на хаках или обходах — разработчики не обязаны это поддерживать, и скорее всего просто пропустят ваш кейс.
* Читайте документацию. Серьёзно.
* Следуйте гайдам и рекомендациям от авторов.
* Экспериментируйте — но в пределах описанного.
* Проверяйте советы (даже самых известных спикеров!) через мануал.
* Отлаживайте баги с минимальными кейсами и уважением к контракту.
Фреймворки — это не чёрные ящики, а инструменты, у которых есть правила использования. Игнорировать их — значит писать код “на авось”. А мы ведь хотим, чтобы наш код жил долго, радовал пользователей, и не ломался от минорного апдейта.
Так что: доверяйте, но проверяйте. И да, читайте мануалы. Они — ваша суперспособность.
https://developer.apple.com/app-store/review/guidelines/
https://en.wikipedia.org/wiki/SOLID
https://en.wikipedia.org/wiki/API
https://en.wikipedia.org/wiki/RTFM
Docker стал незаменимым инструментом в современном DevOps и разработке. Он позволяет изолировать окружения, упрощать деплой и быстро масштабировать приложения. Однако по умолчанию Docker требует root-доступа, и это создает потенциально опасную зону, которую часто игнорируют на ранних этапах.
Docker использует возможности ядра Linux: cgroups, namespaces, iptables, mount, networking и другие системные функции. Эти операции доступны только суперпользователю.
Вот почему:
* демон dockerd запускается от root,
* команды docker передаются этому демону.
Это упрощает работу и даёт полный контроль над системой, но вместе с этим и открывает потенциальные уязвимости.
При слабой изоляции злоумышленник может использовать chroot или pivot_root для выхода на хост.
Примеры реальных атак:
* CVE-2019-5736 — уязвимость в runc, позволяла перезаписать приложение и выполнить код на хосте.
* CVE-2021-3156 — уязвимость в sudo, позволяла получить root внутри контейнера и выбраться наружу.
Если приложение в контейнере уязвимо и запускается от root, RCE = полный контроль над хостом.

Чтобы минимизировать эти риски, в Docker появился rootless-режим. В этом режиме и демон, и контейнеры запускаются от имени обычного пользователя, без каких-либо root-привилегий. Это означает, что даже если злоумышленник получит контроль над контейнером, он не сможет навредить хостовой системе.
Есть и ограничения: нельзя использовать порты ниже 1024 (например, 80 и 443), недоступен режим –privileged, а также некоторые сетевые режимы. Однако в большинстве сценариев разработки и CI/CD rootless Docker прекрасно справляется со своей задачей и значительно повышает уровень безопасности.
В мире UNIX/Linux с самого начала действует принцип наименьших привилегий. Чем меньше прав у процесса — тем меньше вреда он может нанести. Docker изначально требовал root-доступ, но сегодня это считается потенциальной угрозой.
https://docs.docker.com/engine/security/rootless/
https://rootlesscontaine.rs/
Неочевидная проблема Docker-контейнеров: скрытые уязвимости
Что такое “Dependency Hell” (DH)?
“Dependency Hell” (DH) — это термин, обозначающий проблему, возникающую при управлении зависимостями в программном обеспечении. Основные её причины заключаются в конфликте версий, сложностях интеграции различных библиотек и необходимости поддерживать совместимость между ними. В DH входят следующие аспекты:
– Конфликты версий: Проекты часто требуют конкретных версий библиотек, а разные компоненты могут зависеть от несовместимых версий одной и той же библиотеки.
– Сложности обновлений: Обновление зависимостей может привести к неожиданным ошибкам или поломке совместимости, даже если новая версия содержит исправления или улучшения.
– Изоляция окружения: Стремление изолировать и стабилизировать окружение привело к использованию виртуальных сред, контейнеризации и других решений, направленных на упрощение управления зависимостями.
Важно отметить, что хотя устранение уязвимостей является одной из причин выпуска обновленных версий библиотек, оно не является главной движущей силой возникновения DH. Основная проблема заключается в том, что каждое изменение — будь то исправление багов, добавление нового функционала или устранение уязвимости — может вызвать цепочку зависимостей, усложняющих стабильное развитие и поддержку приложения.
Как борьба с DH привела к созданию Docker?
В попытке решить проблемы DH разработчики искали способы создать изолированные и стабильные окружения для приложений. Docker стал ответом на этот вызов. Контейнеризация позволяет:
– Изолировать окружение: Все зависимости и библиотеки упаковываются вместе с приложением, что гарантирует стабильную работу в любом месте, где установлен Docker.
– Упрощать развертывание: Разработчик может один раз настроить окружение и использовать его для развертывания на любых серверах без дополнительных настроек.
– Минимизировать конфликты: Поскольку каждое приложение работает в собственном контейнере, риск конфликтов между зависимостями различных проектов существенно снижается.
Таким образом, Docker предложил эффективное решение для борьбы с проблемой DH, позволив разработчикам сосредоточиться на логике приложения, а не на сложностях настройки окружения.
Проблема устаревших зависимостей в Docker
Несмотря на все преимущества Docker, появилось новое направление проблем — устаревание зависимостей. Это происходит по нескольким причинам:
1. Контейнер застывает во времени
При создании Docker-образа фиксируется определённое состояние всех пакетов и библиотек. Даже если после сборки в базовом образе (например, `ubuntu:20.04`, `python:3.9`, `node:18-alpine`) обнаруживаются уязвимости или выпускаются новые версии, контейнер продолжает работать с изначально установленными версиями. Если образ не пересобирать, приложение может годами работать с устаревшими и потенциально уязвимыми компонентами.
2. Отсутствие автоматических обновлений
В отличие от традиционных серверов, где можно настроить автоматическое обновление пакетов через системные менеджеры (например, `apt upgrade` или `npm update`), контейнеры не обновляются автоматически. Обновление происходит только при пересборке образа, что требует дисциплины и регулярного контроля.
3. Фиксированные версии зависимостей
Чтобы обеспечить стабильность, разработчики часто фиксируют версии зависимостей в файлах вроде `requirements.txt` или `package.json`. Такой подход предотвращает неожиданные изменения, но одновременно замораживает состояние зависимостей, даже если в них впоследствии обнаруживаются ошибки или уязвимости.
4. Использование устаревших базовых образов
Базовые образы, выбранные для контейнеров, тоже могут со временем устаревать. Например, если приложение построено на образе `node:16`, а разработчики уже перешли на `node:18` из-за улучшений и исправлений, то ваше окружение останется с устаревшей версией, даже если внутри кода всё работает корректно.
Как избежать проблем с устаревшими зависимостями?
Включите в процесс CI/CD регулярные проверки на наличие устаревших зависимостей и уязвимостей:
– Для Python:
pip list --outdated
– Для Node.js:
npm outdated
– Используйте инструменты для анализа уязвимостей, например, `trivy`:
trivy image my-app
Следить за обновлениями базовых образов
Подписывайтесь на обновления базовых образов в Docker Hub или соответствующих репозиториях на GitHub, чтобы своевременно узнавать о критических исправлениях и обновлениях.
Заключение
Проблема Dependency Hell возникла не только из-за необходимости устранять уязвимости, но и как следствие сложностей в управлении и обновлении зависимостей. Docker предложил эффективное решение для борьбы с DH, обеспечив изолированные и стабильные окружения для приложений. Однако, с появлением контейнеризации возникла новая задача — необходимость регулярного обновления образов, чтобы не допустить устаревания зависимостей и появления критических уязвимостей.
Современным DevOps-специалистам важно не только решать проблемы конфликтов версий, но и внедрять практики регулярного пересбора и автоматизированного контроля за актуальностью зависимостей, чтобы контейнеры оставались безопасными и эффективными.
Введение
В прошлой статье рассматривался общий случай использования паттерна Builder, но не затрагивался вариант, когда объект создается поэтапно во времени.
Паттерн Builder (Строитель) – это порождающий шаблон проектирования, который позволяет поэтапно создавать сложные объекты. Он особенно полезен, когда объект имеет много параметров или различных конфигураций. Одним из интересных примеров его использования является возможность разделения процесса создания объекта по времени.
Иногда объект нельзя создать сразу – его параметры могут становиться известными на разных этапах выполнения программы.
Пример на Python
В этом примере объект автомобиля создается поэтапно: сначала часть данных загружается с сервера, затем пользователь вводит недостающую информацию.
import requests
def fetch_car_data():
response = requests.get("https://api.example.com/car-info")
return response.json()
builder = CarBuilder()
# Backend API data
car_data = fetch_car_data()
builder.set_model(car_data["model"])
builder.set_year(car_data["year"])
# User input
color = input("Car color: ")
builder.set_color(color)
gps_option = input("GPS feature? (yes/no): ").lower() == "yes"
builder.set_gps(gps_option)
car = builder.build()
print(car)
Представьте что вызов api, ввод данных происходят в разных частях приложения, или даже в разных библиотеках. Тогда использование паттерна Builder становится более очевидным, чем в простом примере выше.
Преимущества
– На выходе получается иммутабельная структура, которой не требуется хранить опциональные данные для временной сборки
– Объект собирается постепенно
– Избежание сложных конструкторов
– Код сборки объекта инкапсулируется лишь в одной сущности Builder
– Удобство понимания кода
Источники
https://www.amazon.com/Design-Patterns-Object-Oriented-Addison-Wesley-Professional-ebook/dp/B000SEIBB8
https://demensdeum.com/blog/2019/09/23/builder-pattern/
Стартую DemensDeum Coding Challenge #1
Приз 100 USDT
1. Надо написать рендер картинки для Windows 11 64 bit
2. Рендерить
https://demensdeum.com/logo/demens1.png
3. Картинка должна быть интегрирована в приложение
4. Графические API – Direct3D или DirectDraw
5. Выигрывает тот чье приложение получился самым малым по размеру в байтах
6. Изображение должно быть 1 в 1 попиксельно как оригинальное, сохранить цвета
7. Любые языки/фреймворки не требующие дополнительной установки -> чтобы можно было запустить сразу из приложения. Например если решение только один Python скрипт, то такое решение не подходит т.к. требуется установка Python, Pygame и запуск вручную. Хороший пример: Python скрипт завернутый вместе с Python и Pygame в exe, который запускается без дополнительных установок.
8. Сдавать в форме ссылки на публичный репозиторий с исходным кодом, инструкцией по сборке приложения. Хороший пример: проект с инструкцией по сборке в Visual Studio Community Edition
Дедлайн: 1 июня подведение итогов конкурса
Референсное решение на Zig + SDL3 + SDL3_Image:
https://github.com/demensdeum/DemensDeum-Coding-Challenge-1
Когда я задумался о создании собственного блога в 2015 году, передо мной встал вопрос: какую платформу выбрать? После долгих поисков и сравнений я остановился на WordPress. Это было не случайным выбором, а результатом анализа возможностей платформы, её преимуществ и недостатков. Сегодня я хотел бы поделиться своими мыслями и опытом использования WordPress.
WordPress — это инструмент, который предоставляет идеальный баланс между простотой и мощностью. Для меня его преимущества перевешивают недостатки, особенно с учётом большого количества решений для их устранения. Благодаря WordPress я смог создать блог, который полностью отвечает моим потребностям.
Недавно нашел приложение для скорочтения, которое хочу порекомендовать вам.
Скорочтение — это навык, который может значительно повысить вашу продуктивность, улучшить понимание прочитанного и сэкономить время. На рынке существует множество приложений, обещающих помочь вам освоить этот навык, но среди них выделяется Wordex для iOS. В этой статье мы расскажем, что такое Wordex, какие у него возможности, кому он подойдет и почему он заслуживает внимания.
Wordex — это приложение для iOS, разработанное специально для развития навыков скорочтения. Оно помогает пользователям читать тексты быстрее, фокусироваться на ключевых идеях и избегать отвлекающих факторов. Программа основана на научных подходах и предлагает удобные инструменты для повышения скорости чтения.
Wordex идеально подходит:
Wordex — это не просто инструмент для обучения скорочтению. Это программа, которая развивает концентрацию, расширяет словарный запас и повышает продуктивность. Попробовав Wordex, вы заметите, как чтение перестанет быть рутиной и превратится в захватывающее занятие.
Если вы хотите освоить скорочтение или улучшить существующие навыки, Wordex — отличный выбор. Простое в использовании и эффективное приложение поможет вам достичь ваших целей и сэкономить драгоценное время. Скачайте Wordex из App Store и начните тренироваться уже сегодня!
AppStore:
https://apps.apple.com/us/app/speed-reading-book-reader-app/id1462633104
Существует множество статей на тему DRY, я рекомендую прочитать первоисточник “Программист-прагматик” за авторством Andy Hunt и Dave Thomas. Однако я всё равно вижу как у множества разработчиков вызывает вопросы данный принцип в разработке программного обеспечения.
Принцип DRY гласит о том что нам нельзя повторяться, это касается как кода, так и процессов которые мы выполняем как программисты. Пример кода который нарушает DRY:
class Client {
public let name: String
private var messages: [String] = []
init(name: String) {
self.name = name
}
func receive(_ message: String) {
messages.append(message)
}
}
class ClientController {
func greet(client: Client?) {
guard let client else {
debugPrint("No client!")
return
}
client.receive("Hello \(client.name)!")
}
func goodbye(client: Client?) {
guard let client else {
debugPrint("No client!!")
return
}
client.receive("Bye \(client.name)!")
}
}
Как можно увидеть в методе greet и goodbye передается опциональный инстанс класса Client, который затем нужно проверять на nil, после чего начинать работу с ним. Чтобы соблюсти метод DRY, нужно убрать повторяющуюся проверку на nil для инстанса класса. Реализовать это можно множеством путей, один из вариантов это передавать инстанс в конструктор класса, после чего необходимость в проверках отпадет.
Соблюдаем DRY с помощью специализации ClientController на единственном инстансе Client:
class Client {
public let name: String
private var messages: [String] = []
init(name: String) {
self.name = name
}
func receive(_ message: String) {
messages.append(message)
}
}
class ClientController {
private let client: Client
init(client: Client) {
self.client = client
}
func greet() {
client.receive("Hello \(client.name)!")
}
func goodbye() {
client.receive("Bye \(client.name)!")
}
}
Также DRY касается процессов которые происходят во время разработки программного обеспечения. Представим ситуацию при которой команде разработчиков приходится выкладывать релиз в маркет самостоятельно, отвлекая их от разработки ПО, это тоже нарушение DRY. Такая ситуация разрешается с помощью подключения CI/CD пайплайна, при котором релиз выпускается автоматически, при соблюдении определенных условий разработчиками.
В целом DRY про отсутствие повторений как в процессах так и в коде, это важно также из-за наличия человеческого фактора: код который содержит меньше повторяющегося, зашумленного кода, проще проверять на ошибки; Автоматизированные процессы не дают возможности людям ошибаться при их выполнении, потому что там не участвует человек.
У Стива Джобса было выражение “Строка кода, которую не пришлось писать, — это строка кода, которую вам никогда не придется дебажить.”
https://pragprog.com/titles/tpp20/the-pragmatic-programmer-20th-anniversary-edition/
https://youtu.be/-msIEOGvTYM
Рад сообщить, что теперь я предлагаю свои услуги как iOS-разработчик на Fiverr. Если вам нужна помощь в разработке качественных iOS-приложений или улучшении существующих проектов, ознакомьтесь с моим профилем:
https://www.fiverr.com/s/Q7x4kb6
Буду рад возможности поработать над вашим проектом.
Email: demensdeum@gmail.com
Telegram: https://t.me/demensdeum
Сегодня я выпустил версию RaidenVideoRipper для устройств Apple с macOS и процессоров M1/M2/M3/M4 (Apple Silicon). RaidenVideoRipper это приложение для быстрого монтажа видео, которое позволяет вырезать часть видеофайла в новый файл. Также можно делать gif, экспортировать звуковую дорожку в mp3.
Далее я коротко опишу какие команды я использовал для того чтобы это осуществить. Теорию того что здесь происходит, документацию утилит, можно прочитать по следующим ссылкам:
https://www.unix.com/man-page/osx/1/otool/
https://www.unix.com/man-page/osx/1/install_name_tool/
https://llvm.org/docs/CommandGuide/llvm-nm.html
https://linux.die.net/man/1/file
https://www.unix.com/man-page/osx/8/SPCTL/
https://linux.die.net/man/1/chmod
https://linux.die.net/man/1/ls
https://man7.org/linux/man-pages/man7/xattr.7.html
https://doc.qt.io/qt-6/macos-deployment.html
Для начала установите Qt на свою macOS, также установите окружение для Qt Desktop Development. После этого соберите свой проект например в Qt Creator, далее я опишу что нужно для того чтобы зависимости с внешними динамическими библиотеками корректно отрабатывали при дистрибутизации приложения конечным пользователям.
Создайте в папке YOUR_APP.app/Contents вашего приложения директорию Frameworks, сложите в нее внешние зависимости. Для примера так выглядит Frameworks для приложения RaidenVideoRipper:
Frameworks
├── DullahanFFmpeg.framework
│ ├── dullahan_ffmpeg.a
│ ├── libavcodec.60.dylib
│ ├── libavdevice.60.dylib
│ ├── libavfilter.9.dylib
│ ├── libavformat.60.dylib
│ ├── libavutil.58.dylib
│ ├── libpostproc.57.dylib
│ ├── libswresample.4.dylib
│ └── libswscale.7.dylib
├── QtCore.framework
│ ├── Headers -> Versions/Current/Headers
│ ├── QtCore -> Versions/Current/QtCore
│ ├── Resources -> Versions/Current/Resources
│ └── Versions
├── QtGui.framework
│ ├── Headers -> Versions/Current/Headers
│ ├── QtGui -> Versions/Current/QtGui
│ ├── Resources -> Versions/Current/Resources
│ └── Versions
├── QtMultimedia.framework
│ ├── Headers -> Versions/Current/Headers
│ ├── QtMultimedia -> Versions/Current/QtMultimedia
│ ├── Resources -> Versions/Current/Resources
│ └── Versions
├── QtMultimediaWidgets.framework
│ ├── Headers -> Versions/Current/Headers
│ ├── QtMultimediaWidgets -> Versions/Current/QtMultimediaWidgets
│ ├── Resources -> Versions/Current/Resources
│ └── Versions
├── QtNetwork.framework
│ ├── Headers -> Versions/Current/Headers
│ ├── QtNetwork -> Versions/Current/QtNetwork
│ ├── Resources -> Versions/Current/Resources
│ └── Versions
└── QtWidgets.framework
├── Headers -> Versions/Current/Headers
├── QtWidgets -> Versions/Current/QtWidgets
├── Resources -> Versions/Current/Resources
└── Versions
Для упрощения я распечатал только второй уровень вложенности.
Далее печатаем текущие динамические зависимости вашего приложения:
otool -L RaidenVideoRipper
Вывод для бинарика RaidenVideoRipper, который лежит в RaidenVideoRipper.app/Contents/MacOS:
RaidenVideoRipper:
@rpath/DullahanFFmpeg.framework/dullahan_ffmpeg.a (compatibility version 0.0.0, current version 0.0.0)
@rpath/QtMultimediaWidgets.framework/Versions/A/QtMultimediaWidgets (compatibility version 6.0.0, current version 6.8.1)
@rpath/QtWidgets.framework/Versions/A/QtWidgets (compatibility version 6.0.0, current version 6.8.1)
@rpath/QtMultimedia.framework/Versions/A/QtMultimedia (compatibility version 6.0.0, current version 6.8.1)
@rpath/QtGui.framework/Versions/A/QtGui (compatibility version 6.0.0, current version 6.8.1)
/System/Library/Frameworks/AppKit.framework/Versions/C/AppKit (compatibility version 45.0.0, current version 2575.20.19)
/System/Library/Frameworks/ImageIO.framework/Versions/A/ImageIO (compatibility version 1.0.0, current version 1.0.0)
/System/Library/Frameworks/Metal.framework/Versions/A/Metal (compatibility version 1.0.0, current version 367.4.0)
@rpath/QtNetwork.framework/Versions/A/QtNetwork (compatibility version 6.0.0, current version 6.8.1)
@rpath/QtCore.framework/Versions/A/QtCore (compatibility version 6.0.0, current version 6.8.1)
/System/Library/Frameworks/IOKit.framework/Versions/A/IOKit (compatibility version 1.0.0, current version 275.0.0)
/System/Library/Frameworks/DiskArbitration.framework/Versions/A/DiskArbitration (compatibility version 1.0.0, current version 1.0.0)
/System/Library/Frameworks/UniformTypeIdentifiers.framework/Versions/A/UniformTypeIdentifiers (compatibility version 1.0.0, current version 709.0.0)
/System/Library/Frameworks/AGL.framework/Versions/A/AGL (compatibility version 1.0.0, current version 1.0.0)
/System/Library/Frameworks/OpenGL.framework/Versions/A/OpenGL (compatibility version 1.0.0, current version 1.0.0)
/usr/lib/libc++.1.dylib (compatibility version 1.0.0, current version 1800.101.0)
/usr/lib/libSystem.B.dylib (compatibility version 1.0.0, current version 1351.0.0)
Как можно увидеть у RaidenVideoRipper в зависимостях Qt и dullahan_ffmpeg. Dullahan FFmpeg это форк FFmpeg который инкапсулирует его функционал в динамическую библиотеку, с возможностью получения текущего прогресса выполнения и отмены, с помощью Си процедур.
Далее заменяйте у приложения и всех необходимых библиотек пути с помощью install_name_tool.
Команда для этого такая:
install_name_tool -change old_path new_path target
Пример использования:
install_name_tool -change /usr/local/lib/libavfilter.9.dylib @rpath/DullahanFFmpeg.framework/libavfilter.9.dylib dullahan_ffmpeg.a
После того как вы пропишете все правильные пути, приложение должно стартовать корректно. Проверьте что все пути к библиотекам относительные, перенесите бинарик, и откройте заново.
Если вы видите какую-то ошибку, то проверяйте пути через otool и меняйте снова через install_name_tool.
Также бывает ошибка с путаницей зависимостей, когда у замененной вами библиотеки отсутствует символ в таблице, проверить наличие или отсутствие символа можно так:
nm -gU path
После выполнения вы увидите всю символьную таблицу библиотеки или приложения.
Также возможно что вы скопируете зависимости не той архитектуры, проверить это можно с помощью file:
file path
Утилита file покажет вам к какой архитектуре принадлежит библиотека или приложение.
Также Qt требует наличия папки Plugins в папке Contents вашей директории YOUR_APP.app, скопируйте плагины из Qt в Contents. Далее проверьте работоспособность приложения, после этого можете приступать к оптимизации папки Plugins, удаляя элементы из этой папки и тестируя приложение.
После того как вы скопируете все зависимости и поправите пути для динамической линковки, вам нужно будет подписать приложение подписью разработчика, и еще дополнительно отправить версию приложения в Apple для нотаризации.
Если у вас нет 100$ на лицензию разработчика или вы не хотите ничего подписывать, то тогда напишите вашим пользователям инструкцию по запуску приложения.
Эта инструкция работает также и для RaidenVideoRipper:
Ошибка с флагом карантина обычно воспроизводится тем что на экране пользователя появляется ошибка “Приложение повреждено”. В этом случае надо убрать флаг карантина из метаданных.
Ссылка на сборку RaidenVideoRipper для Apple Silicon:
https://github.com/demensdeum/RaidenVideoRipper/releases/download/1.0.1.0/RaidenVideoRipper-1.0.1.0.dmg
Если вы хотите стабилизировать видео и убрать дрожание камеры, инструмент `ffmpeg` предлагает мощное решение. Благодаря встроенным фильтрам `vidstabdetect` и `vidstabtransform`, можно добиться профессионального результата без использования сложных видеоредакторов.
Прежде чем начать, убедитесь, что ваш `ffmpeg` поддерживает библиотеку `vidstab`. В Linux это можно проверить командой:
bash
ffmpeg -filters | grep vidstab
Если библиотека не установлена, её можно добавить:
sudo apt install ffmpeg libvidstab-dev
Установка для macOS через brew:
brew install libvidstab
brew install ffmpeg
Теперь перейдём к процессу.
Шаг 1: Анализ движения
Сначала нужно провести анализ движения видео и создать файл с параметрами стабилизации.
ffmpeg -i input.mp4 -vf vidstabdetect=shakiness=10:accuracy=15 transfile=transforms.trf -f null -
Параметры:
shakiness: Уровень дрожания видео (по умолчанию 5, можно увеличить до 10 для более сложных случаев).
accuracy: Точность анализа (по умолчанию 15).
transfile: Имя файла для сохранения параметров движения.
Шаг 2: Применение стабилизации
Теперь можно применить стабилизацию, используя файл трансформаций:
ffmpeg -i input.mp4 -vf vidstabtransform=input=transforms.trf:zoom=5 output.mp4
Параметры:
input: Указывает на файл с параметрами трансформации (созданный на первом шаге).
zoom: Коэффициент масштабирования для устранения черных краев (например, 5 — автоматическое увеличение до устранения артефактов).
Если у вас было желание запустить подобие ChatGPT и у вас достаточно мощный компьютер, например с видеокартой Nvidia RTX, то тогда вы можете запустить проект ollama, который позволит использовать одну из готовых LLM моделей, на локальный машине, абсолютно бесплатно. ollama обеспечивает возможность общения с LLM моделями, на манер ChatGPT, также в последней версии объявлена возможность прочтения изображений, форматирование выходных данных в формат json.
Сам проект я запускал также и на макбуке с процессором Apple M2, и мне известно что поддерживаются последние модели видеокарт от AMD.

Для установки на macOS зайдите на сайт ollama:
https://ollama.com/download/mac
Нажмите “Download for macOS”, у вас загрузится архив вида ollama-darwin.zip, внутри архива будет Ollama.app который нужно скопировать в “Applications”. После этого запускайте Ollama.app, скорее всего при первом запуске произойдет процесс установки. После этого в трее вы увиделе иконку ollama, трэй это справа сверху рядом с часами.
После этого запускайте обычный терминал macOS, и набирайте команду загрузки, установки и запуска любой модели ollama. Список доступных моделей, описания, их характеристик можно увидеть на сайте ollama:
https://ollama.com/search
Выбирайте модель с наименьшим количеством параметров, если она не влезает в вашу видеокарту на запуске.
Для примера командв запуск модели llama3.1:latest:
ollama run llama3.1:latest
Установка для Windows и Linux в целом похожа, в одном случае будет установщик ollama и дальнейшая работа с ней через Powershell.
Для Linux установка производится скриптом, однако я рекомендую использовать версию конкретно вашего пакетного менеджера. В Linux ollama запустить также можно через обычный терминал bash.
Источники
https://www.youtube.com/watch?v=Wjrdr0NU4Sk
https://ollama.com
Если вы смогли запустить Unreal Engine 5 Editor на Macbook с процессором Apple, то вы могли заметить что эта штука достаточо сильно тормозит.
Чтобы увеличить производительность редактора и движка, проставьте Engine Scalability Settings -> Medium. После этого движок начнет рисовать все не так красиво, зато вы сможете нормально поработать с движком на своем макбуке.
